contrattazione algoritmica

Algoritmi nei rapporti di lavoro: tutele, trasparenza e nuove regole



Indirizzo copiato

La contrattazione algoritmica sta ridisegnando il lavoro su piattaforma, perché gli algoritmi incidono su turni, valutazioni e accesso alle opportunità. Tra casi giudiziari, iniziative sindacali e nuove norme europee, emerge la necessità di regolare un potere datoriale sempre più automatizzato

Pubblicato il 20 mar 2026

Luana della Luna

avvocata, ESSE-CI Centro Studi



glovo foodinho (1)
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

La contrattazione algoritmica rappresenta una delle frontiere più avanzate e controverse delle relazioni industriali contemporanee. Nelle piattaforme digitali di consegna a domicilio, gli algoritmi non si limitano a ottimizzare i percorsi o a gestire gli ordini: governano il lavoro nella sua interezza, determinando chi ottiene una sessione lavorativa, chi viene penalizzato per un’assenza, chi scala la graduatoria interna e chi, al contrario, ne scivola in fondo.

Comprendere questo fenomeno — le sue implicazioni giuridiche, le risposte sindacali e il quadro normativo emergente — è oggi indispensabile per chiunque si occupi di diritto del lavoro.

Come gli algoritmi trasformano il governo del lavoro

Il processo di automazione aziendale non è una novità: da decenni le imprese ricorrono a sistemi informatici per ottimizzare la produzione, ridurre i costi e aumentare la velocità operativa. Ciò che caratterizza la fase attuale, tuttavia, è qualcosa di qualitativamente diverso: non si automatizzano soltanto le attività operative, ma le stesse funzioni di governo del lavoro, tradizionalmente affidate alla discrezionalità umana del datore o del manager.

Attraverso tecniche di machine learning e di profilazione comportamentale, gli algoritmi assegnano turni, valutano le performance, determinano le priorità di accesso alle sessioni lavorative, definiscono i criteri reputazionali dei lavoratori e, in alcuni casi, decidono persino la cessazione del rapporto. La decisione non proviene più da un superiore gerarchico identificabile e responsabile, ma da un sistema automatizzato che elabora dati in modo opaco, spesso incomprensibile anche per chi lo ha progettato.

È in questo contesto che si afferma il fenomeno noto come algorithmic bossing: l’esercizio di un potere datoriale automatizzato, impersonale e pervasivo, capace di condizionare profondamente la vita professionale dei lavoratori. La sua pericolosità giuridica risiede in tre caratteristiche strutturali: l’opacità, poiché i criteri decisionali non sono accessibili né comprensibili per il lavoratore; la scalabilità, che permette di esercitare un controllo capillare su migliaia di individui simultaneamente; e l’assenza di responsabilità individuale, che rende difficile individuare a chi imputare una decisione lesiva.

Va riconosciuto, tuttavia, che le ragioni del ricorso a questi strumenti non sono esclusivamente speculative. Le piattaforme digitali gestiscono forze lavoro estremamente frammentate, distribuite su territori vasti, con domanda variabile e imprevedibile. L’algoritmo consente di coordinare in tempo reale un numero di lavoratori che nessuna struttura manageriale tradizionale potrebbe governare con analoga efficienza. Ignorare questa dimensione non aiuta a costruire soluzioni equilibrate: la sfida non è abolire l’automazione, ma disciplinarla.

Il ruolo dei sindacati e la contrattazione algoritmica

In questo scenario, il sindacato è chiamato a reinventare il proprio ruolo. Accanto alle tradizionali battaglie per il salario minimo, le tutele previdenziali e la sicurezza sul lavoro, le organizzazioni sindacali si trovano oggi a dover negoziare su un terreno inedito: quello delle scelte algoritmiche.

La contrattazione algoritmica consiste nell’intervento sindacale sui parametri, sulle soglie e sui criteri di funzionamento dei software di gestione automatizzata del lavoro. In concreto, essa può assumere diverse forme. Innanzitutto, le clausole di trasparenza: i sindacati chiedono alle aziende di rendere accessibili le logiche di fondo degli algoritmi, almeno nelle loro linee essenziali, in modo che i lavoratori possano capire come vengono valutati e su quali basi vengono adottate le decisioni che li riguardano. In secondo luogo, i diritti di informazione preventiva: prima che un sistema automatizzato venga introdotto o modificato, le organizzazioni sindacali devono essere informate e, dove possibile, consultate. In terzo luogo, il controllo umano sulle decisioni automatizzate: ogni decisione che incide significativamente sulla posizione del lavoratore — dalla riduzione delle sessioni disponibili alla sospensione dell’account — deve poter essere rivista da una persona fisica, competente e responsabile.

A questi strumenti si aggiunge la richiesta di meccanismi di ricorso efficaci: il lavoratore che ritiene ingiusta una decisione algoritmica deve poterla contestare attraverso procedure chiare, accessibili e tempestive, senza dover ricorrere immediatamente all’azione giudiziaria. La costruzione di questi meccanismi richiede un dialogo costante tra rappresentanti sindacali, esperti di diritto del lavoro e tecnici informatici, segnalando come la contrattazione algoritmica abbia oggi una dimensione inevitabilmente interdisciplinare.

Il caso Glovo/Foodinho: un precedente emblematico

Tra i settori più esposti al governo algoritmico vi è quello delle consegne a domicilio, dove i rider operano in un contesto interamente mediato da piattaforme digitali. Il caso Glovo/Foodinho rappresenta, in questo ambito, uno dei precedenti giudiziari più significativi nel panorama italiano, per la nitidezza con cui ha illuminato i rischi di un sistema di gestione automatizzata privo di adeguate garanzie.

La vicenda origina da una denuncia promossa da più federazioni della CGIL a tutela dei rider, nella quale si contestava il carattere discriminatorio dell’algoritmo adottato da Foodinho. Il sistema si basava su un punteggio di eccellenza, costruito intorno a due criteri principali. Il primo era quello delle “ore ad alta domanda”: i lavoratori che si rendevano disponibili nelle fasce serali dei fine settimana e nei giorni festivi — vale a dire proprio nelle ore in cui la conciliazione con la vita familiare e personale è più complessa — accumulavano un punteggio più alto e acquisivano il diritto di scegliere con precedenza le sessioni lavorative successive. Il secondo criterio riguardava le mancate presentazioni (c.d. no show): l’assenza a una sessione prenotata comportava una penalizzazione nel ranking, indipendentemente dalla ragione dell’assenza.

Il risultato combinato di questi due criteri produceva un sistema in cui chi si assentava — per motivi sindacali, familiari, religiosi o di salute — veniva sistematicamente retrocesso nella graduatoria, perdendo opportunità di lavoro a vantaggio di chi garantiva una disponibilità totale e acritica. La dimensione discriminatoria non era quindi un effetto collaterale accidentale del sistema, ma la conseguenza strutturale di scelte di design algoritmico che privilegiavano la piena disponibilità su qualsiasi altra considerazione.

I giudici di merito del Tribunale di Palermo hanno riconosciuto la condotta antisindacale posta in essere da Foodinho, cristallizzando un principio di grande rilievo: la necessità di rendere accessibili e comprensibili i meccanismi decisionali automatizzati, garantendo ai lavoratori un effettivo diritto alla spiegazione delle logiche che determinano le scelte operative delle piattaforme.

Non si tratta di un caso isolato. Già in precedenza, il Tribunale di Bologna aveva accertato la natura discriminatoria del cosiddetto algoritmo “Frank” — adottato dalla stessa Foodinho in una fase precedente — che penalizzava i rider che si assentavano per esercitare il diritto di sciopero. Il parallelismo tra i due casi rafforza la tesi secondo cui la discriminazione algoritmica non è un fenomeno episodico, ma un rischio sistemico insito nel design di questi strumenti, quando questo non viene adeguatamente presidiato sul piano normativo e contrattuale.

La direttiva europea sul lavoro tramite piattaforme digitali

Il legislatore europeo ha registrato con relativa tempestività queste trasformazioni, avviando un percorso normativo destinato a ridisegnare i confini giuridici del lavoro su piattaforma. La Direttiva 2024/2831 – frutto di un iter legislativo durato quasi tre anni – si pone l’obiettivo dichiarato di conciliare innovazione tecnologica, competitività economica e tutela dei diritti fondamentali dei lavoratori.

L’innovazione più significativa introdotta dalla Direttiva è la presunzione legale di subordinazione: quando sussistono elementi indicativi di direzione e controllo nel contesto del lavoro su piattaforma, non è il lavoratore a dover dimostrare la natura subordinata del proprio rapporto, ma è la piattaforma a dover provare il contrario. Questa inversione dell’onere probatorio rappresenta un cambiamento di paradigma rilevante, capace di riequilibrare una asimmetria strutturale che caratterizza questo tipo di rapporti.

Altrettanto significative sono le disposizioni in materia di trasparenza algoritmica. La Direttiva impone obblighi di informazione, supervisione umana sui sistemi automatizzati e la garanzia che i lavoratori possano contestare le decisioni adottate nei loro confronti. Non si tratta di un diritto meramente formale: la Direttiva richiede che i sistemi automatizzati siano effettivamente monitorati da personale qualificato, che le decisioni ad alto impatto siano sottoponibili a revisione umana, e che le informazioni fornite ai lavoratori siano comprensibili e non meramente tecniche.

Gli Stati membri dispongono di due anni di tempo per recepire queste disposizioni nel diritto nazionale, con scadenza fissata a dicembre 2026.

Come si muove la contrattazione algoritmica in Italia

Il Parlamento italiano ha avviato il processo di recepimento con la legge 13 giugno 2025, n. 91, entrata in vigore il 10 luglio 2025. L’articolo 11 della legge delega il Governo a intervenire sull’attuale capo V-bis del D.Lgs. 81/2015 attraverso un pacchetto articolato di misure.

Sul piano della qualificazione del rapporto di lavoro, dovrà essere introdotta la presunzione di subordinazione già prevista dalla Direttiva, con le relative conseguenze in termini di onere probatorio. Parallelamente, è previsto un adeguamento della definizione di “piattaforma di lavoro digitale”, al fine di garantire una copertura normativa effettiva anche alle strutture organizzative più recenti e alle forme ibride di intermediazione digitale.

Sul piano delle garanzie individuali, la legge delega impone l’introduzione di limiti al trattamento dei dati personali tramite sistemi automatizzati, la definizione di modalità di informazione trasparente sulla gestione dei dati e il potenziamento delle misure in materia di salute e sicurezza, incluse le norme specifiche contro molestie e violenze. Le tutele previdenziali dovranno essere adeguate alla nuova realtà del lavoro di piattaforma.

Restano aperte, tuttavia, alcune questioni di non secondaria importanza. La definizione degli standard tecnici di trasparenza algoritmica richiede competenze che il legislatore tradizionale non possiede: sarà necessario un confronto strutturato con esperti di informatica e ingegneria dei sistemi. L’effettività delle procedure di ricorso dipenderà dal livello di risorse e di specializzazione delle istituzioni chiamate a gestirle. E la coerenza del recepimento con le norme già esistenti in materia di protezione dei dati — in primo luogo il GDPR — andrà attentamente verificata.

Le regole del lavoro nell’era degli algoritmi

Il governo algoritmico del lavoro non è una tendenza passeggera: è la forma che l’organizzazione d’impresa sta assumendo nell’economia digitale, e il suo impatto sui diritti dei lavoratori è destinato ad ampliarsi con la diffusione dell’intelligenza artificiale. Il percorso normativo avviato a livello europeo e ora in fase di recepimento in Italia rappresenta un primo, importante tentativo di costruire un quadro giuridico adeguato, ma il lavoro da fare è ancora molto.

La sfida fondamentale è di ordine metodologico prima ancora che tecnico: il diritto del lavoro dovrà imparare a ragionare in termini di architettura algoritmica, di design dei sistemi, di audit tecnologici. Non basta affermare il diritto alla trasparenza se non si definiscono con precisione gli standard che rendono un algoritmo effettivamente comprensibile per un lavoratore o per un giudice.

In questa prospettiva, il dialogo tra legislatori, parti sociali e sviluppatori di sistemi digitali non è solo auspicabile: è una condizione indispensabile. La costruzione di un lavoro degno nell’era degli algoritmi richiede che le regole del gioco siano definite non solo da chi detiene il potere tecnologico, ma da tutti coloro che di quell’algoritmo subiscono le conseguenze.

Perché, in ultima analisi, se l’algoritmo è destinato a diventare un attore centrale nelle relazioni produttive, è necessario che la sua azione sia regolata dagli stessi principi — uguaglianza, dignità, trasparenza — che il nostro ordinamento giuridico riconosce come fondamentali e irrinunciabili.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x