intelligenza artificiale

IA e lavoro: come nasce e agisce la discriminazione algoritmica



Indirizzo copiato

La digitalizzazione riproduce e amplifica pregiudizi e disuguaglianze, dando luogo a forme di discriminazione algoritmica nel mercato del lavoro. Casi giurisprudenziali, dinamiche economiche e proposte regolatorie mostrano perché servano nuove tutele per lavoratrici e lavoratori

Pubblicato il 18 dic 2025

Marina De Angelis

PhD, economista, ricercatrice Inapp e membro del Laboratorio Minerva su diversità e disuguaglianza di genere (la Sapienza Università di Roma)

Silvia Donà

PhD, giurista, ricercatrice Inapp

Emiliano Mandrone

Primo ricercatore Inapp



L'impatto dell'IA nell’economia e nel lavoro: più produttività, ma anche più disuglianze AI e cultura aziendale ai e lavoro

Il piano digitale ripropone spesso vizi e virtù della dimensione analogica. Gran parte dei pregiudizi di cui siamo portatori inconsapevoli possono attivarsi improvvisamente nel mondo in cui viviamo.

Gli algoritmi possono essere afflitti da bias sistemici che perpetuano le discriminazioni esistenti nel mondo analogico e, a volte, le amplificano (De Angelis, Donà, 2023).

La discriminazione algoritmica è una fattispecie di selezione avversa che si compie per mezzo o per tramite di una macchina (software o hardware). Tipicamente è il prodotto di sistemi informatici opachi, difficili da decifrare perché sia il codice che il perimetro di autonomia non sono sempre noti.

Spesso produce una discriminazione indiretta, ovvero un criterio, un comportamento o una disposizione apparentemente neutra può mettere persone appartenenti a un gruppo (identificabile per sesso, età, etnia, religione, disabilità, orientamento sessuale, ecc.) in una posizione di svantaggio rispetto ad altre persone, senza una giustificazione oggettiva e ragionevole.

Due tipologie di algoritmi e i loro meccanismi discriminatori

Gli algoritmi sono classificabili in due sottospecie in base al loro funzionamento:

i) gli algoritmi rule based (ARB) in cui tutto il codice del programma è noto, istruzioni di selezione comprese;

ii) gli algoritmi machine learning (AML) il cui processo decisionale è basato su un metodo statistico, probabilistico.

Gli esiti del primo ARB sono prevedibili perché rispecchiano un pacchetto di “istruzioni date”, quelli del secondo tipo dipendono dalle interazioni con il contesto, sono adattivi e quindi dinamici.

Le sentenze italiane che hanno riconosciuto la discriminazione algoritmica

Sul piano giuridico due esempi di discriminazione algoritmica possono senz’altro essere quelli accertati dal Tribunale di Bologna nel 2020 e dal Tribunale di Palermo del 2023. La prima riguarda una discriminazione indiretta, frutto della modalità di accesso alla prenotazione dei turni di lavoro tramite piattaforma digitale. La premialità era definita in base ai dati sulla “partecipazione e affidabilità” dei lavoratori nei picchi di lavoro, secondo un meccanismo di ranking.

Ciò produceva una selezione a favore dei lavoratori più assidui e partecipativi (rispetto a chi partecipava ad uno sciopero). Al contrario, coloro che presentavano tassi di assenza più elevati erano penalizzati nella prenotazione dei turni, secondo una logica di estromissione dal ciclo produttivo. Il Tribunale di Bologna, nel 2020, ha ordinato alla società di rimuovere le premialità così definite e di pagare le spese legali (Barbera, 2021).

Anche il Tribunale di Palermo nel 2023 ha identificato una discriminazione indiretta in danno “dei lavoratori che per condizione personale, familiare, età o handicap sono svantaggiati rispetto agli altri, perché l’esercizio di diritti fondamentali è incompatibile con gli standard di produttività e assiduità richiesti dall’algoritmo, ma anche dall’impresa-piattaforma che se ne avvale” (De Pretis, 2025).

Come la discriminazione algoritmica opera nel mercato del lavoro

Sul piano economico la discriminazione algoritmica nasce dal funzionamento stesso degli algoritmi e nel mercato del lavoro si manifesta in due modi principali: nella fase di accesso, quando i sistemi di selezione utilizzano dati online che riproducono le disuguaglianze già presenti e consolidate nella società e nel mercato del lavoro come quelle di genere, età o origine, e nella definizione delle condizioni contrattuali, quando il management algoritmico stabilisce retribuzioni, orari o forme di impiego in modo potenzialmente discriminatorio.

I sistemi di ranking che premiano i lavoratori più veloci o disponibili in orari scomodi tendono infatti a favorire chi ha maggiore flessibilità e a penalizzare chi ha carichi di cura o si trova in condizioni più vulnerabili.

Casi concreti e criticità del management algoritmico

Un esempio di algoritmo di machine learning (AML) è quello utilizzato da Amazon per selezionare il personale, in cui il processo decisionale mutava nel tempo secondo relazioni probabilistiche: il risultato del processo era comprensibile solo successivamente (Gaudio, 2024).

Oppure, per un’offerta di lavoro STEM (studi di tecnologia e scienze), se l’algoritmo non è programmato adeguatamente, tenderà a preferire un candidato uomo e bianco in quanto questa tipologia è la più rappresentata.

La performance richiesta dal management algoritmico mette a rischio molte delle tutele faticosamente guadagnate nel corso di secoli dai lavoratori. In maniera non dissimile da quello che viene fatto sul piano analogico – con la difesa delle rendite di posizione, la ricerca del profitto a tutti i costi, la minimizzazione dei costi, la massimizzazione della produzione e dei profitti…– anche l’algoritmo, direttamente o per conto terzi, implementa strategie di massimizzazione in base ai limiti determinati Nulla di nuovo in sostanza, solo una forma diversa.

Vecchi problemi in nuove vesti digitali

È una trasformazione che nulla aggiunge a comportamenti deplorevoli, tipici del mercato capitalistico e competitivo.

Quello che è capitato è che ci siamo distratti (Mandrone, 2022) e sul piano digitale si sono riaffacciati sotto mentite spoglie comportamenti socialmente non desiderabili per i quali, nel piano analogico, avevamo molti strumenti preposti alla tutela dei diritti degli individui e della concorrenza tra le imprese (antitrust, statuto dei lavoratori…).

L’opacità degli algoritmi e la necessità di certificazione

Abbondanti sono gli strumenti di controllo delle iperboli e le angherie del mercato e sovente la presenza di un provider o controllore pubblico è proprio dettata dalla necessità di un contrappeso per i soggetti più fragili o per i fallimenti di mercato.

Un ulteriore problema legato alla gestione tramite algoritmo è opaco: il meccanismo non è facilmente intelligibile, così richiede una serie di analisi complesse da eseguire per verificare la presenza di criteri non conformi alle norme legali e sociali correnti.

Una soluzione potrebbe essere un sistema di certificazione ex antefaircode – ovvero un software che non contiene indicazioni contrarie alla normativa corrente. Questo meccanismo è comune e diffuso: non si possono introdurre beni o servizi che non siano certificati, rispettosi delle norme e, in genere, accettati dalla nostra comunità.

Verso un’equità algoritmica attraverso regole e vigilanza

Fenomeni di cherry picking (scegliersi le condizioni e i clienti migliori, che consentono i maggiori guadagni) sono frequentissimi in tutti i mercati e in tutti i settori. Le asimmetrie informative o le selezioni malevoli sono comuni. E ci sono pure molte strategie di contrasto e correzioni di queste inefficienze allocative del mercato intentate dallo Stato (antitrust, privacy, ecc.).

L’equità algoritmica, intesa sia come una completa informazione dei codici usati e delle istruzioni fornite all’algoritmo che come la vigilanza dei criteri che l’IA ha prodotto autonomamente (basandosi su feedback, ranking, consenso, lamentele, ecc.), rappresenta il tentativo di regolamentare il comportamento delle macchine, mettendogli dei paletti alla sua autonomia quando sconfina dalla norma sociale corrente.

Un lavoro che dobbiamo portare avanti è l’aggiornamento al piano digitale del set valoriale e dell’impianto normativo che abbiamo prodotto nella dimensione analogica.

Bibliografia

Barbera, M., (2021), Discriminazioni algoritmiche e forme di discriminazione, in Labour&Law Issues, vol.7, n.1.

De Angelis M., Donà S. & Bergamante F., (2023) Algorithmic Discriminations and New Forms of Protections: An Analysis of the Italian Case, Social Sciences, MDPI, vol. 12(9), pages 1-14, September.

De Pretis P. (2025), Lavoro e piattaforme digitali. Qualificazione, poteri e tutele, Giappichelli Editore.

Gaudio, G. (2024), Valutazioni d’impatto e management algoritmico, in Rivista Giuridica del lavoro n.4/2024, Parte I, pp. 538 e ss.

Mandrone E., (2022), Contro i tiranni digitali, lavoce.info.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x