La trasformazione digitale rappresenta un fenomeno di portata sistemica, con rilevanti implicazioni economiche e sociali. In ambito aziendale non si riduce alla semplice adozione di nuovi strumenti tecnologici, ma comporta una riconfigurazione degli assetti organizzativi e culturali delle imprese. Questo processo incide profondamente sulle modalità di svolgimento dell’attività produttiva e sulla gestione del rapporto di lavoro.
L’implementazione di sistemi tecnologici avanzati in ambito aziendale ha ampliato il dibattito oltre la dimensione meramente tecnica, facendo emergere questioni giuridiche di primo piano quali:
- la trasparenza degli algoritmi,
- l’attribuzione di responsabilità a fronte di decisioni automatizzate,
- la necessità di una supervisione umana effettiva e
- la salvaguardia dei diritti fondamentali dei lavoratori.
Questi temi sono oggi cruciali nell’elaborazione di un nuovo quadro normativo giuslavoristico.
Indice degli argomenti
Definizioni e principali differenze tra intelligenza artificiale e algoritmi
Nell’ambito della trasformazione digitale del lavoro, i concetti di “intelligenza artificiale” e “algoritmo” rivestono un ruolo centrale e richiedono una preliminare chiarificazione.
Per intelligenza artificiale (IA) si intende un sistema tecnologico capace di svolgere funzioni cognitive tipicamente umane, quali ragionamento, apprendimento e risoluzione di problemi complessi. L’elemento distintivo dell’IA rispetto ad altri strumenti informatici è la capacità di adattamento: il sistema modifica autonomamente il proprio comportamento sulla base dei dati elaborati e dell’esperienza acquisita, generando risultati non interamente prevedibili.
L’articolo 3 del Regolamento (UE) 2024/1689 (AI Act) definisce l’IA come un sistema automatizzato che opera con diversi livelli di autonomia, che può adattarsi dopo la diffusione e che è in grado di generare output – quali previsioni, raccomandazioni o decisioni – idonei a influenzare ambienti fisici o virtuali. La definizione normativa sottolinea tre elementi chiave: autonomia operativa, capacità adattiva e idoneità a produrre effetti concreti.
L’algoritmo rappresenta invece una sequenza predeterminata di istruzioni programmata per risolvere un problema specifico. A differenza dell’IA, l’algoritmo non possiede capacità di adattamento: opera secondo regole fisse e produce risultati prevedibili a parità di input, senza evolvere nel tempo.
Tale distinzione assume rilevanza giuridica concreta. I sistemi adattivi pongono infatti problemi più complessi rispetto agli algoritmi statici in termini di prevedibilità, verificabilità e controllo delle decisioni automatizzate.
L’utilizzo di nuove tecnologie nella gestione del rapporto di lavoro
La diffusione di tali strumenti nel contesto lavorativo costituisce ormai una realtà consolidata. Un numero crescente di imprese impiega sistemi algoritmici o di intelligenza artificiale in diverse funzioni aziendali, con applicazioni che attraversano molteplici fasi del ciclo produttivo e organizzativo.
Nel processo di selezione del personale, ad esempio, algoritmi e piattaforme digitali consentono di vagliare rapidamente migliaia di curricula, individuando i profili più rispondenti ai requisiti richiesti. Analogamente, nella gestione delle performance si ricorre a strumenti di data analytics per orientare decisioni organizzative e valutative, mentre nei processi produttivi l’automazione permette di affidare alle macchine diverse tipologie di attività ripetitive o standardizzabili, liberando risorse umane per mansioni a maggiore valore aggiunto.
Tali sviluppi generano evidenti benefici in termini di efficienza, flessibilità e contenimento dei costi, ma sollevano al contempo rischi significativi. Tra i profili più critici figurano:
- le ricadute occupazionali,
- le problematiche di tutela della riservatezza e protezione dei dati personali,
- nonché i rischi di discriminazione derivanti da parametri algoritmici opachi o da distorsioni (bias) nei dati di addestramento, che possono produrre trattamenti differenziati tra categorie di lavoratori.
Quando i giudici bocciano le decisioni automatizzate
La giurisprudenza italiana ha già fornito significativi esempi delle criticità connesse all’utilizzo di sistemi decisionali automatizzati nei rapporti di lavoro, delineando un orientamento sensibile alla tutela del lavoratore e alla necessità di un controllo umano sulle decisioni algoritmiche.
Nell’ambito dei primi contenziosi in materia – emersi soprattutto nel contesto del lavoro tramite piattaforma – assume particolare rilievo la pronuncia del Tribunale di Bologna del 31 dicembre 2020, con cui è stato riconosciuto il carattere discriminatorio di un sistema automatizzato di assegnazione dei turni fondato su un indice reputazionale (c.d. ranking). Il giudice ha ritenuto che l’algoritmo, programmato per privilegiare nell’attribuzione delle consegne i corrieri con ranking più elevato, producesse una discriminazione indiretta nei confronti di quei lavoratori che avevano esercitato il diritto di sciopero: la mancata partecipazione alla sessione di consegna per prendere parte all’astensione collettiva comportava infatti una penalizzazione automatica dell’indice reputazionale, con effetti negativi sulle future opportunità lavorative.
Sulla stessa linea si colloca la sentenza del Tribunale di Palermo del 17 novembre 2023, che ha riconosciuto il carattere discriminatorio dell’algoritmo usato da un’altra piattaforma di food delivery. Il sistema premiava la disponibilità nelle “ore ad alta domanda” (serali e nei weekend), penalizzando i lavoratori con esigenze familiari, di cura o legate a pratiche religiose, impossibilitati a garantire la medesima flessibilità oraria.
Al di fuori del contesto delle piattaforme digitali, rileva la pronuncia del Tribunale di Torino del 12 maggio 2023, che ha annullato l’esclusione di un docente supplente disposta da un algoritmo ministeriale senza alcuna valutazione umana. Il giudice ha sottolineato la necessità di una supervisione effettiva capace di correggere le distorsioni dell’automazione, riaffermando l’applicabilità dei principi di ragionevolezza e proporzionalità anche alle decisioni algoritmiche della pubblica amministrazione.
cosa devono sapere lavoratori e sindacati sui sistemi automatizzati
A decorrere dal 2022, il legislatore italiano ha iniziato ad affrontare in maniera esplicita il tema della gestione algoritmica nei rapporti di lavoro con l’adozione del d.lgs. n. 104/2022 (c.d. Decreto Trasparenza), che ha introdotto rilevanti modifiche all’articolo 1-bis del d.lgs. n. 152/1997.
La norma impone al datore di lavoro e al committente, pubblico e privato, l’obbligo di informare i lavoratori circa l’utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati deputati a fornire informazioni rilevanti ai fini dell’assunzione (e.g. chatbot per i colloqui, sistemi di profilazione automatizzata dei candidati, software per lo screening dei curricula, applicazioni di riconoscimento emotivo e test psicoattitudinali gestiti da algoritmi), della gestione o cessazione del rapporto, dell’assegnazione di compiti e mansioni o che incidano sulla sorveglianza, sulla valutazione, sulle prestazioni e sull’adempimento degli obblighi contrattuali (e.g. attraverso analisi statistiche, data analytics, machine learning, reti neurali o sistemi di deep-learning).
L’informativa deve essere resa anche alle rappresentanze sindacali (RSA/RSU o, in mancanza, alle associazioni sindacali comparativamente più rappresentative sul piano nazionale), garantendo così una duplice tutela: individuale e collettiva.
La rilevanza di tale obbligo è stata prontamente confermata dalla giurisprudenza di merito, che sin dai primi anni di applicazione della norma ne ha fornito un’interpretazione rigorosa. I giudici hanno infatti più volte qualificato la violazione degli obblighi informativi come condotta antisindacale, riconoscendo il diritto all’informazione quale condizione necessaria per l’esercizio effettivo di altri diritti fondamentali, quali il diritto di difesa e quello alla contrattazione collettiva.
Divieti assoluti e obblighi stringenti dall’AI act
A livello europeo, due sono gli interventi normativi di maggior rilievo in materia di regolamentazione del lavoro digitalizzato.
La Direttiva (UE) 2024/2831 introduce obblighi di trasparenza, supervisione umana e responsabilità nella gestione algoritmica del lavoro tramite piattaforme digitali. Il suo ambito applicativo risulta tuttavia circoscritto al lavoro “mediato” da piattaforma, escludendo i rapporti di natura tradizionale, che pure risentono degli stessi fenomeni tecnologici e richiederebbero analoga tutela.
Di portata ben più ampia è il Regolamento (UE) 2024/1689, noto come AI Act, volto a promuovere un’intelligenza artificiale antropocentrica e affidabile attraverso un sistema di regolamentazione fondato sul rischio. L’articolo 5 del suddetto regolamento infatti individua una serie di sistemi di IA vietati in ragione della loro intrinseca portata lesiva, con divieti operativi applicabili già dal 2 febbraio 2025. Rientrano in tale categoria i sistemi manipolativi o ingannevoli idonei a distorcere significativamente il comportamento umano, i meccanismi di valutazione sociale (social scoring) basati su comportamenti o caratteristiche personali e i sistemi capaci di classificare le persone sulla base dei loro dati biometrici per trarre deduzioni in merito a razza, convinzioni religiose, orientamento sessuale, appartenenza sindacale o opinioni politiche. Sono altresì vietate le tecnologie che inferiscono emozioni sul luogo di lavoro, salvo specifiche eccezioni per scopi medici o di sicurezza.
L’Allegato III del Regolamento (richiamato dall’articolo 6, comma 2) inoltre qualifica come strumenti “ad alto rischio” i sistemi di IA impiegati in ambito lavorativo per finalità di assunzione, selezione, gestione e sorveglianza dei lavoratori. Tale classificazione si fonda sulla capacità di questi strumenti di incidere profondamente sulle opportunità di carriera, sulla tutela dei diritti e sulla privacy delle persone, rischiando di perpetuare discriminazioni storiche e di compromettere la protezione dei dati personali (Considerando 57).
Al fine di mitigare i rischi connessi all’utilizzo di tali tecnologie nel contesto lavorativo, il legislatore europeo ha previsto stringenti obblighi a carico – sia dei fornitori che – dei datori di lavoro (deployer), applicabili a partire dal 2 agosto 2026. I datori di lavoro che intendono adoperare tali sistemi IA saranno infatti tenuti ad assicurare una supervisione umana qualificata dei sistemi, il monitoraggio costante del loro funzionamento, la tempestiva segnalazione ai fornitori e alle autorità competenti di eventuali rischi per la salute, la sicurezza o i diritti fondamentali, nonché la sospensione immediata dell’utilizzo in caso di pericolo. Inoltre, il datore di lavoro dovrà informare preventivamente i lavoratori e le loro rappresentanze circa l’impiego di sistemi di IA e garantire il diritto a ricevere spiegazioni comprensibili sulle decisioni automatizzate che incidano in modo rilevante sulla sicurezza o sui diritti dei lavoratori, conformemente a quanto stabilito dagli articoli 26 e 86 del regolamento.
La normativa nazionale: legge n. 132/2025 sull’intelligenza artificiale
Sebbene il regolamento europeo sull’intelligenza artificiale sia direttamente applicabile all’interno degli Stati membri una volta decorso il periodo di vacatio legis, molti Paesi stanno comunque procedendo all’adozione di normative nazionali specifiche in materia. In questo contesto, l’Italia, in linea con le tendenze europee, ha approvato la legge sull’intelligenza artificiale n. 132/2025, pubblicata in Gazzetta Ufficiale il 25 settembre 2025 e in vigore dal 10 ottobre 2025. In ambito giuslavoristico, l’articolo 11 amplia gli obblighi informativi di cui all’articolo 1-bis del d.lgs. 152/1997, estendendoli anche all’adozione e all’utilizzo di sistemi di IA. L’articolo 12 prevede l’istituzione presso il Ministero del Lavoro di un Osservatorio nazionale sull’intelligenza artificiale con funzioni di monitoraggio, definizione di strategie e promozione di attività formative sui sistemi automatizzati nel mondo del lavoro.
L’articolo 13 infine introduce specifiche regole per l’utilizzo dell’IA nelle professioni intellettuali, consentendone l’utilizzo solo come strumento di supporto, con prevalenza della prestazione umana, e imponendo obblighi di trasparenza anche verso i destinatari della prestazione.
Tale impostazione rappresenta un passo significativo verso una regolamentazione organica e attenta alle specificità del fenomeno, confermando anche a livello nazionale l’adesione a un modello antropocentrico, in cui la tecnologia è concepita come strumento al servizio della persona, non come suo sostituto.
Otto presidi organizzativi per una compliance efficace
L’introduzione di sistemi di intelligenza artificiale nel contesto lavorativo richiede non soltanto un adeguamento normativo ex post, ma anche l’adozione di presidi organizzativi preventivi da parte delle imprese. L’anticipazione degli obblighi di compliance consente di agevolare una transizione ordinata e consapevole verso il nuovo quadro regolatorio, prevenire rischi di natura legale, reputazionale e operativa, nonché acquisire un vantaggio competitivo nell’ambito dell’innovazione digitale. Si illustrano di seguito i principali presidi che le imprese sono chiamate ad adottare in vista dell’integrazione di sistemi di IA nei processi lavorativi.
- Valutazione preliminare: effettuare una valutazione giuridica e organizzativa prima di implementare sistemi automatizzati, identificando finalità, base legale, potenziali rischi discriminatori e misure di mitigazione.
- Policy e registro dei sistemi IA: adottare regolamenti interni che disciplinino ruoli e responsabilità, istituendo un registro aggiornato dei sistemi di IA utilizzati, delle finalità e dei fornitori coinvolti.
- Informazione preventiva: Informare lavoratori e rappresentanze sindacali prima dell’utilizzo dei sistemi automatizzati in modo chiaro e comprensibile, garantendo il diritto alla spiegazione delle decisioni elaborate sulla base di sistemi automatizzati.
- Supervisione qualificata: affidare la sorveglianza sui sistemi di IA a persone dotate di competenza, formazione e autorità necessarie per intervenire efficacemente e correggere le decisioni ove necessario.
- Formazione continua: promuovere percorsi di aggiornamento continuo sulle potenzialità e i limiti delle tecnologie, sui rischi connessi e sui diritti dei lavoratori, al fine di sviluppare una cultura aziendale che ponga al centro la salvaguardia dei diritti fondamentali.
- Monitoraggio e gestione incidenti: predisporre procedure per segnalare tempestivamente malfunzionamenti o situazioni di rischio per la salute, sicurezza o per i diritti fondamentali delle persone, attivando protocolli di sospensione e comunicazione alle autorità competenti.
- Governance etica: istituire un comitato interdisciplinare che supervisioni l’impatto etico dei sistemi di IA e aggiorni le policy in base all’evoluzione normativa e tecnologica.
- Re-skilling e up-skilling: garantire il costante aggiornamento delle competenze dei lavoratori e, ove necessario, promuovere percorsi strutturati di formazione e riqualificazione interna, finalizzati alla creazione di nuove figure professionali dedicate alla gestione dei sistemi di intelligenza artificiale.
Trasformare il vincolo normativo in vantaggio competitivo
L’intelligenza artificiale rappresenta oggi una straordinaria opportunità di crescita per le imprese, ma al tempo stesso anche una sfida sul piano etico, giuridico e organizzativo. La rapidità dell’innovazione impone di ripensare i modelli di governance aziendale, introducendo regole chiare, processi trasparenti e un effettivo presidio umano sulle decisioni automatizzate.
Solo una governance consapevole e responsabile, capace di coniugare innovazione e tutela, potrà trasformare il rischio giuridico in vantaggio competitivo sostenibile, favorendo l’adozione di tecnologie che rispettino i principi di equità, proporzionalità e dignità della persona. L’obiettivo non è frenare il progresso, ma orientarlo: affinché l’intelligenza artificiale resti uno strumento al servizio dell’impresa e della persona, e non un fattore di deresponsabilizzazione o disuguaglianza.












