supervisione umana

Licenziare con (o per) l’AI: cosa rischia davvero il datore di lavoro



Indirizzo copiato

L’intelligenza artificiale entra nei processi aziendali e nelle decisioni sul personale, ma non sostituisce il datore di lavoro. L’AI Act impone obblighi precisi. I licenziamenti fondati su output algoritmici espongono l’azienda a rischi legali rilevanti se manca la supervisione umana

Pubblicato il 10 apr 2026

Marco Sideri

partner di Toffoletto De Luca Tamajo



AI e lavoro (1)
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il rapporto tra intelligenza artificiale e occupazione è uno dei terreni più scivolosi del diritto del lavoro contemporaneo. Eppure, prima ancora di affrontare la sostanza normativa, vale la pena fare un passo indietro: anche qui, come spesso accade quando si parla di AI, tutto comincia dalle parole.

Le parole contano: come l’AI ha cambiato il nostro linguaggio

Una delle cose che l’avvento dell’AI ci ha insegnato è, infatti, che le parole sono importanti.
Sono perlopiù parole i prompt che inseriamo nei sistemi; parole sono altresì le risposte che i sistemi di intelligenza artificiale ci restituiscono.
Del resto, siamo stati noi a umanizzare l’AI, fin dal nome: a chiamare i suoi abbagli allucinazioni, ad antropizzare sistemi che restano, poco ma sicuro, macchine.

AI e diritto del lavoro: non perdere di vista la sostanza

L’importanza di parole e definizioni diventa ancor più marcata quando gli impatti dei sistemi di AI si misurano con scenari tecnici, come quello legato al diritto del lavoro e alla gestione delle risorse umane.

Per ogni titolo di giornale o post che annuncia apocalissi varie ed eventuali, c’è una sostanza (normativa e logica) che non bisogna mai perdere di vista. Per questo motivo, quando leggiamo che l’intelligenza artificiale può licenziare i dipendenti o che qualcuno è stato licenziato per “colpa” dell’intelligenza artificiale, è il momento di mettere degli umanissimi punti su qualche i.

L’AI è ovunque ma non per questo fa tutto

L’introduzione dell’intelligenza artificiale nei processi aziendali ha rappresentato, e continua a rappresentare, una delle trasformazioni più significative degli ultimi anni, rivoluzionando in particolare il campo delle risorse umane.

Sebbene l’automazione dei processi offra vantaggi in termini di efficienza, porta con sé anche sfide importanti, specie quando le decisioni riguardano il rapporto con i dipendenti, come nel caso dei licenziamenti.

Alto rischio e obblighi: cosa prevede l’AI Act per i datori di lavoro

L’utilizzo di algoritmi e sistemi decisionali basati su AI nel contesto lavorativo richiede particolare cautela in considerazione di un quadro normativo europeo e nazionale recente, non ancora interpretato a fondo, e devoto a un’idea di AI antropocentrica che non rinuncia, quindi, all’intervento umano per controllare output capaci di incidere sulle situazioni giuridiche altrui.

I datori di lavoro non possono trascurare dunque questo punto di partenza: l’automazione è uno strumento necessario ma resta, appunto, uno strumento.

L’utilizzo di sistemi di intelligenza artificiale nel contesto lavorativo, infatti, non è mai esente da responsabilità e rischi per il datore di lavoro, soprattutto se finalizzato a prendere decisioni che hanno un impatto sui dipendenti. Il problema non è l’utilizzo dei sistemi in sé, ma un utilizzo finalizzato a giustificare e/o sostituire decisioni che restano (e devono restare) umane.

I sistemi di AI impiegati nella gestione dei rapporti di lavoro sono, nella maggior parte dei casi, classificabili come ad alto rischio secondo le categorie presenti nel regolamento europeo, noto come AI Act; pertanto, l’utilizzo sottopone il datore di lavoro (in qualità di deployer, ossia di utilizzatore) sia a obblighi di “alfabetizzazione” del personale che utilizza e/o supervisiona gli strumenti sia a obblighi in materia di governance, sorveglianza, tracciabilità e informazione (a livello individuale e collettivo).

Quando l’AI ottimizza i processi: la distinzione che conta

Qualora gli obblighi di cui sopra non siano rispettati, qualsiasi decisione che incida significativamente sul rapporto di lavoro — come ovviamente un licenziamento — adottata sulla base di un output algoritmico può esporre l’azienda a rilevanti rischi. In breve, un sistema può essere certamente impiegato nell’analisi e valutazione dei dati di contesto della decisione aziendale, ma non potrà mai sostituirsi all’imprenditore — e ai suoi collaboratori — nella decisione finale e nella verifica dei dati prima che incidano su posizioni giuridiche altrui.

Caso diverso è quello in cui l’efficientamento dei processi ottenuto con l’AI impatti sulle decisioni dell’imprenditore. Qui l’AI non decide la riorganizzazione: ne fa parte, come sempre è avvenuto. L’imprenditore può cambiare i processi e su tale base riorganizzare la forza lavoro, naturalmente nei limiti previsti dall’ordinamento.

Principio antropocentrico e onere della prova

Nell’utilizzo quotidiano di sistemi automatizzati, tuttavia, rispettare (e assicurarsi che siano rispettati) formalmente gli adempimenti richiesti dalle normative vigenti non permette in nessun caso di delegare all’AI effettivo potere decisionale e porre quindi un datore di lavoro che decide di procedere in questo modo al riparo da sanzioni e fondate eccezioni.

Il ricordato principio antropocentrico, cardine della normativa in materia, implica infatti che l’AI non possa essere mai l’unica fonte decisionale; è necessario che dietro ogni decisione ci sia sempre il monitoraggio da parte di un essere umano con le competenze tecniche necessarie per garantire un corretto e legittimo funzionamento del sistema.

Corollario del principio appena espresso è che il datore di lavoro rimane sempre responsabile delle proprie decisioni — riorganizzazioni e licenziamenti compresi — e deve quindi sempre giustificare e motivare le proprie decisioni, a prescindere dalla loro origine.

Questo aspetto è particolarmente rilevante in relazione all’onere della prova nel caso in cui un licenziamento venga impugnato dal dipendente. Quest’ultimo ha infatti il diritto di comprendere come e perché l’algoritmo abbia contribuito a determinare una decisione che lo riguarda verificando — tra l’altro — che il processo decisionale non sia stato influenzato da fattori discriminatori, da un trattamento scorretto dei dati o da una base dati fuorviante.

Le quattro condizioni da dimostrare in caso di contenzioso

In caso di contenzioso, il datore di lavoro dovrà quindi dimostrare in particolare che la decisione:

  1. è stata adottata rispettando la normativa vigente,
  2. sono stati rispettati i principi di trasparenza e privacy nell’uso dei dati,
  3. alla base della decisione vi è stata una scelta umana non influenzata da bias discriminatori e che
  4. il licenziamento non è stato determinato esclusivamente da una decisione automatizzata, ma è stato supportato anche da ulteriori elementi e valutazioni umane.

Accanto a questi pacifici oneri, stanno comportamenti completamente vietati, ancor più se in tema di licenziamento: analisi metriche di comportamenti o caratteristiche dei dipendenti, social scoring e simili. Tutte pratiche espressamente vietate e che possono dare origine, oltre che a fondate impugnazioni, anche a richieste di risarcimento del danno o segnalazioni alle autorità competenti.

Conclusioni: l’AI strumento, l’imprenditore alla guida

In conclusione, l’AI resta uno strumento, spesso inevitabile e certamente utile da usare, regolare, spiegare e affinare nell’ambito dell’organizzazione aziendale. Le sue decisioni, però, non sono sovrapponibili alle decisioni del datore di lavoro che resta ancora — anche in tempi di automazione — il conducente unico della macchina aziendale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x