linee guida

Adozione dell’IA in azienda: roadmap MLPS e impatti sul lavoro



Indirizzo copiato

L’adozione dell’IA nel lavoro impone una governance che unisca innovazione e diritti. Le Linee Guida del Ministero del Lavoro e delle Politiche Sociali (MPLS) traducono AI Act e legge italiana in una roadmap operativa, nel contesto di un ritardo europeo e di incertezze normative. Resta cruciale l’impatto su riorganizzazioni e licenziamenti

Pubblicato il 16 mar 2026

Carlo Impalà

avvocato, Partner e Responsabile dip. TMT and Data Protection di Morri Rossetti & Franzosi

Paola Polliani

Avvocato, Partner dip. Labour di Morri Rossetti & Franzosi



intelligenza artificiale copyright; controlli Iva AI
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

L’irruzione dell’intelligenza artificiale nell’ecosistema lavorativo non costituisce un mero fenomeno di innovazione tecnologica, ma rappresenta un punto di snodo che interroga le fondamenta stesse del diritto del lavoro.

Non è sulla tecnologia in quanto tale che occorre concentrare l’attenzione, ma sui processi decisionali che ne governano l’adozione, sui meccanismi di accountability che ne dovrebbero presidiare l’implementazione e, soprattutto, sulla capacità dell’ordinamento di non limitarsi a “rincorrere” l’innovazione, ma di orientarla verso modelli compatibili con i principi costituzionali di dignità del lavoratore e di tutela della persona.

L’intelligenza artificiale nel mondo del lavoro: il decreto MLPS e le finalità

È proprio per rispondere a questa esigenza che il Ministero del Lavoro e delle Politiche Sociali (MPLS) ha adottato, con Decreto del 20 dicembre 2025, n. 180, le Linee Guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro[1].

Si tratta del primo tentativo organico, a livello nazionale, di tradurre in prassi operativa i principi affermati dal Regolamento (UE) 1689/2024 (AI Act)[2] e dalla Legge n. 132/2025 (Legge italiana sull’IA)[3], fornendo alle imprese una roadmap metodologica per governare l’adozione dell’IA in modo strutturato, sostenibile e rispettoso dei diritti dei lavoratori.

L’obiettivo dichiarato è duplice: accompagnare le imprese verso la scadenza del 2 agosto 2026, quando entreranno in vigore la maggior parte delle disposizioni dell’AI Act, e al contempo garantire che l’innovazione tecnologica non si traduca in fattore di disgregazione sociale, ma diventi invece strumento di valorizzazione del capitale umano.

Tuttavia, affinché tale impianto normativo possa dispiegare i suoi effetti, occorre comprendere preliminarmente il contesto in cui si inserisce: un quadro caratterizzato da ritardi strutturali nell’adozione dell’IA, incertezze interpretative sul piano giuridico e rischi concreti di marginalizzazione del sistema produttivo europeo rispetto ai competitor globali.

Il ritardo italiano ed europeo: vincoli demografici, organizzativi e regolatori

I dati statistici disponibili rivelano, infatti, un quadro ambivalente. Nel 2025, soltanto il 16,4% delle imprese italiane ha integrato tecnologie di intelligenza artificiale nei propri processi produttivi[4], a fronte di una media europea del 20%[5]. Percentuali che assumono contorni ancor più problematici se raffrontate con quelle di economie extra-europee quali India, Cina, Indonesia e Sudafrica, dove l’adozione dell’IA procede a ritmi significativamente più sostenuti[6].

Invecchiamento della forza lavoro e impatti sulle micro-imprese

Questo ritardo non può essere ascritto esclusivamente alla complessità del quadro regolatorio, come spesso si sostiene. Concorrono, infatti, molteplici fattori di natura strutturale. In primo luogo, l’invecchiamento progressivo della forza lavoro. L’Ufficio studi della CGIA di Mestre ha rilevato che l’età media degli operai e impiegati nel settore privato è passata da 37,9 anni nel 2008 a 42,1 anni nel 2025. Oggi un lavoratore su tre ha più di 50 anni[7]. Nelle piccole e micro-imprese, che occupano il 95% dei lavoratori, la presenza massiccia di over 50 rallenta significativamente i processi di digitalizzazione e automazione, rendendo ancora più complesso quel percorso di trasformazione che le Linee Guida del Ministero del Lavoro intendono governare.

Intelligenza artificiale nel mondo del lavoro: innovazione incrementale e leapfrogging

In secondo luogo, vi è una questione che attiene alla natura stessa dell’innovazione in ecosistemi maturi. L’Europa si trova in una condizione di “innovazione incrementale”: l’IA si innesta su un tessuto tecnologico già evoluto, consolidato, stratificato, all’interno del quale le imprese europee dispongono già di sistemi informativi funzionanti, di processi digitalizzati, e di competenze consolidate.

Di conseguenza, potremmo affermare che l’adozione dell’IA rappresenta un’aggiunta – per quanto potenzialmente trasformativa – a un apparato preesistente, e non una rivoluzione. Questa condizione genera, inevitabilmente, resistenze: culturali, organizzative, economiche. Il cambiamento richiede infatti il ripensamento di assetti consolidati, la riqualificazione di competenze, la revisione di catene del valore efficaci da decenni.

Al contrario, volgendo lo sguardo a molte economie emergenti – si pensi al Sud-Est asiatico o ad alcune regioni dell’America Latina – l’IA rappresenta non un’aggiunta, ma una fondazione. È il fenomeno del c.d. technological leapfrogging: paesi che non hanno conosciuto i passaggi intermedi dello sviluppo tecnologico saltano direttamente alle tecnologie più avanzate.

In questi contesti, l’IA non deve “competere” con sistemi preesistenti né “convincere” organizzazioni abituate a fare diversamente. Può essere adottata direttamente, senza il peso della path dependency. Pertanto, non è soltanto questione di regolazione più o meno stringente, ma di dinamiche economiche e cognitive profondamente diverse.

Il paradosso regolatorio europeo e il rischio di regulatory chill

In terzo luogo, si registra effettivamente un effetto frenante legato anche alla complessità normativa. Mentre l’Unione europea si appresta a dotarsi del più articolato apparato normativo in materia di intelligenza artificiale – l’AI Act con la sua complessa architettura di obblighi differenziati – il tessuto produttivo manifesta una cautela che rasenta, a volte, l’inerzia. Si delinea così il “paradosso regolatorio europeo”: un quadro normativo che, pur necessario e opportuno come presidio contro derive già documentate in altri contesti di digitalizzazione, rischia paradossalmente di generare un regulatory chill che inibisce quella sperimentazione controllata necessaria ad un apprendimento collettivo su potenzialità e rischi dell’IA.

A livello microeconomico, questa incertezza si manifesta chiaramente. Le imprese continuano a segnalare ostacoli di natura eterogenea: carenza di competenze specialistiche, opacità del quadro regolatorio, preoccupazioni sulla protezione dei dati personali e sulla privacy[8]. Tale attendismo rischia, se non governato, di relegare il sistema produttivo europeo a osservatore passivo di una trasformazione che concentra potere economico e tecnologico in pochi attori globali, prevalentemente extra-europei.

Ed è precisamente in questo scenario di attendismo strategico – determinato non da un singolo fattore, ma dall’intreccio di vincoli demografici, rigidità organizzative e incertezze normative – che le Linee Guida del MLPS assumono rilevanza particolare. Esse non rappresentano un’ulteriore stratificazione burocratica, ma si configurano come strumento di traduzione operativa di un quadro normativo che, pur ambizioso nei principi, necessita di essere reso accessibile e praticabile per il tessuto produttivo nazionale.

Per comprendere appieno la portata di questo intervento ministeriale, occorre tuttavia inquadrarlo nel più ampio ecosistema normativo europeo e nazionale che ne costituisce la cornice di riferimento e ne determina le finalità regolatorie.

Il quadro normativo di riferimento tra UE e ordinamento nazionale

L’architettura regolatoria che governa l’intelligenza artificiale nel contesto lavorativo si articola su un doppio binario – europeo e nazionale – che riflette la tensione, tipica del diritto dell’innovazione tecnologica, tra l’esigenza di armonizzazione sovranazionale e la necessità di adattamento alle specificità dei singoli ordinamenti. A livello europeo, l’AI Act qualifica l’ambito lavorativo come settore ad alto rischio, imponendo che i sistemi di IA destinati a operare in tale contesto rispondano a requisiti stringenti di sicurezza, affidabilità, trasparenza e rispetto dei diritti fondamentali[9]. A livello nazionale, la Legge italiana sull’IA ribadisce che l’impiego di tali sistemi deve essere finalizzato al miglioramento delle condizioni di lavoro, garantendo dignità umana e protezione dei dati personali[10].

È questo imperativo di governance partecipata dell’innovazione tecnologica, fondato sull’idea che la dimensione etica debba essere incorporata by design nei sistemi algoritmici, non aggiunta ex post, che le Linee Guida cercano di tradurre in prassi operativa.

La sfida, a questo punto, diventa operativa: come trasformare un impianto normativo inevitabilmente astratto in strumento concreto di azione per imprese che operano in contesti e con risorse profondamente diversificati? La risposta ministeriale è affidata a un modello procedurale articolato, che merita di essere esaminato nei suoi snodi essenziali.

Le Linee Guida: roadmap metodologica per le imprese

Le Linee Guida si propongono di rispondere all’interrogativo di come utilizzare l’IA in azienda in modo strutturato e sostenibile, così da arrivare preparati alla scadenza del 2 agosto 2026, data in cui entreranno in vigore la maggior parte delle disposizioni dell’AI Act. La risposta è affidata a una roadmap articolata in sei fasi: dalla valutazione preliminare della maturità digitale (AI readiness) dell’azienda, alla pianificazione strategica e alla governance; dalla sperimentazione su scala ridotta (progetti pilota) all’implementazione e allo scaling; fino al monitoraggio continuo, al risk management e alla valorizzazione del capitale umano.

Principi guida: trasparenza, equità, sicurezza e divario digitale

Si tratta di un processo ispirato a principi chiave – trasparenza e responsabilità (accountability), equità e non discriminazione, sicurezza e tutela dei lavoratori, riduzione del divario digitale – che impone alle imprese di interrogarsi sulla propria capacità organizzativa prima ancora che tecnologica. L’obiettivo dichiarato è, infatti, evitare che i sistemi di IA operino come “scatole nere” o come dispositivi decisionali opachi, non spiegabili e sottratti al controllo umano. Ogni soluzione deve essere progettata e gestita in modo da garantire la sua explainability, la tracciabilità dei processi decisionali e una presenza effettiva dell’essere umano nelle decisioni automatizzate.

Ed è proprio su questo aspetto, ovvero la definizione di un processo strutturato, che – ad avviso di chi scrive – le Linee Guida manifestano il loro principale valore aggiunto, spesso sottovalutato. Non si tratta, infatti, di un’innovazione concettuale dirompente: molti dei principi richiamati (trasparenza, non discriminazione, tutela dei dati) sono già presenti nell’AI Act, nel GDPR, nello Statuto dei Lavoratori. Ciò che le Linee Guida offrono ed evidenziano è qualcosa di diverso e, per certi versi, più prezioso: l’importanza di un approccio metodico ex ante, di un percorso operativo che guidi le imprese – soprattutto quelle di piccole e medie dimensioni, prive di strutture dedicate alla compliance – attraverso le diverse fasi dell’adozione dell’IA.

Questo aspetto merita di essere sottolineato con forza. L’esperienza maturata nell’accompagnamento di processi di digitalizzazione mostra, infatti, che le imprese, anche quelle di grandi dimensioni, tendono spesso a concentrarsi esclusivamente sul risultato finale dell’innovazione tecnologica (aumento della produttività, riduzione dei costi, miglioramento della qualità), trascurando il processo attraverso il quale tale risultato viene raggiunto e le conseguenze potenzialmente pregiudizievoli di diversa natura che potrebbero derivare dalle scelte operative effettuate. È evidente ormai a molti operatori del settore che l’adozione dell’IA avviene troppo frequentemente in maniera disordinata, frammentaria, senza una visione d’insieme che consideri tutte le implicazioni e tutti gli interessi coinvolti: dai diritti dei lavoratori alla sicurezza dei dati, dalla formazione delle competenze alla riorganizzazione dei flussi operativi, dalle responsabilità legali ai danni reputazionali.

Le PMI, in particolare, si trovano in difficoltà non tanto per mancanza di risorse economiche – esistono, peraltro, come illustrato anche dalle Linee Guida, numerosi fondi e incentivi pubblici – quanto per assenza di know-how metodologico: non sanno come affrontare il progetto, quali passaggi seguire, quali stakeholder coinvolgere, quali rischi valutare. Ma anche le grandi imprese, pur disponendo di maggiori risorse, mostrano spesso criticità analoghe: non di rado assistiamo a progetti di implementazione dell’IA affidati alle sole strutture IT, senza un adeguato coinvolgimento di altre funzioni altrettanto cruciali per la portata degli impatti scaturenti dagli stessi (si pensi, ad esempio, alle funzioni HR, legale, di compliance e di gestione dei rischi). In altri casi, invece, i progetti vengono gestiti in modo verticistico, senza consultazione sindacale e senza partecipazione dei lavoratori, pur quando queste siano previste, con il risultato che le soluzioni tecnologiche – per quanto sofisticate – rischiano di incontrare resistenze organizzative che ne potrebbero vanificare l’efficacia.

Ed è su questo piano che le Linee Guida intervengono precisamente. Non dicono cosa fare (quello lo dicono già le norme vincolanti), ma come farlo: quali fasi rispettare, quali attori coinvolgere, quali valutazioni preliminari effettuare, quali meccanismi di monitoraggio predisporre. Offrono, in sostanza, un modello di governance processuale dell’innovazione tecnologica, che ha il pregio di essere sufficientemente flessibile da adattarsi a contesti aziendali diversi, ma al tempo stesso sufficientemente strutturato e chiaro da costituire una guida operativa concreta.

Questo approccio metodologico, che potrebbe apparire eccessivamente prudente o burocratico a chi guarda soltanto ai risultati di breve periodo, risponde in realtà a un’esigenza fondamentale: garantire che l’adozione dell’IA non produca esternalità negative (licenziamenti, discriminazioni, violazioni della privacy, stress organizzativo) che, nel medio e lungo periodo, finirebbero per compromettere altresì la stessa sostenibilità dell’innovazione.

Tra queste possibili esternalità negative, il tema del licenziamento merita un approfondimento specifico, poiché rappresenta il punto di massima tensione tra libertà d’impresa e tutela del lavoratore, tra logiche di efficienza economica e diritti fondamentali della persona. È qui che si misura, in concreto, la capacità dell’ordinamento di governare le conseguenze dell’innovazione tecnologica senza né demonizzarla né subirla passivamente. Ed è su questo terreno che l’interazione tra hard law e soft law, tra giurisprudenza e linee guida, rivela tutta la sua complessità e il suo potenziale innovativo.

Il nodo critico: licenziamento, GMO e ruolo della soft law

Una delle questioni più delicate sollevata nel dibattito giuslavoristico riguarda la legittimità del licenziamento per giustificato motivo oggettivo (GMO) in caso di introduzione di sistemi di IA che rendano superflua la prestazione del lavoratore. Una recente sentenza del Tribunale di Roma del 19 novembre 2025[11] – pur non affrontando direttamente il tema dell’intelligenza artificiale – offre spunti interpretativi rilevanti, ma solleva anche interrogativi critici che meritano un’analisi più approfondita. Il Tribunale ha ritenuto legittimo il licenziamento di una lavoratrice la cui posizione lavorativa è stata soppressa con accorpamento delle proprie mansioni in capo ad un collega più esperto con il supporto di un sistema gestionale integrato.

Tecnologia e riorganizzazione: una dicotomia “artificiosa”

Questa impostazione – apparentemente lineare – merita, tuttavia, alcune osservazioni critiche dal punto di vista giuslavoristico. In primo luogo, la distinzione tra “tecnologia” e “riorganizzazione” rischia di tradursi in una dicotomia artificiosa. L’introduzione di un sistema gestionale integrato è, di per sé, una scelta organizzativa: non si tratta di un evento esogeno che si impone all’impresa, ma di una decisione strategica che incide radicalmente sugli assetti produttivi. Ritenere che la tecnologia operi come mero fattore neutrale – e che soltanto le scelte organizzative conseguenti possano costituire GMO – equivale a sottovalutare la dimensione costitutiva della tecnologia rispetto all’organizzazione del lavoro. In altri termini, non esiste una “tecnologia prima” e una “organizzazione poi”: la scelta tecnologica è già, in sé, scelta organizzativa.

In secondo luogo, appare interessante notare come la sostituzione della lavoratrice sia stata ritenuta legittima attraverso l’innovazione tecnologica, mentre le politiche pubbliche, tra cui le Linee Guida stesse, orientano espressamente le imprese verso modelli di gestione del cambiamento tecnologico che privilegiano la valorizzazione del capitale umano rispetto alla mera sostituzione.

Proprio questa impostazione, tuttavia, apre scenari nuovi e rilevanti. Se l’IA non costituisce la causa diretta del licenziamento, ma opera come fattore di accelerazione di un processo riorganizzativo, diventa centrale interrogarsi sulle modalità con cui tale processo viene progettato e attuato. Ed è qui che le Linee Guida del MLPS assumono una potenziale rilevanza giuridica, in quanto delineano un percorso di adozione responsabile dell’IA fondata sulla valorizzazione del capitale umano, sulla formazione continua e sulla riqualificazione professionale, invitando le imprese a investire in upskilling e reskilling, a favorire l’aggiornamento delle competenze e a ricollocare i lavoratori in ruoli coerenti con le trasformazioni tecnologiche in atto, anche attraverso il coinvolgimento attivo degli stessi nei processi di cambiamento. L’obiettivo è quello di accompagnare la transizione digitale evitando fenomeni di esclusione professionale e sociale.

In questa chiave, fermo ed impregiudicato il diritto alla libertà imprenditoriale costituzionalmente tutelato, non possiamo escludere che le Linee Guida – pur essendo formalmente atti di soft law – possano assumere valore come parametri indicatori dei principi di correttezza e buona fede nelle riorganizzazioni aziendali, al vaglio dell’organo giudicante. In questo scenario, per le imprese si impone un cambio di prospettiva: investire nella formazione e in una gestione etica e responsabile dell’IA non è più soltanto una scelta organizzativa o valoriale, ma potrebbe diventare un requisito importante anche per la incensurabilità delle riorganizzazioni aziendali future, determinate dall’innovazione tecnologica. Possiamo inoltre immaginare che le linee guida diventino la base di un dialogo costruttivo tra le parti sociali, nella contrattazione collettiva.

Intelligenza artificiale nel mondo del lavoro: verso una governance partecipata

Il percorso sin qui tracciato – dall’analisi del ritardo strutturale del sistema produttivo europeo, attraverso l’esame dell’architettura normativa multilivello, fino alla disamina delle criticità applicative in materia di licenziamento – consente di delineare alcune coordinate di sintesi che trascendono la dimensione tecnico-giuridica per investire la stessa concezione del rapporto tra diritto e innovazione tecnologica.

L’analisi condotta evidenzia, infatti, come la sfida dell’intelligenza artificiale nel mondo del lavoro non possa essere affrontata né con un approccio puramente tecnocratico, che deleghi alla tecnologia scelte che competono all’uomo, né con una postura meramente difensiva, che veda nella regolazione un freno all’innovazione. La strada tracciata dalle Linee Guida del Ministero del Lavoro, se adeguatamente supportata da meccanismi di enforcement e da una cultura giuridica sensibile a queste tematiche, rappresenta un tentativo ambizioso di superare tale dicotomia, facendo della tutela dei diritti fondamentali il presupposto costitutivo – e non il limite esterno – dell’innovazione tecnologica.

Il modello di governance partecipata che emerge dalle Linee Guida richiede un’assunzione di responsabilità da parte di tutti gli attori coinvolti: le imprese, chiamate a investire non solo in tecnologia ma in processi strutturati di adozione responsabile; le rappresentanze sindacali, chiamate a presidiare i diritti dei lavoratori senza opporsi pregiudizialmente all’innovazione; le istituzioni pubbliche, chiamate a fornire gli strumenti normativi, formativi, economici necessari a sostenere la transizione; gli operatori del diritto e la magistratura, chiamati a interpretare le norme esistenti alla luce dei nuovi paradigmi tecnologici.

Solo attraverso questo sforzo collettivo sarà possibile evitare che l’intelligenza artificiale si traduca in fattore di disgregazione sociale e polarizzazione economica, e costruire invece un modello di coevoluzione tra uomo e macchina che valorizzi le capacità umane – creatività, empatia, giudizio critico – liberandole dai compiti ripetitivi e a basso valore aggiunto. Il successo di questo percorso dipenderà, in ultima analisi, dalla capacità dell’ordinamento di non limitarsi a “rincorrere” l’innovazione, ma di orientarla, per quanto possibile, verso modelli compatibili con i principi costituzionali di dignità del lavoratore e di tutela della persona.

Note

[1] D.M. 20 dicembre 2025, n. 180, Linee Guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro.

[2] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act).

[3] Legge 15 ottobre 2025, n. 132, recante “Disposizioni in materia di intelligenza artificiale”.

[4] Istat, Imprese e ICT – Anno 2025, 15 dicembre 2025.

[5] Cfr. Report Eurostat 2025 sulla digitalizzazione delle imprese europee.

[6] Cfr. World Economic Forum, Global AI Adoption Report 2025.

[7] CGIA di Mestre, L’età media di operai e impiegati sfiora i 42 anni, gennaio 2025.

[8] Cfr. Istat, Imprese e ICT – Anno 2025, cit., sezione ostacoli all’adozione dell’IA.

[9] Cfr. AI Act, Allegato III, punto 4, relativo ai sistemi di IA utilizzati in materia di occupazione.

[10] Parallelamente, con Decreto del Ministero del Lavoro del 15 dicembre 2025, n. 173, è stato istituito l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro (D.M. 15 dicembre 2025, n. 173, Istituzione dell’Osservatorio sull’intelligenza artificiale nel mondo del lavoro), prima cabina di regia pubblico-sociale dedicata a monitorare e governare l’impatto dell’IA su occupazione, competenze, diritti e condizioni lavorative. Tra le sue funzioni principali figurano la definizione della strategia nazionale, il monitoraggio degli effetti su produttività e occupazione, l’individuazione dei settori più esposti e l’aggiornamento continuo delle Linee Guida stesse. Si tratta, evidentemente, di un apparato il cui successo dipenderà molto dalla capacità di superare una logica meramente consultiva per assumere una reale funzione di indirizzo e coordinamento. Diversamente, il rischio è che l’Osservatorio si riduca a sede di confronto senza effettività, incapace di incidere sulle dinamiche concrete.

[11] Tribunale di Roma, sentenza del 19 novembre 2025, n. 9135.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x