adozione responsabile

AI nel lavoro: legge 132 e linee guida per le imprese



Indirizzo copiato

La legge 132/2025 e il decreto ministeriale 180/2025 delineano un quadro coordinato per l’uso dell’IA nel lavoro. Ne emerge un modello che unisce principi, governance e istruzioni operative, offrendo a imprese e professionisti una base concreta per adottare strumenti di intelligenza artificiale in modo responsabile

Pubblicato il 19 mar 2026

Sergio Aracu

Founding Partner di Area Legale S.r.l.

Beatrice Piletti

Area Legale S.r.l.



lavoro e AI (1); AI gen metalmeccanica
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Molto è stato detto e scritto sugli impatti che l’adozione di sistemi di IA, in generale nei contesti produttivi ed in particolare nel mondo del lavoro, possono avere sui diritti e le libertà degli esseri umani.

Tuttavia risulta interessante procedere ad una lettura combinata dei due testi principali ad oggi vigenti nel panorama italiano, ossia la legge 23 settembre 2025 n. 132 e il decreto ministeriale n. 180 del 17 dicembre 2025, recante linee guida per l’implementazione dell’Intelligenza Artificiale nel mondo del lavoro, le quali configurano un sistema multilivello di governance che vede intrecciarsi interessanti profili tecnologici, organizzativi, giuslavoristici e di protezione dei dati personali.

Procediamo, allora, a una lettura coordinata dei due testi con l’obiettivo di fornire indicazioni operative per imprese e professionisti, oltre a sollecitare utili riflessioni sugli scenari che si dispiegheranno nei prossimi mesi.

Ci preme evidenziare, inoltre, come le linee guida siano un utilissimo strumento di compliance integrata, grazie alla presenza di numerose schede grafiche che indicano con estrema precisione tutte le discipline che si occupano di un determinato aspetto/principio/obbligo in esse citato.

Principi e governance dell’intelligenza artificiale nel mondo del lavoro

Tornando alla lettura congiunta dei due testi, il primo aspetto che emerge è la coerenza con la quale entrambi riportano i principi generali connessi all’uso responsabile dell’IA nel mondo del lavoro, e ciò non solo con riferimento ai principi ‘classici’ (quali trasparenza, responsabilità, equità, non discriminazione, sicurezza e inclusione), che vengono citati dalla legge 132 e trovano puntuale corrispondenza nelle linee guida sin dalla prefazione a cura di Paolo Benanti, uno dei massimi riferimenti in materia di etica dell’IA.

La legge 132 stabilisce infatti che l’IA deve essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori e accrescere qualità e produttività, e di come il suo utilizzo deve essere sicuro, affidabile e trasparente e non può avvenire in contrasto con la dignità umana né violare la riservatezza dei dati personali.

Le predetti principi trovano puntuale corrispondenza nelle linee guida, le quali chiariscono come la loro redazione derivi proprio dalla consapevolezza che la transizione tecnologica non possa essere governata unicamente dalle logiche di mercato o dall’inesorabile avanzamento della tecnica, ma necessiti di una direzione etica, politica e culturale chiara. Da tale sforzo nasce quindi un corpus di indicazioni, mediate attraverso uno dei tipici strumenti di soft law amministrativa (il decreto ministeriale), che sottolineano la necessità di definire principi che garantiscano lavoratori informati, protetti e coinvolti nella trasformazione digitale.

Il ruolo dell’Osservatorio e il monitoraggio continuo

Infine, sempre nella prospettiva dell’analisi dell’impianto generale, risulta chiaro come uno degli elementi di raccordo più significativi tra i due testi sia l’istituzione dell’Osservatorio sull’adozione dei sistemi di intelligenza artificiale nel mondo del lavoro, presso il Ministero del Lavoro (di cui all’art. 12 della legge 132), al quale si attribuisce il delicato compito di definire una strategia sull’utilizzo dell’IA, monitorarne l’impatto sul mercato e promuovere la formazione tanto dei lavoratori quanto dei datori di lavoro.

L’Osservatorio avrà in particolare il centrale ruolo di individuare i settori e le professioni maggiormente influenzati dall’introduzione dell’IA, raccogliendo e analizzando dati specifici, oltre a farsi responsabile dell’individuazione delle competenze più richieste dal mercato, con il corrispondente ‘ruolo’ di promotore di iniziative formative mirate alla riqualificazione professionale.

L’Osservatorio punta così a trasformare l’IA in un’opportunità concreta di crescita per le imprese e di miglioramento delle competenze per i lavoratori.

Le linee guida riprendono e sviluppano questo assetto, evidenziando la necessità di un sistema strutturato di monitoraggio e aggiornamento continuo basato su evidenze, dati e consultazioni con esperti, così da mantenere le politiche coerenti con l’evoluzione tecnologica e regolatoria.

Inoltre, chiariscono che le analisi e le risultanze delle attività dell’Osservatorio saranno rese pubbliche al fine di supportare in maniera continuativa tutti gli stakeholder impegnati ad affrontare con consapevolezza la transizione tecnologica.

Implementazione nelle imprese: istruzioni operative e responsabilità organizzativa

Concentriamoci quindi sugli aspetti operativi definiti nella legge e nelle linee guida.

È bene premettere, senza entrare troppo in tecnicismi, che la legge 132/2025 è una legge quadro. Questo significa che la definizione puntuale dei principi e dei criteri direttivi che essa impone dovranno essere definiti in modo puntuale da successivi decreti attuativi, i quali chiariranno obblighi specifici (quali ad esempio registri dei modelli, notifiche alle autorità, rendicontazioni periodiche, sandbox regolamentari, ecc.).

Tuttavia, è possibile intercettare alcune indicazioni operative rispetto al mondo del lavoro, in particolare con riferimento agli obblighi informativi che gravano sul datore di lavoro o il committente, i quali sono espressamente tenuti ad informare il lavoratore dell’utilizzo dell’IA nei casi e con le modalità previste, da ultimo, dal c.d. Decreto Trasparenza. Questo richiamo è già, di per sé, di evidente importanza, data la scarsa attenzione che, sin qui, le imprese hanno dedicato agli obblighi imposti da tale decreto.

Le linee guida si dimostrano uno strumento decisamente più pragmatico, in quanto suggeriscono determinati step che debbono essere considerati per integrare in maniera efficace e sicura l’IA nei processi aziendali, fornendo una vera e propria roadmap di adozione dell’IA, pensata per accompagnare le imprese lungo tutto il ciclo di implementazione di strumenti basati su tale tecnologia. Inoltre, le linee guida forniscono indicazioni operative anche nei confronti dei lavoratori autonomi, mettendo a disposizione un Vademecum per l’uso consapevole dell’intelligenza artificiale generativa nelle PMI e tra i professionisti (Appendice 2).

Di seguito ci concentreremo sulle indicazioni specificamente fornite nei confronti delle aziende e delle PMI, e sulle 6 fasi della roadmap delineata nelle linee guida.

Ogni fase è supportata da strumenti operativi e servizi dedicati, e si integra con i principi di responsabilità, sicurezza e inclusione (Capitolo 7), nonché con le procedure di gestione del rischio e conformità normativa (Capitolo 8).

Roadmap per l’intelligenza artificiale nel mondo del lavoro: le prime quattro fasi

La roadmap si articola in quattro fasi principali di tipo ‘verticale’ (1-4), cui si affiancano due fasi ‘trasversali’ (5-6) che accompagnano e rafforzano l’intero percorso di adozione.

Fase 1 – Valutazione preliminare e AI Readiness

In questa fase si conduce un’analisi strutturata del contesto aziendale, degli obiettivi strategici e del livello di maturità digitale, con l’obiettivo di capire in che misura l’IA possa creare valore per l’organizzazione.

Si procede con la mappatura dei processi e con la verifica della disponibilità, accessibilità e qualità dei dati. Contestualmente, viene esaminato il grado di preparazione dell’azienda sotto il profilo delle infrastrutture tecnologiche, delle competenze interne, della cultura orientata all’innovazione e dei modelli di governance.

Fase 2 – Pianificazione strategica e governance

Completata la fase di assessment e individuati punti di forza e le criticità, l’organizzazione è chiamata a definire un piano strategico per l’adozione dell’IA.

Non si tratta solo di selezionare strumenti tecnologici, ma di sviluppare una visione complessiva che tenga conto dell’identità digitale dell’impresa, delle priorità di business e delle modalità di integrazione dell’AI nei processi in modo sostenibile e responsabile.

In questa fase sono identificati i processi core su cui intervenire (es. il customer support o la gestione della supply chain, ecc.).

Fase 3 – Sperimentazione (Progetti Pilota)

In questa fase le organizzazioni avviano sandbox e test su scala limitata e in contesti controllati, con un duplice fine: da un lato misurare gli effetti dell’uso dell’IA su produttività, qualità e organizzazione del lavoro; dall’altro coinvolgere i dipendenti, così da poter raccogliere feedback e individuare eventuali criticità.

Risulta quindi essenziale accompagnare questa fase del processo con l’utilizzo di strumenti e metodologie per verificare e valorizzare le evidenze emerse.

Integrazione stabile e diffusione progressiva

Fase 4 – Implementazione e Scaling

Questa fase rappresenta il passaggio dall’utilizzo sperimentale all’integrazione stabile dell’IA nei processi aziendali. Il processo deve essere necessariamente progressivo, con il preliminare inserimento delle soluzioni testate nei flussi operativi principali.

Tale approccio consente infatti di monitorare e correggere eventuali criticità prima della diffusione nei restanti flussi operativi.

Tra gli aspetti da attenzionare rispetto a questa fase emerge l’esigenza di garantire:

  • l’interoperabilità e l’integrazione tra i sistemi di IA e le piattaforme già presenti — come ERP, CRM, sistemi HR o ambienti produttivi — evitando la creazione di silos tecnologici mediante l’adozione di standard condivisi
  • il coinvolgimento attivo dei lavoratori e l’individuazione di indicatori chiave di performance (KPI)
  • l’implementazione di un sistema di monitoraggio per valutare i benefici ottenuti, i rischi emersi e il ritorno sugli investimenti.

A ben vedere, queste prime 4 fasi non sono altro che una riproduzione di ciò che accade, nel mondo dell’industria, quando si decide di introdurre una nuova tecnologia o un nuovo macchinario. Troviamo estremamente interessante e sensato che tale approccio venga mutuato anche per l’inserimento di tecnologie fondate sull’AI.

Monitorare l’intelligenza artificiale nel mondo del lavoro e investire nelle persone

A completamento del percorso, le linee guida propongono altre due fasi, altrettanto importanti, sebbene meno ‘concrete e operative’ delle precedenti quattro.

Fase 5 – Monitoraggio, risk management e miglioramento continuo

In questa fase le organizzazioni monitorano ogni aspetto potenzialmente impattato dall’uso dell’AI, quindi sia le performance tecniche, che la dimensione etica e sociale (benessere organizzativo, relazioni di lavoro, possibili rischi di esclusione, discriminazione o riduzione dell’autonomia decisionale).

L’approccio deve essere orientato al miglioramento continuo, con revisioni periodiche e adeguamenti delle soluzioni adottate.

Fase 6 – Valorizzazione del capitale umano

Per rendere davvero efficace l’adozione dell’IA è indispensabile affiancare agli aspetti tecnologici un’attenzione costante alle persone. L’introduzione di nuove soluzioni può infatti essere percepita come una minaccia se non adeguatamente gestita.

Le organizzazioni dovrebbero quindi investire in programmi strutturati di formazione, aggiornamento e riqualificazione, accompagnando i lavoratori lungo tutto il percorso di trasformazione e favorendo un clima di fiducia e partecipazione.

Verso un modello integrato di regolazione dell’AI nel mondo del lavoro

La legge n. 132/2025 e il decreto ministeriale n. 180/2025 delineano un modello di regolazione dell’IA nel mondo del lavoro che combina principi giuridici, indicazioni operative e strumenti di governance.

In conclusione, possiamo affermare come dalla lettura coordinata dei due testi emerga chiaramente la necessità di un approccio multidisciplinare per garantire la compliance in materia di IA, che include non solo la governance dei dati e la protezione della privacy, ma soprattutto la gestione del rischio tecnologico.

Il tutto secondo un approccio ormai consolidato, quale quello di coniugare innovazione e tutela, promuovendo un’adozione consapevole dell’IA fondata su trasparenza, responsabilità e centralità della persona.

L’efficacia del sistema dipenderà dalla capacità degli attori coinvolti di tradurre principi e regole in pratiche concrete, costruendo un ecosistema in cui l’IA diventi fattore di progresso economico e sociale senza compromettere diritti e garanzie.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x