obblighi per le aziende

IA e sicurezza sul lavoro: cosa cambia con la legge 132/2025



Indirizzo copiato

La legge 132/2025 introduce obblighi stringenti per l’uso dell’intelligenza artificiale nella sicurezza sul lavoro. Professionisti e aziende devono dichiarare l’utilizzo di software IA, garantire trasparenza e tutelare i dati personali. Restano però aperte questioni pratiche sull’applicazione della normativa

Pubblicato il 2 dic 2025

Claudio Delaini

ingegnere specializzato in sicurezza dei macchinari industriali e certificazione CE



AI LAVORO STUDI misure di distanza intelligenza artificiale ia e sicurezza sul lavoro futuro del lavoro IA sicurezza lavoro

Con l’introduzione di obblighi stringenti che coinvolgono professionisti, consulenti e aziende, la legge 132/2025 segna un punto di svolta nell’utilizzo dell’IA nei contesti lavorativi, ma pone anche interrogativi concreti sulla sua applicazione pratica.

Il quadro normativo della legge 132/2025 sull’intelligenza artificiale

Lo scorso 10 ottobre è entrata ufficialmente in vigore la legge 132/2025, approvata dal Parlamento italiano il 23 settembre, che recepisce e integra il Regolamento europeo sull’intelligenza artificiale (AI Act) e introduce obblighi stringenti anche per chi utilizza l’IA nell’ambito della sicurezza sul lavoro. In particolare, la normativa impone a tutti gli operatori del settore (dai consulenti e gli RSPP ai datori di lavoro) di dichiarare l’eventuale utilizzo di software di intelligenza artificiale e di verificare che gli strumenti di IA rispettino i requisiti di trasparenza, affidabilità e tutela dei dati personali. Tuttavia, le modalità di applicazione pratica della norma sollevano alcune questioni significative, che vale la pena analizzare insieme.

Obbligo di comunicazione per RSPP e consulenti della sicurezza

L’articolo 13 della legge stabilisce inequivocabilmente che tutti gli operatori che svolgono “professioni intellettuali“, inclusi quelli del settore della sicurezza sul lavoro, sono tenuti a comunicare ai clienti o ai datori di lavoro l’eventuale utilizzo dell’intelligenza artificiale. Di fatto, l’obbligo riguarda chiunque rediga con l’aiuto dell’IA i documenti di valutazione dei rischi (DVR), le procedure operative, i manuali di sicurezza, i fascicoli tecnici: principalmente, i Responsabili del Servizio di Prevenzione e Protezione (RSPP), chi si occupa di documentazione tecnica e i consulenti esterni della sicurezza. La comunicazione è dovuta anche qualora l’intelligenza artificiale venga impiegata esclusivamente per attività di supporto come l’impaginazione, il controllo documentale o la ricerca di informazioni normative.

La legge prescrive che tale comunicazione deve avvenire “con linguaggio chiaro, semplice ed esaustivo“. La norma stabilisce inoltre che l’intelligenza artificiale nelle professioni intellettuali deve essere finalizzata “al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”. Insomma, il principio è chiaro: l’AI non può sostituire il giudizio professionale, ma soltanto fungere da supporto.

Dubbi operativi sull’applicazione dell’obbligo di trasparenza

Tuttavia, l’applicazione pratica lascia aperte non poche perplessità. Consideriamo ad esempio il caso di un RSPP o di un consulente per la sicurezza che utilizza un sistema di intelligenza artificiale per farsi aiutare nell’analisi predittiva dei rischi o per verificare la conformità normativa di una certa procedura aziendale, ricercando le norme che si applicano a quella casistica. La legge, è vero, impone la comunicazione al cliente o al datore di lavoro, ma lascia spazio a diversi dubbi sul fronte operativo.

Ad esempio, attraverso quale modalità deve avvenire tale comunicazione? Sarà sufficiente una clausola contrattuale generale o è necessaria un’informativa specifica per ogni documento prodotto? Quali elementi tecnici devono essere illustrati per garantire l’esaustività richiesta dalla norma?

Ma anche: come si può applicare il principio di chiarezza quando si utilizzano strumenti di intelligenza artificiale (ChatGPT e affini) il cui funzionamento resta, in fondo, opaco per gli utilizzatori?

Principi generali per l’uso dell’IA nei luoghi di lavoro

L’articolo 11 definisce i principi generali per l’impiego dell’intelligenza artificiale in ambito lavorativo, stabilendo che essa vada utilizzata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e incrementare la produttività. La normativa prescrive che l’utilizzo dell’intelligenza artificiale debba essere “sicuro, affidabile, trasparente“, nel rispetto della dignità umana e senza violazione della riservatezza dei dati personali.

Criticità nella valutazione di affidabilità e privacy dei sistemi IA

Proprio questo ultimo punto relativo alla privacy pone forse le maggiori difficoltà di applicazione. Prendiamo il caso di un’azienda manifatturiera che adotta un sistema di intelligenza artificiale per il monitoraggio automatico dei tempi di lavoro e delle pause, finalizzato all’ottimizzazione dei processi produttivi. Nella pratica, come può l’azienda documentare che tale sistema sia “affidabile” e “trasparente“? Quali criteri di valutazione devono essere applicati quando si utilizzano o si scelgono soluzioni software di cui l’azienda conosce solo in minima parte i meccanismi algoritmici?

Un altro esempio, forse ancora più banale, è quello di un’azienda che carica su ChatGPT i dati dei lavoratori per organizzare i turni. Questo atto costituisce una violazione della privacy, visto che si stanno condividendo dati personali con uno strumento terzo? La semplice comunicazione di questo utilizzo dell’IA basta a risolvere i problemi relativi alla riservatezza?

Informativa ai lavoratori per sistemi decisionali e di monitoraggio

La nuova normativa stabilisce inoltre che il datore di lavoro è tenuto a informare i lavoratori quando utilizza sistemi di intelligenza artificiale per finalità di controllo o monitoraggio, facendo riferimento all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152.

Questo obbligo si applica in particolare ai sistemi decisionali o di monitoraggio automatizzato che influenzano aspetti rilevanti del rapporto di lavoro: assunzione, gestione, cessazione del rapporto, assegnazione di compiti, sorveglianza, valutazione delle prestazioni.

Casi pratici di monitoraggio algoritmico nei diversi settori

Prendiamo il caso di quei contesti lavorativi dove vengono impiegati software che analizzano in tempo reale l’operato dei dipendenti:

  • nel settore della logistica, ad esempio, algoritmi che tracciano i movimenti degli operatori e ottimizzano i percorsi;
  • nei call center, sistemi che valutano la qualità delle interazioni con i clienti attraverso l’analisi vocale e sentimentale;
  • negli uffici, applicazioni che monitorano l’utilizzo del computer e classificano le attività come produttive o improduttive.

In tutti questi casi, la legge impone che i lavoratori siano informati dell’utilizzo di tali sistemi. Tuttavia, l’informazione deve andare oltre la mera notifica formale: deve consentire al lavoratore di comprendere quali dati vengono raccolti, come vengono elaborati, quali decisioni possono derivarne e quali garanzie esistono contro possibili errori o discriminazioni algoritmiche.

Dispositivi indossabili e tutela dei dati sensibili dei lavoratori

Particolarmente delicato è il caso dei dispositivi indossabili (wearable devices) dotati di intelligenza artificiale, usati per il monitoraggio della salute e sicurezza dei lavoratori. Parliamo di sensori che rilevano parametri vitali, posture scorrette, sforzi eccessivi o esposizione a sostanze pericolose: insomma, dati personali estremamente sensibili, che potenzialmente potrebbero anche venir utilizzati per valutazioni sulla produttività o sull’idoneità al lavoro.

La legge richiede che l’utilizzo sia trasparente e che non comporti violazioni della privacy, ma qui si ripropone il problema della valutazione dei software: chi, all’interno delle aziende utilizzatrici, ha davvero le competenze per valutarne l’affidabilità e il rispetto dei requisiti di riservatezza?

Garanzie contro le discriminazioni algoritmiche nel lavoro

L’articolo 11 stabilisce inoltre che l’intelligenza artificiale utilizzata nell’ambito dell’organizzazione del lavoro deve garantire l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni fondate su sesso, età, origini etniche, credo religioso, orientamento sessuale, opinioni politiche e condizioni personali, sociali ed economiche. Il principio è ovviamente perfettamente condivisibile, ma nella pratica si presentano rilevanti criticità.

Rischi di bias discriminatori nei sistemi di selezione del personale

Usiamo come esempio quello di una grande impresa che implementa un sistema di intelligenza artificiale per la selezione dei candidati durante le procedure di assunzione, analizzando curriculum vitae, lettere di presentazione e risultati di test attitudinali, e classificando automaticamente i candidati secondo criteri predefiniti. In questo scenario, il datore di lavoro ha l’obbligo non solo di informare preventivamente i candidati dell’utilizzo di tale sistema, ma anche di garantire che esso non operi discriminazioni.

Ma come può l’azienda verificare che i dati usati per addestrare l’intelligenza artificiale non perpetuino bias discriminatori? Quali competenze tecniche sono necessarie per condurre audit efficaci sugli algoritmi? E siamo davvero sicuri che nelle organizzazioni aziendali vi sia chi possiede queste competenze avanzate?

Valutazione del rischio infortuni e possibili discriminazioni statistiche

Un altro possibile esempio riguarda i sistemi di intelligenza artificiale per la valutazione del rischio di infortunio. Questi sistemi possono analizzare lo storico degli incidenti, le caratteristiche individuali dei lavoratori e le condizioni operative per identificare situazioni di rischio elevato. Tuttavia, se l’algoritmo andasse ad assegnare valutazioni di rischio sistematicamente più elevate a determinate categorie di lavoratori (ad esempio in base all’età o alla nazionalità) si configurerebbe probabilmente una discriminazione vietata dalla legge, anche se essa fosse statisticamente fondata sui dati disponibili.

Il gap tra principi normativi e applicazione concreta

Ricapitolando, la distanza tra i principi normativi e la loro concreta applicazione nei luoghi di lavoro rappresenta la criticità principale della nuova legge. Come si quantifica, ad esempio, il requisito di “affidabilità” di un sistema di intelligenza artificiale? Quali metriche devono essere adottate? Con quale periodicità devono essere effettuate le verifiche? E, soprattutto, chi possiede le competenze tecniche per condurre tali valutazioni?

Esempi pratici di difficoltà applicative nei sistemi di sicurezza

Prendiamo ad esempio un sistema di intelligenza artificiale per la gestione automatizzata degli accessi alle aree ad alto rischio, basato su riconoscimento facciale e analisi della conformità dei dispositivi di protezione individuale.

Come può l’azienda dimostrare che tale sistema sia sicuro e trasparente?

È sufficiente la certificazione del fornitore del software, o sono necessarie verifiche indipendenti? E in caso di malfunzionamento che comprometta la sicurezza, chi ne risponde?

Bilanciamento tra efficacia dell’IA e tutela della privacy

Un altro aspetto critico riguarda la gestione dei dati personali. La legge vieta che l’utilizzo dell’intelligenza artificiale violi la riservatezza dei dati personali, ma nella pratica molti sistemi richiedono necessariamente il trattamento di informazioni sensibili.

Un sistema di analisi predittiva degli infortuni, ad esempio, potrebbe necessitare di dati sanitari, abitudini lavorative, caratteristiche psicofisiche individuali. Come conciliare l’efficacia del sistema con la tutela della privacy? Quali misure di pseudonimizzazione o anonimizzazione devono essere adottate?

Rischi di approcci estremi e ruolo dell’osservatorio sull’IA

Esiste inoltre il rischio concreto che, in assenza di linee guida operative chiare, si determinino due scenari opposti e ugualmente problematici. Da un lato, un atteggiamento eccessivamente prudente potrebbe indurre le aziende a rinunciare all’adozione di tecnologie di intelligenza artificiale che potrebbero effettivamente migliorare la sicurezza e le condizioni di lavoro. Dall’altro, potrebbe prevalere un approccio formalistico, in cui l’obbligo di comunicazione si riduce ad adempimento burocratico privo di effettiva sostanza informativa.

La legge 132/2025 prevede anche l’istituzione di un Osservatorio sull’adozione di sistemi di intelligenza artificiale che avrà il compito di monitorare l’impatto sul mercato del lavoro, identificare i settori maggiormente interessati, promuovere la formazione di lavoratori e datori di lavoro e, si presume, elaborare delle linee guida applicative più chiare e dettagliate.

Il problema dei tempi di attuazione e delle linee guida mancanti

La questione temporale è tuttavia problematica: la legge è già operativa dal 10 ottobre 2025, mentre le linee guida operative e gli strumenti di supporto per l’applicazione della norma arriveranno necessariamente in un secondo momento. Nel frattempo, i professionisti della sicurezza e le aziende sono chiamati ad applicare disposizioni che, pur fondate su principi condivisibili, presentano ancora significative incertezze interpretative e operative.


Bibliografia

“Intelligenza artificiale: i rischi nelle fabbriche. Guida per chi vuole l’IA negli stabilimenti industriali”, dell’autore Claudio Delaini e dei collaboratori Silvia Zuanon, Massimo Marini e Roberto Serra, 2025.

Link: https://www.certificazionece.it/libri/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati