intelligenza artificiale

Legge IA italiana, ecco che deve fare un’azienda



Indirizzo copiato

Il Ddl IA allinea l’Italia al Regolamento europeo introducendo controlli sui sistemi algoritmici aziendali. Formazione continua e trasparenza decisionale proteggono i lavoratori dall’automazione discriminatoria nei processi di selezione

Pubblicato il 29 set 2025

Jacopo Piemonte

Senior Associate, De Berti Jacchia Franchini Forlani

Gaspare Roma

Partner, De Berti Jacchia Franchini Forlani



ai giovani lavoro impatto economico dell’intelligenza artificiale legge ai e lavoro

Il Disegno di Legge (DDL) sull’intelligenza artificiale (IA) approvato il 17 settembre 2025 pone particolare attenzione alla sicurezza, controllo e protezione dei diritti dei lavoratori.

Conformandosi agli standard europei, questa legge mira a garantire un utilizzo etico e responsabile degli algoritmi, assicurando che l’uomo rimanga sempre al centro delle decisioni tecnologiche.

Obiettivi del DDL IA

“L’intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone” (Art. 11, Disegno di Legge n. 1146 del 17 settembre 2025): questo è l’obiettivo che il DDL IA, ufficialmente approvato dal Senato in data 17 settembre 2025, intende perseguire nell’ambito dei rapporti di lavoro privato, al fine di promuovere un utilizzo sicuro, controllato, informato e responsabile dell’algoritmo.

Con il DDL IA, l’Italia inizia a dotarsi di una regolamentazione nazionale – conforme al Regolamento (UE) 2024/1689 (“AI Act”) – per disciplinare l’utilizzo dell’intelligenza artificiale negli ambiti della sanità, lavoro, giustizia e pubblica amministrazione.

In tutti tali settori, l’intelligenza artificiale deve essere utilizzata ed attuata in una dimensione antropocentrica, garantendo che l’uomo resti il centro del sistema e l’algoritmo un mero supporto alle sue attività, non minandone la dignità e la riservatezza. A tal fine, la sorveglianza umana ex art. 14 dell’AI Act rappresenta la prima necessaria misura a tutela della centralità dell’uomo e di una sicura governance dell’algoritmo, mediante un’interfaccia uomo-macchina che non consenta all’intelligenza artificiale di prendere il sopravvento sull’individuo.

In questo contributo svolgeremo delle brevi considerazioni per capire gli impatti pratici di questa nuova legislazione nel quadro giuslavoristico attuale, con un focus anche sui temi legati al legittimo trattamento dei dati personali dei dipendenti.

Nuovi obblighi informativi e di controllo per le aziende

Lo sviluppo, l’applicazione e l’utilizzo dei sistemi di IA devono avvenire nel rispetto dei diritti fondamentali del singolo individuo, con un controllo costante e critico dell’output prodotto dall’algoritmo.

Nell’ambito dei rapporti di lavoro, ai sensi dell’art. 11 del DDL IA, l’intelligenza artificiale deve essere utilizzata nel rispetto dei seguenti principi fondamentali: (i) divieto di discriminazione; (ii) garanzia dei diritti inviolabili del singolo; (iii) rispetto della dignità umana; e; (iv) sicurezza, affidabilità e trasparenza.

Ciò comporta una serie di obblighi aggiuntivi in capo ai datori di lavoro che intendono introdurre i sistemi di IA all’interno della loro organizzazione aziendale, con evidenti relazioni con quanto già previsto dal Regolamento (UE) 2016/679 (“GDPR”).

In particolare, ai sensi del combinato disposto dell’art. 11 del DDL IA e dell’art. 1-bis del D.L. n. 152/1997, le imprese saranno tenute a:

  • informare i lavoratori e le rappresentanze sindacali circa i sistemi di IA adottati all’interno della propria struttura, mediante la predisposizione e l’aggiornamento di policy che regolamentino in maniera dettagliata le modalità di utilizzo e di funzionamento degli specifici sistemi introdotti in azienda, le finalità per cui sono applicati, le misure di controllo predisposte per garantirne un sicuro impiego nonché il loro livello di accuratezza, robustezza e cybersicurezza;
  • integrare l’informativa privacy di cui all’art. 13 del GDPR con tutte le indicazioni relative al trattamento dei dati personali effettuato per mezzo dei sistemi di intelligenza artificiale utilizzati nell’ambito dell’organizzazione datoriale;
  • aggiornare il registro dei trattamenti di cui all’art. 30 del GDPR;
  • effettuare, se del caso, ai sensi dell’art. 35 del GDPR, una valutazione d’impatto sulla protezione dei dati personali trattati dai sistemi di intelligenza artificiale;
  • predisporre dei canali comunicativi tra il datore di lavoro e il lavoratore, affinché quest’ultimo possa chiedere tutte le opportune informazioni sui sistemi di intelligenza artificiale e il datore di lavoro possa fornire le indicazioni richieste per iscritto ed entro 30 giorni; e
  • nel caso in cui dall’utilizzo dei sistemi di IA possa derivare un controllo a distanza sull’attività del dipendente, esperire le procedure di consultazione o autorizzazione di cui all’art. 4 della L. n. 300/1970.

Formazione e alfabetizzazione digitale come diritto dei lavoratori

Accanto agli obblighi sopra menzionati si colloca, anche in virtù del AI Act, un ulteriore profilo di rilievo, ossia quello della promozione dell’alfabetizzazione all’intelligenza artificiale (“AI literacy”) all’interno delle realtà aziendali.
Quest’ultima rappresenta uno strumento essenziale di tutela dei diritti dei lavoratori, soprattutto nei casi in cui in azienda vengano adottati o si intendano adottare strumenti di lavoro basati sull’IA.
Nel contesto lavoristico, infatti, l’AI literacy non dovrebbe limitarsi a fornire nozioni tecniche sul funzionamento dei sistemi adottati, ma si dovrebbe tradurre nella garanzia di una formazione mirata a rendere i dipendenti consapevoli dei rischi connessi all’utilizzo dell’IA, delle misure di salvaguardia previste dalla normativa e degli strumenti concreti a loro disposizione per esercitare i propri diritti.

In questa prospettiva, l’AI literacy può configurarsi come un vero e proprio adempimento organizzativo in capo al datore di lavoro, che dovrà pianificare percorsi di formazione continua e inclusiva, orientati a:

  • favorire la comprensione dei meccanismi decisionali sottesi all’IA e il loro impatto sulle condizioni di lavoro;
  • sviluppare la capacità di interpretare e valutare criticamente gli output algoritmici, specie laddove incidano su valutazioni di performance o processi di selezione e carriera;
  • accrescere la consapevolezza delle possibili implicazioni etiche e giuridiche derivanti dall’uso dell’IA;
  • promuovere la diffusione di una cultura aziendale improntata alla trasparenza, alla non discriminazione e alla responsabilizzazione nell’uso delle nuove tecnologie.

In tal modo, l’AI literacy dovrebbe fungere da leva per garantire una partecipazione sostanziale dei lavoratori all’innovazione tecnologica, rafforzando il dialogo sociale e riducendo le asimmetrie informative tra datore di lavoro e dipendenti.

Responsabilità datoriale e gestione dei rischi nell’era algoritmica

Il mancato adempimento del datore di lavoro all’obbligo di alfabetizzazione in materia di intelligenza artificiale, oltre a rappresentare una violazione di quanto previsto dall’AI Act, potrebbe avere riflessi negativi anche in termini di gestione dei rapporti di lavoro e portare a conseguenze pregiudizievoli per il datore di lavoro che, per effetto e grazie all’utilizzo di sistemi di intelligenza artificiale, avesse ad adottare provvedimenti negativi (es. un licenziamento) nei confronti dei propri dipendenti. Tale aspetto, dunque, sebbene di norma sotto il controllo della funzione IT delle società, dovrà necessariamente essere trattato e gestito direttamente anche dalla funzione delle risorse umane, nell’ambito del più ampio diritto/dovere di formazione, già incombente sul datore di lavoro in vari altri ambiti (tra cui, per esempio quello della salute e sicurezza).

L’osservatorio ministeriale per governare la transizione tecnologica

Va infine tenuto presente come il DDL IA miri a introdurre una forma di governance per accompagnare la fase di transizione in cui si sta definendo una disciplina per l’utilizzo degli strumenti di intelligenza artificiale in ambito lavorativo.

Considerati gli evidenti vantaggi che l’intelligenza artificiale apporterà ai sistemi produttivi ed organizzativi in termini di rapidità ed efficienza, si è preso infatti atto di come appaia difficile immaginare che alcuni datori di lavoro decidano di privarsi del supporto dell’algoritmo nello svolgimento del business. Al contrario, per non perdere competitività in un mercato che sarà caratterizzato da un utilizzo diffuso dell’IA, l’applicazione dell’algoritmo in ambito lavorativo diverrà quasi necessaria per ogni realtà imprenditoriale/datoriale, che sarà, dunque, tenuta a ottemperare gli obblighi di cui sopra.

A garanzia e monitoraggio del corretto uso dei sistemi di intelligenza artificiale nell’ambito lavorativo – con massimizzazione dei benefici e minimizzazione dei rischi –, l’art. 12 del DDL IA istituisce dunque presso il Ministero del lavoro e delle politiche sociali l’“Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro”, istituzione che ha il compito di definire una strategia comune sull’utilizzo dell’IA, di monitorare l’impatto sul mercato del lavoro, di identificare i settori lavorativi maggiormente interessati dall’avvento dell’IA nonché di promuovere la formazione dei lavoratori e dei datori di lavoro.

Verso un futuro del lavoro antropocentrico e sostenibile

In conclusione, nell’ambito lavorativo, il DDL IA enfatizza la necessità di individuare delle best practice comuni a tutti i datori di lavoro per l’utilizzo dell’intelligenza artificiale, al fine di garantire che le imprese ne dispongano al solo scopo di migliorare la propria produttività e quella dei propri lavoratori, senza compromissione alcuna dei diritti fondamentali del singolo (molti dei quali, di rilevanza costituzionale).

Ciò sarà possibile solo attraverso una valorizzazione dell’antropocentrismo, che consentirà un utilizzo dell’IA in maniera compatibile con la dignità e i diritti fondamentali dell’uomo.

A tal fine, si è riconosciuta la necessità di un’istituzione dedicata che garantisca il rispetto di tali principi. L’istituzione dell’Osservatorio ministeriale rappresenta infatti lo strumento essenziale per tradurre i principi astratti in pratiche concrete, accompagnando imprese e lavoratori in una transizione tecnologica sicura.

Al di là di questi importanti punti fissati dal legislatore – i cui effetti si dispiegheranno progressivamente negli anni – è bene ricordare che sul datore di lavoro gravano già comunque oggi numerosi adempimenti rilevanti (si veda sopra, punti a) e b)), ogniqualvolta vengano adottati strumenti basati sull’IA o se ne preveda la futura implementazione (e questo anche sulla base del GDPR e dell’AI ACT).

Le imprese sono dunque chiamate sin d’ora a intraprendere un percorso di adeguamento per rendersi “compliant” alle nuove regole in un quadro normativo che è effettivamente nuovo, complesso ed inesplorato. Tale percorso prevederà, necessariamente, il coinvolgimento di più figure interne all’azienda (dall’IT, all’HR, passando, in taluni casi, per il finance), oltre che di professionisti in grado di comprendere sia di tematiche tecniche (quali sono, appunto, quelle di natura strettamente informatica), sia di tematiche legali, con particolare attenzione agli ambiti del diritto del lavoro e della privacy.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati