ia e lavoro

IA in azienda: perché diventa un tema di salute e sicurezza



Indirizzo copiato

Dall’aggiornamento del Documento di Valutazione dei Rischi al “rischio algoritmo”: come il Testo Unico 81/08, il nuovo AI Act e la Legge 132/2025 ridisegnano i ruoli del medico competente e del responsabile del servizio prevenzione e protezione

Pubblicato il 20 gen 2026

Federico Cabitza

Professore associato Università Bicocca



ai giovani lavoro impatto economico dell’intelligenza artificiale legge ai e lavoro IA salute e sicurezza sul lavoro

L’ingresso dell’Intelligenza Artificiale (IA) nei luoghi di lavoro viene spesso raccontato come una vicenda di natura essenzialmente tecnica e tecnologica: si parla di piattaforme e flussi dati, di valutazione della performance, di automazione e di algoritmi più o meno “intelligenti”.

IA e salute e sicurezza sul lavoro: dal racconto alla norma

Talvolta il discorso si allarga a questioni di interesse legale, come la privacy, la protezione dei dati personali, la protezione della proprietà intellettuale e al controllo a distanza dei lavoratori. Ma se ci si sposta dal piano del racconto mediatico a quello del diritto positivo, emerge una realtà diversa e più impegnativa: ogni volta che un sistema algoritmico complesso entra in azienda, e comincia a incidere sui processi decisionali e sull’organizzazione del lavoro, la questione diventa a tutti gli effetti un tema di salute e sicurezza.

Qui giova ricordare che per salute si intende qualcosa di più ampio della «assenza di malattia o d’infermità» per comprendere piuttosto uno «stato di completo benessere fisico, mentale e sociale dei lavoratori». D’altro canto, per sicurezza è opportuno adottare un significato ampio, che comprende anche la prevenzione, vale a dire tutte le misure volte a evitare o ridurre i rischi professionali.

Combinando questi due concetti, lo “stato di salute e sicurezza” può essere visto come una condizione dinamica di benessere globale (fisico, mentale e sociale), garantita non solo dall’adozione di misure di prevenzione rivolte ai rischi fisici (cadute, infortuni, lesioni) e ai rischi psicosociali, cioè quelli che impattano la sfera mentale e sociale del lavoratore, ma anche dalla continua evoluzione di tali misure in funzione del progresso tecnico, inclusa la crescente diffusione di sistemi di IA.

Quando l’algoritmo cambia l’organizzazione: scatta la catena di responsabilità

Dal punto di vista organizzativo e giuridico, l’IA non è soltanto un nuovo strumento tecnico, ma una modifica sostanziale del modo in cui il lavoro è progettato, assegnato, controllato e valutato. Si tratta cioè di una modifica che il sistema delle tutele non può ignorare e che, anzi, attiva de iure una catena precisa di responsabilità. In questa catena, il Medico Competente (MC) e il Servizio di Prevenzione e Protezione (SPP) assumono un ruolo centrale: diventano, insieme al datore di lavoro, che è tenuto per legge a nominare il MC e a designare il Responsabile del SPP (RSPP) e ai rappresentanti dei lavoratori, i custodi della “salute digitale” di chi lavora, vale a dire del modo in cui l’uso di tecnologie intelligenti incide su benessere, carico mentale, autonomia e dignità professionale. Sebbene questa tesi sia già stata introdotta in un altro contributo su questa piattaforma (Cabitza, 2025b), in questo lavoro intendiamo renderla più concreta e giuridicamente fondata, offrendo ulteriori riferimenti e precisando quali strumenti possano essere utilizzati, e in quali sedi, affinché la protezione della salute digitale possa realizzarsi in modo compiuto.

Infatti, la base giuridica di questa nuova governance non è contenuta in una singola norma, ma nasce dall’interazione di tre componenti principali. Da un lato c’è il D.Lgs. 81/2008, il Testo Unico sulla salute e sicurezza sul lavoro, che resta il riferimento fondamentale e continua a valere integralmente anche nell’era degli algoritmi. Su un altro fronte c’è il Regolamento europeo 2024/1689, anche noto come AI Act, che introduce una disciplina specifica per i sistemi ad alto rischio, tra cui rientrano quelli usati per la gestione dei lavoratori. Infine, a livello nazionale, interviene la Legge 132/2025, che codifica il principio secondo cui l’IA in ambito lavorativo non può mai operare in contrasto con la dignità umana, ma anzi deve essere impiegata per «tutelare l’integrità psicofisica dei lavoratori», con particolare enfasi sul dovere di trasparenza e informazione che ne consegue.

IA e salute e sicurezza sul lavoro: quando cambia il processo cambia anche la prevenzione

Il primo snodo è nel Testo Unico. L’articolo 17 del D.Lgs. 81/2008 designa come obbligo del datore di lavoro non delegabile la valutazione di tutti i rischi e la sua elaborazione del Documento di Valutazione dei Rischi o DVR. D’altro canto, l’articolo 28 dello stesso testo stabilisce che tale documento debba essere rielaborato immediatamente quando intervengono modifiche del processo produttivo o dell’organizzazione del lavoro che possano avere effetti rilevanti sulla salute e sulla sicurezza. L’introduzione di sistemi di IA che assegnano turni, distribuiscono compiti, monitorano le prestazioni, segnalano scostamenti da norme o standard, suggeriscono alternative decisionali o producono classifiche di performance è esattamente questo: una variazione profonda del modo in cui il lavoro è condotto, organizzato, e gestito.

L’articolo 28 ricorda inoltre che la valutazione deve riguardare tutti i rischi, compresi lo stress lavoro-correlato e quelli connessi alle differenze di genere, età e altre condizioni personali. Proprio questi sono i terreni su cui gli algoritmi hanno maggiore impatto: possono accelerare i ritmi, rendere il monitoraggio più pervasivo, applicare criteri di valutazione standardizzati che mal si adattano alle differenze individuali, oppure alimentare disallineamenti e discriminazioni se i dati di partenza non sono adeguati.

In questo quadro prende forma un concetto sempre più rilevante, che potremmo chiamare “stress lavoro-correlato da algoritmo” o, più brevemente, “stress tecno-correlato”. Questo tipo di stress è uno dei modi in cui il più ampio “rischio algoritmo” può manifestarsi sul piano psicosociale. Con l’espressione ‘stress tecno-correlato’ intendiamo quindi diverse forme di pressione cui è sottoposto un lavoratore che deve utilizzare sistemi di IA o sa che il proprio operato è analizzato da tali sistemi: da una parte, la pressione di chi lavora con strumenti che automatizzano parzialmente compiti che prima svolgeva interamente; dall’altra, quella che deriva dal sentirsi costantemente osservato, misurato e valutato da una macchina che registra tempi, deviazioni ed errori e che, assegnando punteggi o etichette, può incidere su premi, incentivi, turni, incarichi e opportunità di carriera. Nella prossima sezione cercheremo di articolare in modo più tassonomico questa nozione, presentando un framework aggiornato alla luce delle principali fonti che si sono occupate del tema. Per ora può bastare richiamare il significato più intuitivo di questa nozione e assimilarlo al disagio di lavorare sapendo che ogni gesto, ogni pausa, ogni rallentamento lascia una traccia in un sistema che può essere percepito come opaco e incontestabile e che spesso viene presentato come neutro e oggettivo, benché in realtà incorpori scelte, soglie e criteri definiti da esseri umani o riflessi nei dati di addestramento.

È bene precisare che il Testo Unico non usa l’espressione “tecno-correlato”, ma impone comunque di intercettare e valutare i rischi psicosociali che derivano dall’impiego di una particolare tecnologia in contesti lavorativi. Appare quindi ragionevole che, se un algoritmo modifica tempi, modi e controlli del lavoro, questi rischi debbano entrare nel DVR. E devono entrarci non in modo generico, ma attraverso un esame specifico delle nuove condizioni organizzative, in collaborazione con il MC e con il Servizio di Prevenzione e Protezione. È qui che il “rischio algoritmo” cessa di essere una formula giornalistica e diventa una categoria operativa della prevenzione.

Medico competente e SPP nella IA e salute e sicurezza sul lavoro: i nuovi custodi

In questo quadro, il Medico Competente (MC) non può più limitarsi ad esercitare il suo compito principale, e cioè gestire la sorveglianza sanitaria, secondo schemi tradizionali, concentrandosi principalmente sui rischi fisici o chimici. Giova a questo punto ricordare cosa si intenda esattamente per sorveglianza sanitaria: questa è definita come l’«insieme degli atti medici, finalizzati alla tutela dello stato di salute e sicurezza dei lavoratori, in relazione all’ambiente di lavoro, ai fattori di rischio professionali e alle modalità di svolgimento dell’attività lavorativa». Non possiamo fare a meno di notare come il termine sorveglianza, che nel D.Lgs. 81/08 indica un monitoraggio attivo e lo strumento fondamentale di feedback per il sistema di sicurezza aziendale, coincida con quello adottato dal legislatore italiano per tradurre il termine oversight nell’AI Act (art. 14). Si tratta di un termine chiave, cui abbiamo già dedicato un breve saggio su questa piattaforma (Cabitza & Stefanelli, 2024), osservando come altre lingue abbiano preferito termini più chiaramente riconducibili alla supervisione e al controllo, quali supervisión, Aufsicht, εποπτεία e contrôle (Cabitza, 2025a). Per quanto riguarda la sorveglianza nell’AI Act, ricordiamo qui soltanto la definizione, che indica tutte le misure atte a garantire che i sistemi di IA siano diffusi e adottati rispettando la dignità e l’autonomia umana, e che i rischi relativi per la salute, la sicurezza e i diritti fondamentali siano gestiti efficacemente durante tutto il ciclo di vita di tali tecnologie.

Tornando al testo unico, l’articolo 25 del D.Lgs. 81/08 indica chiaramente il MC come soggetto che deve collaborare alla valutazione dei rischi insieme al datore di lavoro e al RSPP. Non è un ruolo accessorio: significa partecipare alla lettura delle trasformazioni organizzative dovute all’introduzione dell’IA e stimare l’impatto che queste possono avere sulla salute, compresi gli aspetti di natura mentale e relazionale.

Le visite periodiche del MC agli ambienti di lavoro – previste almeno annualmente, salvo diversa modulazione in base al profilo di rischio – assumono, in un contesto digitale, un significato particolare. Non si tratta più soltanto di verificare l’ergonomia delle postazioni, l’illuminazione, il microclima o l’esposizione a agenti fisici, ma di osservare come il lavoro viene svolto nelle postazioni “aumentate” dall’IA: postazioni con sistemi di supporto decisionale, reparti in cui i ritmi sono scanditi da dashboard aggiornate in tempo reale, uffici dove candidature, valutazioni o avanzamenti passano da piattaforme di selezione automatizzata.

A questo quadro è opportuno aggiungere il tema della sorveglianza sanitaria individuale. L’articolo 41 prevede che il lavoratore possa richiedere una visita medica qualora ritenga che le proprie condizioni di salute siano correlate ai rischi del lavoro. Nel contesto dell’IA, ciò può tradursi in richieste legate a disturbi del sonno, stati ansiosi, forme di stress intenso, sintomi psicosomatici che il lavoratore collega al monitoraggio algoritmico, alla pressione dei target automatizzati, alla sensazione di essere costantemente sotto esame o di perdere gradualmente competenze, centralità, capacità di azione autonoma e apprezzamento. Il MC è chiamato a esercitare un giudizio clinico capace di tenere insieme la dimensione sanitaria e quella tecnologico-organizzativa, e a riportare, in forma aggregata, le evidenze emergenti nei momenti di confronto istituzionale con l’azienda.

Parallelamente, il Servizio di Prevenzione e Protezione rappresenta il braccio tecnico di questa governance. L’articolo 33 gli attribuisce il compito di individuare i fattori di rischio, valutare i rischi e proporre misure di prevenzione e protezione adeguate. Applicato all’IA, questo mandato significa anzitutto tradurre il funzionamento dell’algoritmo in fattori di rischio comprensibili: capire quali dati sia necessario raccogliere, come sia meglio trattarli, quali indicatori debbano essere utilizzati per valutare la performance, quali soglie debbano essere associati ad allarmi o segnalazioni, come si distribuiscano i carichi di lavoro in base alle raccomandazioni della macchina.

Questo lavoro di traduzione è essenziale per evitare che l’IA rimanga una “scatola nera” rispetto alla prevenzione e alla protezione. Se il sistema di monitoraggio della produttività rende i ritmi insostenibili o assegna obiettivi irrealizzabili, se il sistema di allocazione dei turni espone sistematicamente alcuni gruppi di lavoratori a condizioni più gravose, se il sistema di valutazione automatica genera competizione permanente e ansia di prestazione, questi effetti devono essere riconosciuti come rischi, analizzati e affrontati con misure correttive.

Formazione e IA e salute e sicurezza sul lavoro: dall’uso alle competenze critiche

Un capitolo a parte riguarda la formazione, regolata dall’articolo 37, che trova un corrispettivo nell’articolo 4 dell’AI Act sulla cosiddetta “Alfabetizzazione in materia di IA”. Introdurre l’IA non significa solo procurarsi nuove licenze software e diffondere nuove credenziali di accesso, ma ripensare i contenuti della formazione obbligatoria. I lavoratori non devono imparare soltanto a cliccare nei punti giusti dell’interfaccia, bensì a capire cosa fa il sistema, con quali limiti, quali errori può commettere e quali margini restano alla loro responsabilità professionale. È compito dello SPP, in sinergia con MC e datore di lavoro, costruire percorsi formativi che includano la consapevolezza del rischio tecnologico, il significato della sorveglianza umana e i diritti del lavoratore quando interagisce con un algoritmo che ne osserva e valuta l’operato.

AI Act e Legge 132/2025 nella IA e salute e sicurezza sul lavoro: la convergenza normativa

Il quadro nazionale si innesta su un contesto europeo che, con l’AI Act, compie una scelta di campo. Il Regolamento considera ad alto rischio i sistemi di IA utilizzati per l’occupazione, la gestione dei lavoratori e l’accesso al lavoro autonomo. In pratica, tutto ciò che riguarda selezione, assegnazione dei compiti, monitoraggio delle prestazioni, valutazioni automatiche e supporto avanzato alle decisioni che possono incidere in modo sostanziale sulla vita lavorativa rientra in una categoria regolata in modo più stringente.

L’AI Act introduce anche una figura che nel linguaggio tecnico viene definita “deployer”: chi, in concreto, utilizza il sistema di IA per lavoro, come scelta libera e consapevole (“sotto la propria autorità”). Nel contesto lavorativo, il deployer coincide con il datore di lavoro o con l’organizzazione che decide di diffondere e far adottare al suo interno una tecnologia algoritmica per gestire persone e processi. L’articolo 26 del Regolamento impone al deployer di assumere una serie di obblighi, quali: adottare misure tecniche e organizzative che garantiscano un uso conforme del sistema, assicurare una sorveglianza umana effettiva e trasformare l’innovazione nell’occasione per raggiungere e mantenere una più solida maturità organizzativa.

La sorveglianza umana, in questa prospettiva, non può ridursi alla semplice presenza di un operatore davanti allo schermo. Richiede che qualcuno abbia la competenza e l’autorità per comprendere il funzionamento del sistema, valutarne gli esiti, riconoscere gli errori e i near miss -cioè gli episodi in cui un danno grave è stato solo sfiorato o evitato per poco- così come le situazioni di potenziale pericolo. In funzione di questa comprensione, tale soggetto deve poter intervenire per correggere decisioni manifestamente inappropriate o ingiuste, fino alla decisione di sospendere l’uso del sistema stesso se emergessero rischi evidenti per diritti, salute o sicurezza. È evidente come questo obbligo si intrecci con le responsabilità dell’RSPP e del Medico Competente, che portano in azienda una lettura specifica dei rischi e degli effetti sulla persona.

La Legge 132/2025, dal canto suo, introduce alcuni principi espressamente riferiti al contesto italiano. L’articolo 11 stabilisce che l’IA deve essere utilizzata in modo tale da tutelare l’integrità psicofisica dei lavoratori e non può mai operare in contrasto con la dignità umana. Non si tratta di un richiamo retorico, ma di un criterio interpretativo che obbliga a interrogarsi su come l’IA incida sul modo in cui le persone vivono il proprio lavoro, si percepiscono, vengono valutate e riconosciute. La legge insiste anche sulla trasparenza: il datore di lavoro ha l’obbligo di informare i lavoratori sull’uso dell’IA, sui processi nei quali interviene e sulle possibili conseguenze delle decisioni algoritmiche.

Un elemento importante, su cui desideriamo infine richiamare l’attenzione, è che l’AI Act chiarisce di non derogare alle norme europee e nazionali in materia di salute e sicurezza sul lavoro. In altri termini, le previsioni del Testo Unico 81/08 non vengono superate dalla nuova disciplina sull’IA, ma semmai rafforzate. L’obbligo di aggiornare il DVR in caso di modifiche organizzative, il coinvolgimento del Medico Competente e dello SPP, la centralità della prevenzione come responsabilità del datore di lavoro restano il nucleo attorno cui costruire anche la compliance all’AI Act e alla Legge 132/2025.

Riunione periodica e IA e salute e sicurezza sul lavoro: la cabina di regia

Se l’IA modifica il modo di lavorare, e se la valutazione dei rischi deve tenere conto di questi cambiamenti, è naturale chiedersi dove e come questa governance trovi un luogo strutturato di confronto e di realizzazione concreta. Il D.Lgs. 81/2008 mette a disposizione uno strumento che, fino a oggi, è stato spesso interpretato in chiave tradizionale: la Riunione Periodica prevista dall’articolo 35.

Nelle aziende con più di quindici lavoratori, questa riunione è obbligatoria e vede seduti allo stesso tavolo il datore di lavoro, il Responsabile del Servizio di Prevenzione e Protezione, il Medico Competente (quando previsto) e il Rappresentante dei Lavoratori per la Sicurezza. È il momento in cui si discutono il documento di valutazione dei rischi, l’andamento degli infortuni e delle malattie professionali, i programmi di formazione e informazione.

Se si assume sul serio il “rischio algoritmo”, la Riunione Periodica diventa la sede naturale in cui portare i temi legati all’IA. Qui possono confluire i rilievi del Medico Competente sui segnali di stress, disagio o patologie che mostrano una correlazione con l’introduzione di sistemi di monitoraggio digitale; le analisi dello SPP sulle nuove modalità di organizzazione del lavoro dettate dall’algoritmo; le osservazioni dell’RLS sulle percezioni dei lavoratori, sulle aree di conflitto, sui timori legati alla trasparenza e alla giustizia delle decisioni automatizzate.

La norma prevede che la Riunione Periodica si svolga non solo con cadenza annuale, ma anche in occasione di significative variazioni delle condizioni di esposizione al rischio. L’adozione di un sistema di IA per la gestione dei turni, per la valutazione delle performance o per il controllo in tempo reale dell’operato dei dipendenti rientra pienamente in questa definizione. Convocare una riunione straordinaria in questi casi non è un eccesso di zelo, ma la traduzione concreta di un obbligo giuridico e di una buona prassi organizzativa.

Immaginare la Riunione Periodica come cabina di regia dell’IA significa superare l’idea di un incontro “di rito” e valorizzarla come spazio di integrazione e decisione condivisa: un luogo in cui si mettono a sistema dati sanitari aggregati, indicatori di rischio, descrizioni tecniche dei sistemi algoritmici, esperienze soggettive dei lavoratori, raccolte sia con metodi qualitativi (focus group, interviste) che quantitativi (questionari psicometrici, analisi retrospettiva dell’efficienza ed efficacia decisionale). È in questa sede che si possono definire strategie di mitigazione, aggiustamenti organizzativi, miglioramenti dei sistemi di sorveglianza umana e percorsi formativi mirati, lasciando traccia nel verbale di scelte, criteri, risultanze periodiche e responsabilità.

Tassonomia operativa e misure: dall’impatto sul capitale umano ai protocolli “human-first”

Nelle nostre più recenti attività consulenziali, condotte in vari settori organizzativi, e in particolare nel mondo sanitario e ospedaliero, abbiamo progressivamente elaborato una tassonomia generale degli impatti dell’IA sul capitale umano. Questa tassonomia si articola lungo quattro assi fondamentali: la competenza, cioè l’influenza delle tecnologie sul saper fare professionale (Cabitza, 2021); il controllo, ovvero il grado di affidamento appropriato e supervisione effettiva dei sistemi intelligenti (Cabitza et al., 2017); l’agency, intesa come capacità di iniziativa, giudizio e impegno personale nell’azione (D’Aloia, 2022); e infine la cooperazione, che riguarda le dinamiche collaborative con i colleghi e con gli strumenti digitali avanzati utilizzati nel lavoro quotidiano (Esposito, 2022).

Tassonomia dei rischi psicosociali associati all’adozione di sistemi di IA generativa e predittiva

AmbitoCodiceRischio principaleDescrizione sintetica
1. Competenza1.1Complessità e competenza percepita (techno-complexity)Difficoltà nel comprendere o utilizzare sistemi complessi e in continua evoluzione; genera senso di inadeguatezza e fatica cognitiva.
1.2Deskilling creativo e dipendenza cognitivaProgressiva perdita di abilità critiche e di padronanza professionale per eccessiva delega all’IA; rischio di impoverimento del sapere esperto individuale e collettivo.
2. Controllo2.1Opacità e attribuzione di responsabilità (black-box stress)Impossibilità di comprendere le logiche decisionali dell’IA e difficoltà nell’attribuzione delle responsabilità; genera sfiducia e senso di impotenza.
2.2Affidabilità degli strumenti (tool reliability stress)Guasti, latenza o incoerenza degli output compromettono la fiducia e la capacità di supervisione, riducendo il senso di controllo operativo.
3. Agentività /Agency3.1Sorveglianza algoritmica e perdita di autonomiaControllo granulare delle prestazioni e prescrittività delle metriche che limitano la libertà d’azione e la responsabilità personale.
3.2Sovraccarico digitale (techno-overload)Eccesso di input, notifiche e richieste che impongono ritmi insostenibili, riducendo la capacità di giudizio e di decisione autonoma.
3.3Insicurezza occupazionale (techno-insecurity)Timore di sostituzione o dequalificazione del ruolo dovuta all’automazione e all’introduzione dell’IA; induce passività e conformismo.
4. Cooperazione4.1Profilazione predittiva e stigmaAssegnazione di punteggi o etichette probabilistiche che influenzano reputazione e opportunità, generando ansia, percezione d’ingiustizia e sfiducia nei sistemi.
4.2Conflitto etico/morale (moral distress)Disagio psicologico dovuto a decisioni o raccomandazioni dell’IA percepite come contrarie ai valori etici o deontologici della professione.
4.3Invasione/confusione dei confini (telepressure / work–home conflict)Erosione del confine tra lavoro e vita privata a causa dell’iperconnessione e della reperibilità costante; riduce il recupero e la qualità relazionale.
4.4Sicurezza informatica e privacy (security/privacy anxiety)Paura di errori, leak o monitoraggio costante; compromette la fiducia nei sistemi e nei processi collaborativi.
4.5Incertezza tecnologica e adattamento continuo (techno-uncertainty)Evoluzione imprevedibile di modelli, policy e procedure che ostacola la stabilità operativa e la costruzione di fiducia reciproca.
4.6Isolamento e riduzione del supporto socialeDiminuzione delle interazioni umane significative, feedback automatizzati e perdita di senso di appartenenza nei contesti mediati dall’IA.

Isolamento e riduzione del supporto sociale

Diminuzione delle interazioni umane significative, feedback automatizzati e perdita di senso di appartenenza nei contesti mediati dall’IA.

Ciascuno di questi quattro ambiti richiede la definizione, o l’adattamento, di adeguati strumenti di rilevazione. Per le forme di rischio più rilevanti abbiamo fatto ricorso soprattutto a misure psicometriche validate, utili a raccogliere dati attitudinali e comportamentali. Nell’area delle competenze, ad esempio, abbiamo utilizzato la Technostress Creators Scale (Rossi et al., 2023), la Computer Self-Efficacy Scale (Compeau & Higgins, 1995) e, più di recente, la Artificial Intelligence Self-Efficacy Scale (Wang & Chuang, 2024). Per l’ambito del controllo ci siamo invece affidati alla consolidata scala Trust in Automated Systems (Jian et al., 2000) o a sue evoluzioni aggiornate per i sistemi di IA (McGrath et al., 2025). L’impiego di strumenti riconosciuti e validati consente non solo una misurazione accurata dei costrutti associati alle diverse fonti di stress e la comparabilità con benchmark consolidati, ma anche la realizzazione di studi longitudinali interni alle organizzazioni, indispensabili per valutare nel tempo l’efficacia degli interventi di miglioramento o di mitigazione introdotti. Per rendere l’idea, possiamo citare una decisione presa in una cabina di regia alla quale abbiamo partecipato sul rischio 1.2, il cosiddetto deskilling: la progressiva erosione delle competenze indotta dall’uso dell’IA, anche quando il sistema è utilizzato entro i confini dell’uso appropriato e secondo la finalità dichiarata dal produttore (cf. art. 13, comma 3b), fenomeno di cui ci siamo occupati estesamente (Natali et al., 2025). In quel caso si stabilì che i medici che desideravano avvalersi del suggerimento di un sistema di intelligenza artificiale per formulare una diagnosi dovessero prima registrare su un supporto digitale la loro ipotesi iniziale, senza essere ancora esposti al responso della macchina, e soltanto dopo considerare la proposta dell’algoritmo come una “seconda opinione” (Vashitz, 2012), per poi consolidare in cartella clinica la valutazione definitiva. Questo semplice accorgimento, denominato “human-first protocol”, fu considerato sufficiente per preservare l’abitudine a una prima interpretazione del caso non assistita e per ridurre il rischio di comportamenti opportunistici di eccessivo affidamento sul sistema. La registrazione su supporto digitale avrebbe inoltre consentito di confrontare l’impatto delle raccomandazioni algoritmiche sull’accuratezza diagnostica finale e, di conseguenza, di valutare l’appropriatezza del supporto e la sostenibilità del suo impiego nel lungo periodo anche in termini di capitale umano[1].

IA e salute e sicurezza sul lavoro come lente sul benessere organizzativo

Guardata da questa prospettiva, l’IA in azienda smette di essere un oggetto esclusivo, da una parte, di informatici, consulenti IT e fornitori di software e, dall’altra, di DPO, consulenti legali ed esperti di risorse umane. Diventa un banco di prova della cultura della prevenzione e del modello di relazione con i lavoratori. Le stesse tecnologie possono essere usate per alleggerire carichi, prevenire errori, distribuire meglio il lavoro, oppure per intensificare i controlli, ridurre l’autonomia, trasformare la giornata lavorativa in una sequenza ininterrotta di micro-valutazioni numeriche.

La differenza non la fa l’algoritmo in sé, ma il modo in cui viene pensato, introdotto e governato. Quando MC e SPP sono coinvolti fin dalle fasi di progettazione e scelta dei sistemi, la domanda non è solo “che cosa sa fare questo software?”, ma “in che ambiti dovremmo adottarlo”, “con che grado di autonomia e integrazione con il lavoro umano” e infine, “quali effetti produrrà sulle persone che lo useranno o che ne saranno valutate?”. In questo modo, il requisito di “sorveglianza umana” imposto dall’AI Act si connette con le pratiche consolidate della sicurezza: viene affidato a figure che hanno già il mandato di vigilare sulla salute e sulle condizioni di lavoro, e che possono contribuire a definire limiti, condizioni d’uso, meccanismi di segnalazione e stop.

Se l’IA viene inquadrata entro questo perimetro, può diventare anche un alleato del benessere organizzativo. Può contribuire a individuare situazioni di sovraccarico, a ridurre mansioni ripetitive e usuranti, a segnalare in anticipo situazioni a rischio, a rendere più prevedibili e gestibili i ritmi di lavoro. Ma perché ciò accada, è necessario che la logica dell’efficienza non schiacci quella della tutela, e che le scelte tecnologiche siano discusse con chi ha competenze in salute, sicurezza e organizzazione del lavoro.

Conclusione: IA e salute e sicurezza sul lavoro come test di maturità organizzativa

L’arrivo dell’Intelligenza Artificiale in azienda è, in ultima analisi, un test di maturità organizzativa. Da una parte c’è un modello in cui l’IA è vista solo come un acceleratore di efficienza, una risposta alla pressione competitiva, un’occasione per “ottimizzare” tempi e risorse. In questo modello, le norme su salute e sicurezza vengono talvolta vissute come un ostacolo o un adempimento da gestire al minimo indispensabile.

Dall’altra parte c’è un modello diverso, che riconosce che ogni algoritmo che interviene nella gestione del lavoro modifica rapporti di potere, modalità di comunicazione, carichi mentali, percezioni di giustizia e dignità (Coiera et al. 2016). In questo secondo modello, il Testo Unico, l’AI Act e la Legge 132/2025 non sono solo vincoli, ma strumenti per costruire una governance dell’IA centrata sulle persone: un contesto in cui il Medico Competente e il Servizio di Prevenzione e Protezione non vengono coinvolti a posteriori per “mettere a posto le carte”, ma entrano subito nel merito delle scelte tecnologiche, insieme ai rappresentanti dei lavoratori.

Vista così, la sicurezza sul lavoro diventa la lente più adatta per interrogare l’innovazione: non un freno alla modernizzazione, ma la condizione per renderla sostenibile nel tempo, rispettosa della salute e della dignità, capace di generare fiducia anziché timore. Un’IA che non ammala, non opacizza le regole del gioco e non trasforma il lavoratore in un semplice “oggetto di monitoraggio” è, oltre che un obbligo di legge, un investimento strategico sulle persone che fanno funzionare l’azienda ogni giorno. È in questo equilibrio tra tecnologia e tutela, tra algoritmo e corpo, tra efficienza e dignità, che si gioca la vera governance dell’Intelligenza Artificiale sul lavoro.

Riferimenti

Cabitza, F. (2021, 17 dicembre). Deskilling, o del lato oscuro delle tecnologie cognitive in medicina. Monitor. Elementi di analisi e osservazione del sistema salute, 46, 52. https://www.agenas.gov.it/images/monitor/2021/46/art_agenas_15.pdf

Cabitza, F. (2025a, 1 giugno), Umani e macchine – Così l’AI Act definisce il futuro di lavoro e società. MIT Sloan Management Review Italia. https://www.este.it/wp-content/uploads/2025/07/MIT_3_2025_Sommario.pdf

Cabitza, F. (2025b, 5 novembre). AI e sicurezza sul lavoro: il nuovo mandato del Servizio di Prevenzione e Protezione. Agenda Digitale. https://www.agendadigitale.eu/industry-4-0/ai-e-sicurezza-sul-lavoro-il-nuovo-mandato-del-servizio-di-prevenzione-e-protezione/

Cabitza, F., Alderighi, C., Rasoini, R., & Gensini, G. F. (2017). Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Progressi in Medicina, 108(10), 397-401. https://www.recentiprogressi.it/archivio/2802/articoli/28353/

Cabitza, F., Campagner, A., Angius, R., Natali, C., & Reverberi, C. (2023, Aprile). AI shall have no dominion: on how to measure technology dominance in AI-supported human decision-making. In Proceedings of the 2023 CHI conference on human factors in computing systems (pp. 1-20).

Cabitza, F., & Stefanelli, S. (2024, 21 marzo). Sorveglianza umana dell’AI: Cos’è e perché è centrale nell’AI Act. Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/sorveglianza-umana-dellai-cose-e-perche-e-centrale-nellai-act/ . (Agenda Digitale)

Coiera, E., Ash, J., & Berg, M. (2016). The unintended consequences of health information technology revisited. Yearbook of medical informatics, 25(01), 163-169.

Compeau, D. R., & Higgins, C. A. (1995). Computer self-efficacy: Development of a measure and initial test. MIS Quarterly, 19(2), 189–211.

D’Aloia, A. (2022). Intelligenza artificiale, società algoritmica, dimensione giuridica. Lavori in corso. Quaderni costituzionali, 42(3), 651-683.

Esposito, E. (2022). Comunicazione artificiale: Come gli algoritmi producono intelligenza sociale. EGEA spa.

Jian, J. Y., Bisantz, A. M., & Drury, C. G. (2000). Foundations for an empirically determined scale of trust in automated systems. International journal of cognitive ergonomics, 4(1), 53-71.

McGrath, M. J., Lack, O., Tisch, J., & Duenser, A. (2025). Measuring trust in artificial intelligence: validation of an established scale and its short form. Frontiers in Artificial Intelligence, 8, 1582880.

Natali, C., Marconi, L., Dias Duran, L. D., & Cabitza, F. (2025). AI-induced deskilling in medicine: a mixed-method review and research agenda for healthcare and beyond. Artificial Intelligence Review, 58(11), 1-40.

Rossi, M. F., Beccia, F., Iantorno, F., Melcore, G., Gualano, M. R., & Moscato, U. (2023). Italian Technostress Creators Scale: validation of an assessment tool. Journal of Occupational and Environmental Medicine, 10-1097.

Vashitz, G., Pliskin, J. S., Parmet, Y., Kosashvili, Y., Ifergane, G., Wientroub, S., & Davidovitch, N. (2012). Do first opinions affect second opinions?. Journal of general internal medicine, 27(10), 1265-1271.

Wang, Y. Y., & Chuang, Y. W. (2024). Artificial intelligence self-efficacy: Scale development and validation. Education and Information Technologies, 29(4), 4785-4808.


[1] Ulteriori dettagli possono essere trovati in (Cabitza et al. 2023) e nel tool online sviluppato all’interno del progetto nazionale PRIN PNRR 2022 InXAID (Interaction with eXplainable Artificial Intelligence in medical Decision making), disponibile all’indirizzo: https://haiiassessment-metimeter.eu.pythonanywhere.com/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x