L’intelligenza artificiale non è più una promessa tecnologica, ma una forza tecnologica che ridefinisce processi, ruoli e rischi in ambito organizzativo. Per i Servizi di Prevenzione e Protezione, questo cambiamento non è distante o secondario rispetto alle loro funzioni: è invece una trasformazione strutturale che richiede loro nuove competenze, nuovi strumenti e un ripensamento profondo delle pratiche di valutazione e gestione del rischio.
Indice degli argomenti
Rischi strutturali dell’intelligenza artificiale nel lavoro
Negli ultimi anni, l’intelligenza artificiale è passata dai laboratori di ricerca alle catene logistiche, dagli uffici HR alle sale operative di aziende e pubbliche amministrazioni. Sistemi di gestione algoritmica, copilot, robot collaborativi, piattaforme predittive e strumenti di monitoraggio delle performance stanno cambiando il modo in cui si lavora, si prendono decisioni e si organizzano e gestiscono i processi. Questa diffusione non è neutra. Se da un lato apre a significativi, e documentati (Noy & Zhang, 2023) aumenti di efficienza, dall’altro introduce forme inedite e più sottili di rischio: non solo per la sicurezza “fisica”, ma anche per la sfera cognitiva, ergonomica e psico-sociale dei lavoratori.
Stress da sorveglianza, discriminazioni algoritmiche, erosione delle competenze (deskilling, Carr, 2014, Natali et al. 2025), intensificazione dei ritmi e opacità decisionale sono solo alcuni esempi di fenomeni che incidono direttamente sulla salute e sulla dignità professionale.
Come evidenziato dalla ricerca di Moore (2019) sull’economia delle piattaforme digitali, l’automazione algoritmica può alterare profondamente le dinamiche di potere nei luoghi di lavoro, generando nuove forme di precarietà e vulnerabilità. Il punto chiave è che questi rischi non sono “emergenti” in senso contingente o temporaneo: sono strutturali e destinati ad accompagnare stabilmente l’adozione dell’IA nei luoghi di lavoro.
Di conseguenza, non possono essere trattati come un’aggiunta marginale ai processi di valutazione del rischio esistenti: vanno integrati pienamente e in modo sistematico. L’Agenzia europea per la sicurezza e la salute sul lavoro (EU-OSHA, 2023) ha sottolineato come l’IA rappresenti un fattore di rischio psicosociale che richiede approcci valutativi specifici, capaci di cogliere dimensioni come l’autonomia decisionale, il carico mentale e la trasparenza dei processi automatizzati.
Tradizionalmente, il Servizio di Prevenzione e Protezione (SPP) si è occupato di rischi fisici, chimici, meccanici ed ergonomici, con procedure consolidate e ruoli ben definiti. L’arrivo dell’IA ne mette in discussione i confini.
La normativa più recente, in particolare l’AI Act (Regolamento UE 2024/1689) e il DDL AI (Legge n. 132/2025), approvato recentemente, cambiano radicalmente il quadro: introducono obblighi permanenti e vincolanti per chi progetta, adotta o utilizza sistemi di intelligenza artificiale. Non si tratta solo di norme per i produttori, ma anche – e soprattutto – per le organizzazioni che impiegano questi sistemi nei processi di lavoro. Il Regolamento Europeo, stabilisce infatti che i deployer, ossia coloro che utilizzano sistemi di IA ad alto rischio sotto la propria autorità, assumono responsabilità specifiche in materia di valutazione dell’impatto sui diritti fondamentali, supervisione umana e gestione dei registri di funzionamento.
Parallelamente, la normativa italiana in materia di salute e sicurezza sul lavoro, e soprattutto il Decreto Legislativo 81/2008, conosciuto anche come “Testo Unico sulla Sicurezza sul Lavoro”, già include, da anni, la tutela della salute mentale e sociale dei lavoratori, oltre a quella fisica, definendo la salute non come mera assenza di malattia, bensì come uno “stato di completo benessere fisico, mentale e sociale” (art. 2 del D.Lgs. 81/2008). Quando l’IA entra nei processi aziendali, queste due dimensioni – tecnologica ed ergonomico-psico-sociale – si intrecciano in modo indissolubile.
Per queste ragioni, il SPP non può restare ai margini della governance aziendale dell’IA. Anzi, il SPP è proprio la funzione aziendale che, per mandato istituzionale (art. 33 del D.Lgs. 81/2008), ha il compito di provvedere all’individuazione dei fattori di rischio, alla valutazione dei rischi e all’individuazione delle misure per la sicurezza e la salubrità degli ambienti di lavoro. Ma per farlo anche di questi tempi, deve evolversi: fino ad oggi, l’applicazione del principio di tutela della salute ai rischi tecnologici si è concentrata prevalentemente su aspetti ergonomici e fisici legati all’uso dei videoterminali, prescrivendo requisiti di adeguatezza e usabilità del software e vietando l’uso di sistemi di controllo quantitativo o qualitativo all’insaputa dei lavoratori. Ma rispetto ai nuovi problemi che pone l’impiego di sistemi IA, questo non basta.
Molte aziende hanno inizialmente trattato l’introduzione dell’IA come un “rischio emergente” da gestire con qualche addendum al Documento di Valutazione dei Rischi (DVR). È un errore di prospettiva. L’IA modifica la natura stessa di rischi consolidati: pensiamo a quello organizzativo, allo stress lavoro-correlato e tecno-correlato (techno-stress, Weil & Rosen, 1997), la cui valutazione è un obbligo esplicito ai sensi dell’art. 28 del D.Lgs. 81/2008, o alla sicurezza delle macchine. Ma la IA introduce anche nuovi intermediari decisionali (gli algoritmi), nuove interfacce cognitive, e nuovi livelli di autonomia e delega operativa, generando forme di rischio non immediatamente visibili ma comunque profonde e persistenti. Ad esempio, la letteratura scientifica sul fenomeno dell’automation bias (che è menzionato anche nell’AI Act), ossia la tendenza a fidarsi eccessivamente dei sistemi automatizzati anche in presenza di errori evidenti (Goddard et al., 2012), dimostra come l’interazione con l’IA possa compromettere il giudizio professionale e la capacità di intervento tempestivo. Non si tratta quindi solo di “aggiungere una sezione sull’IA” al DVR, ma di rivedere i modelli stessi con cui si analizzano e gestiscono i rischi, ampliando le competenze del SPP per includere aspetti di governance tecnologica. A tal riguardo, il quadro metodologico proposto dall’ISO/IEC 23894:2023 sulle linee guida per la gestione dei rischi dei sistemi di IA fornisce un riferimento operativo prezioso per strutturare questo processo in modo sistematico, ma ovviamente non è l’unico da considerare.
Un quadro normativo che cambia il gioco
L’AI Act, approvato nel 2024, non disciplina la tecnologia in astratto: disciplina gli usi concreti dell’intelligenza artificiale sulla base del livello di rischio che comportano. Introduce quindi una classificazione in quattro categorie: pratiche vietate, sistemi ad alto rischio, sistemi a rischio limitato e sistemi a rischio minimo. Per il contesto lavorativo, la categoria più rilevante è quella dei sistemi ad alto rischio. Rientrano in questa categoria, per esempio, i sistemi usati nella selezione e valutazione dei candidati, nella promozione e assegnazione dei compiti, nel monitoraggio delle prestazioni o nell’automazione di processi operativi critici. Per questi sistemi, la normativa europea impone obblighi stringenti a chi li utilizza: dall’adozione di misure di supervisione umana efficaci, alla registrazione sistematica degli eventi, fino alla valutazione d’impatto sui diritti fondamentali.
L’obiettivo è chiaro: garantire che i sistemi non producano danni fisici o psicologici significativi e che restino sempre sotto controllo umano qualificato. Questi obblighi non si collocano “fuori” dal perimetro della sicurezza sul lavoro, ma ne entrano a pieno titolo. Riguardano infatti direttamente i processi organizzativi, i ruoli professionali, la salute mentale e la capacità dei lavoratori di comprendere e intervenire sulle decisioni algoritmiche. Questa trasformazione normativa e tecnologica implica un cambio, o meglio un allargamento, di prospettive anche per il SPP. Questo non può più limitarsi a controllare la conformità ex post, come se si trattasse di un ulteriore adempimento tecnico, ma deve piuttosto diventare un attore strategico della governance dell’IA aziendale, in grado di contribuire alla definizione di criteri di valutazione, procedure di supervisione, protocolli di emergenza e flussi di collaborazione interfunzionali.
Per svolgere questo ruolo, è necessario un salto di competenze: non per “fare gli informatici”, ma per acquisire strumenti concettuali e metodologici che permettano di dialogare efficacemente con i reparti IT, legali, HR e con i Data Protection Officer, integrando le loro prospettive in quella della salute e del benessere dei lavoratori. Il quadro di riferimento ideale per questa integrazione è rappresentato dal ciclo di miglioramento continuo Plan-Do-Check-Act, già alla base della prassi UNI/PdR 87:2020. In altre parole, l’introduzione dell’IA non richiede di inventare tutto da zero: richiede di estendere e adattare modelli consolidati alla nuova realtà tecnologica. Come ben noto, l’AI Act adotta un’impostazione dichiaratamente basata sul concetto di rischio. Non si concentra sulla tecnologia in sé, non stabilisce divieti o autorizzazioni generiche, ma disciplina l’uso dei sistemi di intelligenza artificiale in funzione del rischio potenziale che essi comportano per le persone, per la comunità e la società nel suo complesso.
La logica sottostante è quella di intervenire con intensità regolatoria proporzionata: tanto più un sistema può incidere in modo significativo sui diritti, sulla sicurezza o sul benessere degli individui, tanto più rigorosi devono essere i requisiti di controllo, supervisione e trasparenza. Alcune pratiche, come il social scoring generalizzato o l’uso di tecniche subliminali per condizionare in modo dannoso il comportamento delle persone, sono semplicemente vietate. Non vi è margine di discrezionalità: tali sistemi devono essere esclusi dagli ambienti di lavoro.
La questione si fa più articolata con i sistemi ad alto rischio, che costituiscono il fulcro dell’impianto regolatorio. Qui l’attenzione si concentra su due elementi chiave: da un lato, la capacità del sistema di produrre effetti rilevanti sulla vita delle persone; dall’altro, la possibilità concreta di esercitare su di esso una supervisione e un controllo adeguati.
Questa doppia dimensione implica che la valutazione non può ridursi a un adempimento formale, ma deve comprendere il contesto organizzativo, i processi coinvolti e la capacità effettiva dell’organizzazione di governare la tecnologia. Per il SPP questo approccio ha implicazioni operative significative. Non può limitarsi a ricevere informazioni dall’IT o dai fornitori, ma deve partecipare attivamente alla classificazione del rischio dei sistemi utilizzati, comprendere in profondità il loro impatto sui processi lavorativi e contribuire alla definizione delle misure tecniche e organizzative necessarie per mantenerli entro soglie accettabili di sicurezza. In questo snodo, la collaborazione con il Data Protection Officer diventa centrale. I rischi derivanti dall’uso dell’IA si intrecciano inevitabilmente con quelli relativi alla protezione dei dati personali e ai diritti fondamentali dei lavoratori.
Molti dei sistemi di IA ad alto rischio impiegati nel contesto lavorativo, come quelli per il monitoraggio delle performance o la selezione del personale, si basano sul trattamento sistematico di dati personali. Ciò rende la conformità al GDPR non solo un obbligo parallelo, ma un presupposto della governance stessa dell’IA. Per questo, strumenti come il DVR, strumento cardine previsto dall’art. 28 del D.Lgs. 81/2008 per la gestione di tutti i rischi, la DPIA (valutazione d’impatto sulla Protezione dei Dati, imposta dal GDPR) e, nei casi previsti, la FRIA (Fundamental Rights Impact Assessment o Valutazione d’impatto sui diritti fondamentali, imposta dall’AI Act) non dovrebbero essere considerati tre percorsi amministrativi separati, ma tre dimensioni complementari di un’unica strategia di governance integrata. Solo adottando una prospettiva coordinata è possibile evitare ridondanze, colmare le lacune e costruire un sistema coerente di gestione dei rischi tecnologici. In particolare, la DPIA deve dialogare con il DVR, perché i rischi per i diritti e le libertà degli interessati (i lavoratori) e quelli per la loro salute e sicurezza sono spesso due facce della stessa medaglia. Il documento di orientamento pubblicato dal Comitato europeo per la protezione dei dati (EDPB-EDPS, 2021) fornisce indicazioni operative preziose su come coordinare valutazioni d’impatto su privacy e diritti fondamentali nel contesto dei sistemi algoritmici.
Integrare l’IA nei processi di valutazione dei rischi
Il primo passo concreto per un SPP che voglia governare l’IA è semplice ma decisivo: sapere cosa c’è in casa. Molte organizzazioni utilizzano già chatbot, algoritmi di pianificazione o strumenti di analisi predittiva senza avere un quadro complessivo; per non parlare del fenomeno, sempre più diffuso, della cosiddetta shadow AI: lavoratori che si avvalgono di sistemi di IA generativa e agenti conversazionali per svolgere compiti professionali, spesso attraverso i propri dispositivi personali, senza che i loro responsabili ne siano a conoscenza (Silic et al. 2025). Per questo è essenziale istituire un registro aziendale dei sistemi di IA, condiviso con IT e Acquisti, che riporti per ciascun sistema il fornitore, la finalità, i processi coinvolti, le categorie di lavoratori interessate e la classificazione di rischio. Senza questa mappatura, ogni valutazione successiva rischia di essere frammentaria. Con essa, invece, il SPP può iniziare ad analizzare in modo sistematico i pericoli tecnici, ergonomici, cognitivi e psico-sociali che ogni sistema introduce, integrando la valutazione all’interno del DVR e non relegandola a un documento separato.
La logica è chiara: l’IA non è un “modulo a parte”, ma un fattore trasversale che ridisegna più categorie di rischio contemporaneamente. L’adozione dell’IA porta con sé un ventaglio eterogeneo di rischi e potenziali minacce per il benessere dei lavoratori, molti dei quali non hanno ancora ottenuto la visibilità che meritano. Alcuni hanno una natura immediatamente tecnica: un robot collaborativo che devia dalla traiettoria programmata, un algoritmo di visione che commette un errore di classificazione, una vulnerabilità informatica che apre la strada a manipolazioni esterne di sistemi automatizzati.
Altri rischi, meno visibili ma potenzialmente più pervasivi, si collocano su piani ergonomici, cognitivi e psico-sociali. Il sovraccarico informativo, la progressiva de-qualificazione dovuta all’eccessiva delega all’automazione (Natali et al 2025), la fiducia cieca negli output algoritmici, la sensazione di perdita progressiva di agentività (cioè la sensazione di non più essere utili o contare come prima, Finze et al. 2024), lo stress legato alla sorveglianza costante o le discriminazioni non intenzionali generate da modelli opachi, solo per citare alcuni dei rischi osservati recentemente in ambito lavorativo (OECD, 2024, Vázquez et al. 2024), sono fenomeni che richiedono una capacità di analisi diversa da quella impiegata per i rischi fisici o meccanici. Un elemento cruciale, spesso sottovalutato, tra i rischi psico-sociali è rappresentato dal technostress (o techno-stress), definito come “qualsiasi effetto negativo su atteggiamenti, pensieri, comportamenti o aspetti fisiologici causato, direttamente o indirettamente, dall’uso della tecnologia” (Weil & Rosen, 1997).
L’adozione di sistemi di intelligenza artificiale nei contesti lavorativi può accentuare diverse forme di technostress, come la paura di essere sostituiti (replacement anxiety, Salimi et al. 2025), l’ansia legata alla mancanza di comprensione dei meccanismi decisionali delle “black box” algoritmiche (cioè sistemi di cui non è possibile comprendere il funzionamento interno o le ragioni relative al loro output), o la preoccupazione per i rischi connessi alla privacy e alla sorveglianza.
Studi recenti hanno evidenziato come questi fattori incidano in modo significativo sul benessere e sulle attitudini dei lavoratori, influenzando vari esiti organizzativi. Sharif et al. (2025) mostrano, ad esempio, che job insecurity e technostress mediano gli effetti dell’adozione dell’IA sugli esiti lavorativi nel settore dell’ospitalità, mentre Xia (2023) sottolinea la natura ambivalente della collaborazione tra esseri umani e IA, che può tanto favorire l’efficienza quanto generare nuove forme di stress tecnologico. Per il SPP, questi elementi rappresentano variabili da includere nella valutazione dei rischi psico-sociali, adottando strumenti di rilevazione adeguati e strategie preventive mirate. Per affrontare questa complessità, la valutazione dei rischi deve estendersi a dimensioni che permettano di tradurre aspetti qualitativi in elementi strutturati.
Matrici di rischio adattate possono, ad esempio, descrivere la probabilità non solo in termini di guasti tecnici, ma anche di frequenza e prevedibilità di determinati comportamenti organizzativi; allo stesso modo, la gravità può considerare effetti psicologici e sociali, accanto a quelli fisici. L’obiettivo è costruire un quadro valutativo capace di rendere visibili anche quei rischi meno tangibili ma altrettanto significativi. Un errore frequente è trattare i rischi legati all’IA in un documento separato, scollegato dal DVR principale. Questa frammentazione non solo è inefficiente, ma rischia di violare l’obbligo del Datore di Lavoro, sancito dall’art. 17 del D.Lgs. 81/2008 come non delegabile, di valutare tutti i rischi per la sicurezza e la salute dei lavoratori. Una soluzione più efficace, e normativamente coerente, è incorporare una sezione trasversale dedicata all’IA direttamente all’interno del DVR, in cui si documentino per ciascun sistema i pericoli identificati, la stima del rischio e le misure di prevenzione e protezione adottate. In questo modo, la gestione dei rischi tecnologici diventa parte organica del sistema complessivo di sicurezza, evitando che l’IA venga trattata come un’appendice estemporanea o un argomento specialistico riservato agli addetti ai lavori.
Supervisione e protocolli operativi: trasformare i principi in pratiche
Tra le innovazioni più significative introdotte dalla normativa europea figura l’obbligo di garantire una supervisione umana effettiva sui sistemi di IA ad alto rischio (human oversight): il requisito di quella che la traduzione italiana del regolamento chiama sorveglianza, con una scelta terminologica che abbiamo già commentato in un altro contributo per Agenda Digitale (Cabitza & Stefanelli, 2024). La “sorveglianza umana” della IA non è una dichiarazione di principio, ma un requisito operativo che deve essere tradotto in procedure chiare e proporzionate alla criticità del sistema. La supervisione può assumere forme diverse a seconda del contesto: in alcuni casi è necessario che l’essere umano partecipi direttamente al processo decisionale, validando ogni output del sistema prima che venga eseguito. In altri, l’intervento umano può consistere in un controllo costante ma non intrusivo, con la possibilità di intervenire quando necessario, senza dover approvare ogni singola decisione. Vi sono infine situazioni in cui la supervisione ha un carattere strategico: l’essere umano definisce i limiti operativi e mantiene la facoltà di interrompere o riconfigurare il sistema. Qualunque sia la configurazione adottata, è indispensabile che l’organizzazione formalizzi protocolli di supervisione, e ancora meglio, quelli che abbiamo altrove chiamato “protocolli di interazione con la IA” (Cabitza et al., 2023), individuando con chiarezza i ruoli responsabili, definendo procedure di override (cioè di intervento manuale in grado di modificare o annullare l’output del sistema) rapide e sicure, e aggiornando i piani di emergenza tenendo conto della presenza di agenti autonomi come robot mobili o sistemi automatizzati distribuiti. Solo così la “sorveglianza umana” smette di essere un’etichetta normativa per diventare una misura concreta di prevenzione. Le linee guida della High-Level Expert Group on AI della Commissione Europea (2019) forniscono un quadro di riferimento articolato sulle diverse modalità di supervisione umana e sui requisiti tecnici e organizzativi necessari per garantirne l’efficacia.
Monitoraggio continuo e cultura della segnalazione
La valutazione iniziale non basta. I sistemi di IA si aggiornano, apprendono e mutano nel tempo, modificando potenzialmente i propri comportamenti: è una delle loro caratteristiche prencipali. Per questo motivo è necessario istituire un sistema di monitoraggio continuo che includa verifiche periodiche sulle prestazioni, sulla correttezza degli output e sull’effettiva applicazione delle procedure di supervisione umana. Non si tratta di replicare audit tradizionali, ma di introdurre una vigilanza capace di intercettare deviazioni sottili ma significative nelle prestazioni e nelle risposte fornite dai sistemi IA. In questo quadro, un elemento spesso trascurato è la gestione strutturata delle segnalazioni relative a incidenti e “quasi incidenti” legati all’IA. Decisioni algoritmiche palesemente errate, comportamenti inattesi o percezioni di discriminazione non dovrebbero restare episodi isolati, ma essere trattati come segnali sentinella, analoghi agli infortuni mancati. Ciò richiede un clima organizzativo che incoraggi la segnalazione e che la consideri parte integrante della cultura della sicurezza, proteggendo chi segnala da eventuali ripercussioni. Si pensi, ad esempio, a un manager delle risorse umane che utilizza un sistema di IA per la pre-selezione dei curriculum e si accorge che l’algoritmo tende a scartare sistematicamente profili con percorsi di carriera non lineari o provenienti da istituti formativi meno noti, anche se in possesso delle competenze richieste. La sua segnalazione è fondamentale: permette di avviare una verifica su possibili bias discriminatori nel modello, evitando sia una perdita di talenti sia il rischio di contenziosi. Anche in questo caso, la competenza umana non è in opposizione alla tecnologia, ma agisce come un indispensabile meccanismo di controllo e miglioramento.
Formazione e competenze: un investimento strategico
Nessun sistema, per quanto sofisticato, può essere considerato sicuro se gestito da personale privo delle competenze necessarie. In linea con gli obblighi di informazione, formazione e addestramento previsti dagli artt. 36 e 37 del D.Lgs. 81/2008, la formazione in questo ambito non può ridursi alla trasmissione di nozioni tecniche di base: deve promuovere una comprensione critica del funzionamento dell’IA, dei suoi limiti e delle responsabilità condivise. È utile distinguere tre livelli formativi complementari. Il primo riguarda la diffusione di conoscenze generali su principi, policy e diritti dei lavoratori: tutti dovrebbero comprendere cosa sia l’IA, quali implicazioni abbia per il proprio ruolo e quali tutele normative esistano. Il secondo livello concerne la formazione operativa destinata a chi interagisce direttamente con i sistemi, concentrata su funzionamento, rischi noti e procedure di sicurezza. Il terzo livello è l’addestramento pratico, riservato agli operatori che gestiscono sistemi critici, basato su simulazioni e scenari realistici che permettano di sviluppare competenze procedurali robuste. Questa articolazione serve a evitare che l’interazione con la tecnologia si trasformi in un rapporto passivo e inconsapevole, mantenendo invece viva la competenza umana ed evitando fenomeni di deskilling che, nel medio periodo, riducono la capacità di controllo e resilienza delle organizzazioni. La ricerca di Carr (2014) sull’automazione e le sue conseguenze cognitive ha dimostrato come l’eccessiva dipendenza dai sistemi automatizzati possa erodere progressivamente le competenze professionali, rendendo gli operatori meno capaci di intervenire efficacemente in situazioni critiche.
Governance interfunzionale: uscire dai silos
Il governo dei rischi derivanti dall’IA non può essere una prerogativa esclusiva del SPP, così come non può essere lasciato interamente nelle mani dell’IT o dell’ufficio legale. È necessario costruire una collaborazione strutturata tra funzioni aziendali. Questo processo deve valorizzare e potenziare l’ecosistema di governance della sicurezza già definito dal D.Lgs. 81/2008, che prevede l’interazione tra Datore di Lavoro, Dirigenti, Preposti, Medico Competente e Rappresentante dei Lavoratori per la Sicurezza (RLS). In questo scenario, il ruolo del Medico Competente assume un’importanza strategica. Il suo contributo non si limita più alla sorveglianza sanitaria dei rischi tradizionali, ma si estende al monitoraggio degli impatti sulla salute psico-fisica derivanti dall’interazione con i sistemi di IA. È lui che può intercettare precocemente segnali di stress da sorveglianza algoritmica, di sovraccarico cognitivo dovuto a interfacce complesse o di ansia legata all’opacità decisionale, trasformando la sorveglianza sanitaria in un presidio attivo contro i nuovi rischi emergenti. Il SPP deve assumere un ruolo centrale in questo dialogo allargato, fungendo da ponte tra il sistema di prevenzione tradizionale e le nuove competenze richieste dalla governance dell’IA. In molte organizzazioni si stanno costituendo comitati dedicati alla governance dell’IA, nei quali convergono competenze di sicurezza, protezione dei dati, risorse umane, medicina del lavoro e rappresentanza dei lavoratori. In questi contesti, il contributo del SPP è decisivo per portare una prospettiva di salute e sicurezza fin dalle prime fasi di progettazione e acquisizione dei sistemi, evitando che la prevenzione arrivi a valle, quando i margini di intervento sono più ristretti. Il coinvolgimento attivo dei lavoratori e dei loro rappresentanti non è solo un requisito normativo, ma una leva strategica per identificare rischi che altrimenti resterebbero sommersi. Chi usa quotidianamente i sistemi ha una conoscenza insostituibile delle disfunzioni, delle inefficienze e delle situazioni critiche che difficilmente emergono dalle valutazioni formali.
Per concludere, cosa abbiamo voluto sottolineare in questo contributo? Primo, l’intelligenza artificiale sta ridefinendo i confini del lavoro e, di conseguenza, quelli della sicurezza e del benessere in ambito lavorativo. Secondo, le nuove potenzialità, e i nuovi poteri, della tecnologia digitale non richiedono semplicemente che il SPP aggiunga un capitolo tecnico al DVR; piuttosto, richiede al responsabile del servizio che assuma un mandato nuovo e strategico: diventare un attore centrale della trasformazione tecnologica, capace di garantire che l’innovazione non eroda le competenze, l’autonomia, l’agentività e il benessere del lavoratore, ma bensì li possa preservare e rafforzare. Terzo: per realizzare questo compito occorre che le persone coinvolte attivamente nel SPP, da un lato, amplino le proprie competenze per comprendere e governare le tecnologie emergenti; e, dall’altro, integrino prospettive e responsabilità, costruendo un dialogo costante con le altre funzioni aziendali. La sfida è complessa, ma non inedita: il SPP ha già attraversato trasformazioni importanti nel corso della sua storia. Oggi è chiamato a un’ulteriore evoluzione, che lo porterà a dialogare con tecnologie complesse senza perdere di vista il proprio mandato fondamentale: tutelare la salute, la sicurezza e la dignità delle persone che lavorano. Solo con questa consapevolezza e assunzione di responsabilità, l’IA potrà diventare un alleato per migliorare la sicurezza e la qualità del nostro lavoro, invece di trasformarsi in un nuovo vettore di rischi difficili da percepire, mitigare e governare.
Bibliografia
Cabitza, F., Campagner, A., Ronzio, L., Cameli, M., Mandoli, G. E., Pastore, M. C., Sconfienza, L. M., Folgado, D., Barandas, M., & Gamboa, H. (2023). Rams, hounds and white boxes: Investigating human–AI collaboration protocols in medical diagnosis. Artificial Intelligence in Medicine, 138, 102506. https://doi.org/10.1016/j.artmed.2023.102506. (PubMed)
Cabitza, F., & Stefanelli, S. (2024, 21 marzo). Sorveglianza umana dell’AI: Cos’è e perché è centrale nell’AI Act. Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/sorveglianza-umana-dellai-cose-e-perche-e-centrale-nellai-act/ . (Agenda Digitale)
Carr, N. (2015). La gabbia di vetro. Prigionieri dell’automazione. Raffaello Cortina Editore. (raffaellocortina.it)
EDPB & EDPS. (2021). EDPB–EDPS Joint Opinion 5/2021 on the proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). https://www.edpb.europa.eu/system/files/2021-06/edpb-edps_joint_opinion_ai_regulation_en.pdf . (European Data Protection Board)
EU-OSHA. (2023). Artificial intelligence and workplace safety and health: The future of work or a complex challenge? (Healthy Workplaces Campaign 2023–2025). European Agency for Safety and Health at Work. https://healthy-workplaces.osha.europa.eu/sites/hwc/files/uploads/Editorial-article-Impact-of-AI-on-OSH_EN.pdf . (healthy-workplaces.osha.europa.eu)
Finze, N., Trapp, K., & Haug, M. (2024). Losing control? The role of sense of agency in using highly invasive AI systems. In Proceedings of the International Conference on Information Systems (ICIS 2024) (Paper 13). AIS Electronic Library. https://aisel.aisnet.org/icis2024/aiinbus/aiinbus/13 . (Amazon)
Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: A systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121–127. https://doi.org/10.1136/amiajnl-2011-000089 . (OUP Academic)
High-Level Expert Group on Artificial Intelligence. (2019). Ethics guidelines for trustworthy AI. European Commission. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai . (Digital Strategy)
International Organization for Standardization. (2023). ISO/IEC 23894:2023 Information technology—Artificial intelligence—Guidance on risk management. https://www.iso.org/standard/77304.html . (ISO)
Moore, P. V. (2019). The quantified self in precarity: Work, technology and what counts. Routledge. (SSRN)
Natali, C., Marconi, L., Dias Duran, L. D., & Cabitza, F. (2025). AI-induced deskilling in medicine: A mixed-method review and research agenda for healthcare and beyond. Artificial Intelligence Review, 58, Article 356. https://doi.org/10.1007/s10462-025-11352-1 . (SpringerLink)
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187–192. https://doi.org/10.1126/science.adh2586 . (Science)
OECD. (2024). Using AI in the workplace: Opportunities, risks and policy responses (OECD Artificial Intelligence Papers No. 11). OECD Publishing. https://doi.org/10.1787/73d417f9-en . (OECD)
Salimi, S., Moosavi Dastjerdi, M., & Javaheri, A. (2025). Artificial intelligence anxiety: Psychometric properties and a mediation model. International Journal of Human–Computer Interaction. Advance online publication. https://doi.org/10.1080/10447318.2025.2457183 . (Taylor & Francis Online)
Sharif, M. N., Zhang, L., Asif, M., Alshdaifat, S. M., & Hanaysha, J. R. (2025). Artificial intelligence and employee outcomes: Investigating the role of job insecurity and technostress in the hospitality industry. Acta Psychologica, 253, 104733. https://doi.org/10.1016/j.actpsy.2025.104733 . (PubMed)
Silic, M., Silic, D., & Kind-Trüller, K. (2025). From shadow IT to shadow AI—Threats, risks and opportunities for organizations. Strategic Change. Advance online publication. https://doi.org/10.1002/jsc.2682 . (Wiley Online Library)
UNI (Ente Italiano di Normazione). (2020). UNI/PdR 87:2020—Sistemi di gestione per la salute e sicurezza sul lavoro: Linee di indirizzo per l’integrazione con i modelli di organizzazione e gestione ex D.Lgs. 231/2001. UNI.
Vázquez, I. G., Curtarelli, M., Anyfantis, I., Brun, E., & Starren, A. (2024). Digitalisation and workers wellbeing: The impact of digital technologies on work-related psychosocial risks (JRC Working Papers Series on Labour, Education and Technology No. 2024/03). European Commission, Joint Research Centre. https://publications.jrc.ec.europa.eu/repository/handle/JRC138992 . (JRC Publications Repository)
Weil, M. M., & Rosen, L. D. (1997). Technostress: Coping with technology @work @home @play. Wiley. (Internet Archive)
Xia, M. (2023). Co-working with AI is a double-sword in technostress? An integrative review of human–AI collaboration from a holistic process of technostress. SHS Web of Conferences, 155, 03022. https://doi.org/10.1051/shsconf/202315503022 . (SHS Conferences)












