compliance apparente

Documenti di sicurezza generati con AI: perché possono essere pericolosi



Indirizzo copiato

L’intelligenza artificiale accelera la produzione di documenti per la sicurezza sul lavoro, ma non garantisce accuratezza, applicabilità e aggiornamento normativo. Il risultato può essere una compliance solo apparente, con procedure formalmente corrette ma inadatte ai rischi reali e ai contesti operativi concreti

Pubblicato il 19 mar 2026

Claudio Delaini

ingegnere specializzato in sicurezza dei macchinari industriali e certificazione CE

Roberto Serra

Esperto di SEO con approccio data driven



Sicurezza codice AI
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

In questo momento, da qualche parte in Italia, un consulente per la sicurezza sta usando ChatGPT per scrivere una valutazione dei rischi. In un’azienda, un RSPP chiede all’intelligenza artificiale di redigere la procedura per l’uso di un macchinario.
Il testo che ne deriva ha apparentemente tutti gli elementi giusti: paragrafi ben strutturati, termini tecnici, norme citate.

Ma c’è un problema di fondo: l’IA non sa distinguere una procedura applicabile da una impossibile, una norma attuale da una obsoleta, un rischio reale da uno teorico. Sta solo mettendo insieme parole che statisticamente suonano bene.
Insomma, l’intelligenza artificiale sta producendo quello che nel settore tecnologico viene definito slop, letteralmente “sbobba”. Questo termine, che molti autorevoli dizionari in lingua inglese hanno designato come parola dell’anno 2025, indica i contenuti generati automaticamente con l’IA, quelli che a prima vista appaiono professionali e utilizzano il linguaggio tecnico corretto, ma che sul piano sostanziale risultano inaffidabili, generici o apertamente errati.

Quando l’IA entra nella documentazione di sicurezza

L’intelligenza artificiale generativa ha fatto il suo ingresso nel mondo aziendale con una promessa allettante: automatizzare i compiti ripetitivi, liberare tempo per attività a maggior valore aggiunto e ridurre i costi operativi.
Nel settore della sicurezza sul lavoro, dove la produzione documentale assorbe risorse considerevoli, l’attrattiva è stata particolarmente forte. Valutazioni dei rischi, procedure operative standard, piani di emergenza, documenti di interfaccia: tutto può essere “generato” in pochi minuti a partire da prompt opportunamente formulati.

Il divario tra rapidità e qualità

Quello che molte organizzazioni stanno scoprendo è che l’efficienza nella produzione non corrisponde necessariamente alla qualità del prodotto. Molte aziende segnalano infatti che gli strumenti di IA generativa non portano necessariamente a una riduzione del carico del lavoro, ma a una semplice riconfigurazione; in altre parole, il tempo risparmiato nella generazione di documenti viene spesso assorbito dalla necessità di verificare, correggere e integrare output che richiedono supervisione costante.
Nel contesto della sicurezza sul lavoro, questo fenomeno assume connotazioni particolarmente critiche, perché un documento di sicurezza non è un contenuto qualsiasi, ma può fare la differenza tra la vita e la morte.

Perché l’IA e sicurezza sul lavoro possono produrre errori credibili

Per comprendere perché l’intelligenza artificiale produce slop anche in ambiti critici come la sicurezza, occorre guardare alla sua architettura fondamentale. I modelli linguistici di grandi dimensioni (Large Language Models, LLM) che alimentano ChatGPT, Claude, Gemini e i loro numerosi derivati non “capiscono” il contenuto che generano. Sono motori probabilistici addestrati a prevedere quale sequenza di parole è statisticamente più plausibile dato un certo contesto.

Un esempio concreto di affidabilità solo apparente

Un esempio concreto può illustrare meglio il problema. Un consulente o un RSPP carica su ChatGPT la fotografia di una pressa di cui non si conosce l’anno di fabbricazione e chiede: “Secondo te di che anno è questa pressa?”. Il sistema risponde, con la sicurezza che lo contraddistingue: “Secondo me è del 1997”.
Questa risposta, se presa sul serio e non messa in dubbio, ha implicazioni enormi. Sulla base di questa datazione, un consulente può decidere se fare riferimento alle norme tecniche attuali o precedenti, se la Direttiva Macchine è applicabile, che livello di adeguamento serve.

È un mondo completamente diverso di obblighi e responsabilità.
Ma su cosa si basa quella risposta? Su pattern visivi statisticamente plausibili, non su una conoscenza tecnica verificabile.

L’apparenza del rigore e l’indifferenza alla verità

Iris van Rooij, professoressa di Scienze Cognitive e IA presso l’Università Radboud, ha documentato questo problema in un articolo pubblicato nell’agosto 2025, dopo aver scoperto definizioni scientifiche errate generate da IA sulla piattaforma ScienceDirect. Van Rooij ha sintetizzato la questione con precisione chirurgica, affermando che i modelli di IA possono imitare l’apparenza del lavoro accademico, ma sono – per costruzione – indifferenti alla verità: il risultato è un torrente di “informazioni” non verificate, ma che suonano convincenti.

Lo stesso ragionamento si può applicare all’ambito della sicurezza, dove però le ricadute sono ben più preoccupanti.
Quando un RSPP chiede a un’intelligenza artificiale di redigere una procedura per lavori in quota, il sistema non accede a una banca dati certificata di normative e best practice, né alle norme tecniche UNI (che sono coperte da diritto d’autore e accessibili solo a pagamento). L’IA assembla una risposta basandosi su pattern linguistici appresi da milioni di documenti e siti web, alcuni dei quali potrebbero essere obsoleti, altri riferiti a contesti normativi diversi, altri ancora contenenti errori mai corretti nelle fonti originali.
Il problema si aggrava considerando che questi sistemi tendono a presentare le informazioni con un tono autorevole e definitivo, mascherando l’incertezza intrinseca del processo generativo. Un’indagine internazionale condotta dalla BBC e dall’European Broadcasting Union (EBU) e pubblicata nell’ottobre 2025 ha rilevato che il quarantacinque percento delle risposte fornite da sistemi di IA a domande complesse contiene errori fattuali significativi. In un contesto di sicurezza, dove una singola indicazione errata può tradursi in un infortunio grave o mortale, questo tasso di inaffidabilità è semplicemente inaccettabile.

Come nasce la compliance apparente nella sicurezza sul lavoro

Uno degli aspetti più insidiosi dello slop nell’ambito della sicurezza è la sua capacità di mimetizzarsi. Un documento generato da IA può facilmente superare una verifica superficiale: la struttura è corretta, il linguaggio appropriato, i riferimenti normativi presenti. È solo da un’analisi di merito approfondita che emergono le criticità.
Utilizziamo l’esempio delle procedure operative. Un consulente per la sicurezza o un RSPP può chiedere a ChatGPT: “Puoi scrivere la procedura che spiega come si usa una pressa?”. E il sistema la produce, perfettamente formattata e formalmente ineccepibile. Ma si tratta necessariamente di una procedura generica che non tiene conto delle specificità di quella pressa particolare, del contesto di quella fabbrica, delle capacità degli operatori reali, dei rischi particolari di quel luogo di lavoro.

La distanza tra carta e realtà operativa

Se il professionista si limita a stampare e archiviare senza validazione sul campo – senza andare dagli operai e chiedere quali indicazioni sono effettivamente fattibili e realizzabili – sta ampliando la distanza pericolosa tra la carta e la realtà. Dal punto di vista formale la procedura esiste e risponde ai requisiti documentali, ma nei fatti non protegge nessuno.
Questo crea quello che potremmo definire un “rischio di compliance apparente”: l’organizzazione possiede tutta la documentazione richiesta, ma questa documentazione non riflette accuratamente i rischi reali né fornisce indicazioni operative effettivamente utilizzabili. In caso di infortunio, la presenza di documentazione inadeguata può risultare più dannosa dell’assenza totale di documentazione, configurando una consapevolezza del rischio non seguita da misure appropriate.

Dove l’IA e sicurezza sul lavoro amplificano i rischi documentali

Tale fenomeno, naturalmente, si estende a tutti gli ambiti della documentazione di sicurezza: manuali d’uso e manutenzione delle macchine, traduzioni dei manuali in lingue diverse, valutazioni del rischio, DVR e DUVRI. In ognuno di questi casi, la facilità di produzione tramite IA rischia di sostituire la competenza acquisita con l’esperienza sul campo.
Sul lungo termine, poi, bisogna tenere conto di un ulteriore pericolo, legato al fenomeno del “collasso del modello” (model collapse). Man mano che il web si popola di contenuti generati da IA, questi stessi contenuti vengono utilizzati per addestrare le generazioni successive di modelli di intelligenza artificiale. È un processo che degrada progressivamente la qualità dell’informazione – un po’ come una fotocopia di una fotocopia, che perde definizione a ogni passaggio.

Il problema del model collapse

Nel contesto della sicurezza industriale, questo significa che le procedure, le linee guida, i casi studio generati oggi da sistemi di IA – con tutti i loro limiti e imprecisioni – diventeranno il materiale di addestramento per i sistemi di domani. Errori e approssimazioni vengono amplificati, mentre le sfumature e le competenze specifiche che caratterizzano la vera expertise in materia di sicurezza rischiano di essere progressivamente diluite.

Quale uso responsabile dell’IA e sicurezza sul lavoro è possibile

La questione non è se utilizzare o meno l’intelligenza artificiale nella gestione della sicurezza sul lavoro. La tecnologia esiste, continuerà a evolversi e offrirà indubitabilmente opportunità significative. La questione è come utilizzarla, con quale consapevolezza dei suoi limiti e, soprattutto, dei meccanismi di controllo.
L’AI Act europeo e, in Italia, la recente legge 132/2025 (che all’articolo 13 impone ai professionisti di dichiarare ai clienti l’utilizzo dell’IA anche nell’ambito del “lavoro intellettuale”) introducono proprio questa necessità di trasparenza e verificabilità.

Controllo umano, validazione e tracciabilità

Questi requisiti normativi non sono ostacoli burocratici all’innovazione, ma argini necessari contro il rischio di inquinamento algoritmico della sicurezza. Richiedono che l’RSPP, il datore di lavoro, il consulente esterno mantengano il controllo effettivo delle decisioni, utilizzando l’IA come strumento di supporto e non come sostituto della competenza professionale.
In pratica, questo significa implementare protocolli rigorosi di verifica: ogni output generato da IA deve essere validato da personale qualificato che ne verifichi l’accuratezza tecnica, la conformità normativa e l’applicabilità al contesto specifico.
Significa documentare le fonti, tracciare le modifiche, mantenere la possibilità di audit. E significa, soprattutto, resistere alla tentazione della delega totale, quella che trasforma la sicurezza da competenza critica a commodity automatizzabile.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x