Sempre più aziende affidano ai sistemi automatizzati il controllo di macchinari industriali, veicoli autonomi e infrastrutture critiche. Ma quando qualcosa va storto, generando incidenti o infortuni, chi finisce sul banco degli imputati?
La domanda non è più puramente teorica. Recentemente, in Italia e non solo, sono saliti all’onore delle cronache diversi incidenti gravi che hanno coinvolto sistemi a base di IA – si pensi, ad esempio, al caso di un operaio rimasto ucciso nel Bresciano perché schiacciato da carrelli automatici che trasportavano bancali. Questi avvenimenti si collocano però all’interno di un panorama legislativo sull’intelligenza artificiale ancora in evoluzione.
Con l’AI Act si è compiuto un passo importante per definire le linee guida con cui normare l’intelligenza artificiale, ma il regolamento europeo lascia ancora aperte diverse “zone grigie” rispetto all’utilizzo dell’AI nella fabbriche. Un altro aspetto ancora irrisolto è quello delle responsabilità giuridiche sui danni causati dall’intelligenza artificiale. Il caso emblematico, che può far intendere meglio il problema, è quello delle auto a guida autonoma: se uno di questi veicoli investe un pedone, chi è responsabile? Il guidatore (che non guida), il produttore del sistema di intelligenza artificiale o la casa automobilistica?
Si tratta di domande legali – ma anche etiche – che allo stato attuale non hanno una risposta chiara. La normativa già in essere può però aiutare a stabilire alcuni punti fermi, utili per orientare l’azione di imprenditori e responsabili della sicurezza anche in questa fase di transizione.
Indice degli argomenti
Incidenti per l’AI: la responsabilità del datore di lavoro
Il Testo Unico sulla Sicurezza (D.lgs 81/08) stabilisce che il datore di lavoro è il principale responsabile per la salute e sicurezza dei lavoratori, a meno che non possa dimostrare di aver adottato tutte le misure di prevenzione necessarie ad evitare incidenti.
Tale principio legislativo resta valido anche quando si tratta di macchinari che utilizzano l’intelligenza artificiale. Oltre ai controlli standard sui macchinari, in questo caso specifico il datore di lavoro potrà adempiere agli obblighi normativi assicurandosi che le procedure gestite dall’AI siano sicure – ad esempio, considerando il passaggio di validazione umana come fondamentale e bloccante. Sarà inoltre importante includere nell’analisi dei rischi anche i pericoli specifici legati all’intelligenza artificiale e prevedere un’adeguata formazione per i lavoratori.
In linea di massima, insomma, vigono le stesse indicazioni di prevenzione e controllo del rischio che si mettono in atto per qualsiasi altro macchinario industriale.
Responsabilità del lavoratore: il comportamento abnorme
In linea con l’orientamento giurisprudenziale in materia di sicurezza sul lavoro, al lavoratore vengono attribuite responsabilità solo in casi estremi, quando adotta quello che i tribunali definiscono “comportamento abnorme”: ignorare volutamente le procedure, rimuovere protezioni di sicurezza, usare macchinari per scopi diversi da quelli previsti…
Tuttavia, anche quando questi comportamenti hanno luogo, dimostrarli in sede processuale risulta tutt’altro che semplice. Anche per questo motivo, è molto importante che le aziende forniscano una formazione completa e procedure di lavoro chiare, documentando le istruzioni fornite nelle sessioni di formazione (ad esempio registrando video delle sessioni, sottoponendo test di verifica delle competenze e predisponendo verbali dettagliati da far firmare ai partecipanti).
Responsabilità delle software house, tra giganti americani e aziende locali
Se le responsabilità di datori di lavoro e lavoratori restano sostanzialmente in linea con i principi già consolidati nella giurisprudenza della sicurezza sul lavoro, è forse più interessante capire che ruolo giocano nella catena delle responsabilità le software house che sviluppano prodotti a base di intelligenza artificiale.
Le grandi tech company della Silicon Valley tendono a farsi scudo con contratti impenetrabili, contenenti precise clausole di esclusione della responsabilità che rendono quasi impossibile trascinarle in tribunale. Insomma, nella pratica portare a processo queste multinazionali e riuscire a ottenere qualcosa è davvero complicato, benché in Europa le normative sulla sicurezza dei prodotti obblighino il produttore a rispondere in caso di lesioni o danni derivanti dal malfunzionamento del prodotto.
La questione si complica quando entra in gioco una software house italiana (o europea) che sviluppa un’applicazione specifica, ad esempio un chatbot di assistenza per macchinari basato su ChatGPT o Gemini.
Se la software house nostrana si limita a “rivendere” il prodotto americano, essa rimane relativamente al sicuro. Ma se modifica sostanzialmente il sistema di intelligenza artificiale – lo addestra su dati specifici, ne cambia il comportamento, lo integra profondamente nel macchinario – allora secondo la norma europea diventa equiparabile al produttore. Questo significa che essa può essere ritenuta responsabile di difetti ed errori che rendono il prodotto non conforme alle normative sulla sicurezza, oppure nel caso in cui non fornisca un’adeguata documentazione o manchi di informare di alcuni rischi.
Intelligenza artificiale e danni a terzi
Oltre a mettere in pericolo i lavoratori, gli errori dell’intelligenza artificiale potrebbero causare problemi di altro tipo, quali danni economici o ambientali. Pensiamo, ad esempio, alle valvole a base di IA utilizzate nell’industria dell’oil&gas: una svista del sistema potrebbe provocare un vero disastro ambientale!
Anche in questo caso, bisogna ribadire che la regolamentazione dell’intelligenza artificiale è ancora in evoluzione, dunque è possibile che nel prossimo futuro emergeranno indicazioni più specifiche su questi temi. Al momento si applicano comunque i principi giuridici esistenti, in particolare facendo riferimento alle normative sui prodotti difettosi e l’utilizzo improprio.
Se il danno è causato da un errore di progettazione dell’algoritmo entra infatti in gioco la stessa normativa che protegge i consumatori da elettrodomestici pericolosi o automobili con freni guasti, ovvero quella riferita ai prodotti difettosi. Nel caso delle fabbriche, sarà il produttore del macchinario (o del componente o del software) a rispondere. Solitamente le aziende produttrici serie si proteggono stipulando assicurazioni specifiche contro tali eventualità – non a caso, sempre più enti assicurativi hanno iniziato ad offrire polizze che coprono gli errori causati dall’IA. Non è da escludere che un domani tali coperture assicurative diventino obbligatorie, un po’ come succede oggi con le polizze auto.
Se invece è l’impresa utilizzatrice ad usare il macchinario a base di IA in modo inadeguato – ad esempio senza seguire le istruzioni del produttore o senza effettuare una supervisione efficiente – si rientra nella casistica dell’utilizzo improprio. Tale definizione giuridica potrebbe però applicarsi ad una gamma di situazioni anche più vasta. Analizziamo, ad esempio, il caso di un sistema di riconoscimento visivo con un’efficacia dell’80% dichiarata del produttore. Questo significa che il sistema sbaglia 2 volte su 10. Di conseguenza, l’azienda utilizzatrice non può affidarsi al software come se fosse infallibile! Al contrario, dovrà tenere conto della soglia di errore nella valutazione dei rischi e mettere in campo delle misure adeguate per prevenire e mitigare i pericoli che ne derivano.
Bibliografia
“Intelligenza artificiale: i rischi nelle fabbriche. Guida per chi vuole l’IA negli stabilimenti industriali”, dell’autore Claudio Delaini e dei collaboratori Silvia Zuanon, Massimo Marini e Roberto Serra, 2025.











