Con l’avvento dell’intelligenza artificiale e la crescente diffusione di sistemi automatizzati nei più disparati ambiti sociali ed economici, i legislatori europeo e nazionale si sono trovati a dover colmare un vuoto normativo in materia di responsabilità.
In una prima fase, si è tentato di applicare agli scenari emergenti gli strumenti tradizionali del diritto civile, in particolare le norme del Codice civile sulla responsabilità oggettiva (artt. 2050, 2051 e 2052 c.c.). Tuttavia, tali disposizioni, nate in contesti tecnologici e sociali profondamente differenti, risultano inadeguate a cogliere la complessità e l’autonomia operativa dei sistemi di IA. L’assenza di un soggetto fisico imputabile, la difficoltà nella prova del nesso causale e la natura evolutiva degli algoritmi rendono obsoleti questi strumenti.
Per questo motivo, l’AI Act (Regolamento UE 2024/1689 sull’Intelligenza Artificiale) e il disegno di legge italiano n. 1146/2023 rappresentano due strumenti normativi cruciali per delineare il quadro regolatorio della responsabilità in caso di danni derivanti dall’impiego di sistemi di IA. Inoltre, la Proposta di Direttiva europea sulla responsabilità da intelligenza artificiale (COM(2022) 496), ora ritirata, costituiva un ulteriore pilastro nel delineare un sistema coerente di tutele a livello europeo.
Indice degli argomenti
Il regime di responsabilità nell’AI Act
L’AI Act mira a garantire un utilizzo sicuro e affidabile dell’IA. Pur non disciplinando in modo diretto la responsabilità civile, il Regolamento stabilisce obblighi di conformità che, in caso di violazione, possono rilevare ai fini della responsabilità extracontrattuale e dei principi generali di responsabilità civile degli Stati membri. Gli articoli principali da considerare sono:
- Art. 1: viene introdotto il principio del “risk-based approach” nell’”oggetto” del Regolamento.
- Art. 14: prevede il cosiddetto “stop button“, ossia la possibilità per l’utente umano di interrompere o disattivare il funzionamento del sistema di IA in situazioni critiche.
- Art. 16-27: stabiliscono obblighi per gli operatori (provider, deployer, importer, distributor) dei sistemi di IA ad alto rischio, tra cui valutazioni di conformità, trasparenza, registrazione e sorveglianza.
- Art. 99: stabilisce sanzioni amministrative in caso di violazioni, fino a 35 milioni di euro o il 7% del fatturato annuo.
La responsabilità civile può derivare dalla violazione di tali obblighi, in quanto elementi integranti della diligenza richiesta ex art. 2043 c.c. negli ordinamenti nazionali. Tali principi sono coerenti con l’impianto delineato dalla Proposta di Direttiva sulla responsabilità da IA, che mira ad agevolare la prova del nesso causale in presenza di violazioni di obblighi normativi.
LAI Act e il principio del “tasto stop”: controllo umano e responsabilità civile
L’articolo 14 dell’AI Act introduce un principio fondamentale per la governance umana dei sistemi di IA: la possibilità di intervenire manualmente per interrompere o modificare il funzionamento di un sistema in caso di situazioni impreviste o pericolose. Questo “tasto stop” costituisce una delle principali garanzie per evitare che l’autonomia operativa dell’IA sfugga al controllo umano.
Dal punto di vista della responsabilità civile, il mancato rispetto dell’obbligo di implementare e garantire l’efficacia del “tasto stop” potrebbe costituire un indice rilevante di colpa o addirittura di responsabilità oggettiva, soprattutto se la sua assenza o inefficacia ha contribuito causalmente alla produzione del danno. Tale previsione normativa si integra quindi nei meccanismi di tutela civile delineati sia dalla proposta di Direttiva sulla responsabilità da IA sia dal DDL 1146.
Il Regolamento stabilisce che i sistemi di IA ad alto rischio debbano essere progettati in modo da garantire un controllo umano adeguato, compresa la possibilità di attivare un meccanismo di arresto o disattivazione che consenta all’utente umano di interrompere il funzionamento del sistema in modo sicuro e immediato.
L’evoluzione dell’art.14 dell’AI Act
A tal proposito è rilevante l’evoluzione avuto dall’art. 14 comma 4 lettera e) dell’AI Act:
- il Testo in bozza del 14 giugno 2023 prevedeva che “(e) essere in grado di intervenire sul funzionamento del sistema di intelligenza artificiale ad alto rischio o di interromperne l’operatività mediante un pulsante di arresto (‘stop’) o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza, salvo nei casi in cui l’intervento umano comporti un aumento dei rischi o incida negativamente sulle prestazioni, tenuto conto dello stato dell’arte generalmente riconosciuto.”
- il testo in vigore art. 14 comma 4 prevede che ai fini dell’attuazione dei paragrafi 1, 2 e 3, il sistema di IA ad alto rischio è fornito al deployer in modo tale che le persone fisiche alle quali è affidata la sorveglianza umana abbiano la possibilità, ove opportuno e proporzionato, di: e) intervenire sul funzionamento del sistema di IA ad alto rischio o interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza.
Le differenze principali sono:
- Semplificazione della formulazione: il testo approvato elimina le clausole eccezionali e condizionali previste nella bozza (“salvo nei casi in cui…”).
- Eliminazione dell’esenzione per rischio incrementato o impatto sulle prestazioni: nella versione definitiva non è più previsto che il controllo umano possa essere escluso se aumenta il rischio o peggiora le prestazioni. Ciò rafforza l’imperativo del controllo umano, a prescindere dalle eventuali conseguenze sull’efficienza del sistema.
- Maggiore tutela del principio di sorveglianza umana: il testo finale indica una direzione più precauzionale, in linea con il principio di safety by design, ponendo l’accento su un diritto incondizionato all’intervento manuale.
La proposta di direttiva europea sulla responsabilità IA: strumenti e obiettivi
La proposta di Direttiva sulla responsabilità da IA, pubblicata dalla Commissione Europea il 28 settembre 2022, si proponeva di armonizzare le regole in materia di responsabilità civile nei casi di danni causati da sistemi di IA. La proposta di direttiva si concentrava su tre aspetti fondamentali:
- L’art. 3 che stabiliva un obbligo di collaborazione a carico dei fornitori e utilizzatori di IA, finalizzato all’accesso alle prove;
- L’art. 4 che introduceva una presunzione legale del nesso causale tra il danno e il comportamento dell’IA, qualora sia accertata la violazione di un obbligo giuridico;
La proposta di Direttiva è stata ritirata nel febbraio del 2025.
Tale proposta si inseriva in modo complementare all’AI Act, offrendo uno strumento essenziale per garantire una tutela effettiva ai danneggiati, superando le difficoltà probatorie legate alla complessità e opacità dei sistemi algoritmici.
Il DDL 1146/2023 e responsabilità civile IA: dalla teoria alla pratica italiana
Il disegno di legge n. 1146, presentato al Senato italiano il 20 maggio 2024, introduce una proposta organica in materia di responsabilità da danno causato da sistemi di IA. Esso recepisce i principi della Proposta di Direttiva europea sulla responsabilità civile per l’IA (COM(2022) 496) oggi ritirata.
La versione approvata dal Senato nel marzo 2025 e ora al voto della Camera dei deputati introduce riferimenti puntuali alla responsabilità.
Responsabilità settoriale e supervisione umana
- Sanità (artt. 7–9): l’IA può supportare ma non sostituire il medico. La responsabilità finale spetta sempre al professionista sanitario.
- Giustizia (art.14):
- è confermata la “centralità del giudice”: ogni interpretazione, decisione, valutazione resta in capo al magistrato
- i tribunali mantengono competenza esclusiva sulle controversie in cui è coinvolto l’IA.
- Professioni intellettuali (avvocati, tecnici) (art.12) : è consentito l’uso di IA solo per attività strumentali o di supporto; va comunicato al cliente l’utilizzo e il professionista ne resta responsabile.
- Pubblica amministrazione (art. 13): l’IA può sostenere l’efficienza, ma la responsabilità del procedimento resta umana.
Governance, compliance e sanzioni
- Delega al Governo (art. 22) per:
- definire misure di responsabilità risarcitoria e inibitoria,
- stabilire controlli e documentazione sulla “conformità dell’IA”.
- Cyber‑security (artt. 16, 21): la responsabilità normativa è vincolata alla sicurezza informatica, come condizione di legalità.
Danni e responsabilità civile
- Regime risarcitorio: il testo introduce una disciplina dedicata ai danni causati da IA, sia in ambito professionale (avvocati, medici, tecnici) che nella PA, con ipotesi di colpa e obbligo di compliance etica.
- Minori e protezione dati: la responsabilità genitoriale si estende all’uso responsabile dell’IA da parte dei minori.
Riepilogo dell’evoluzione del concetto di responsabilità nel ddl 1146 al 24 giugno 2025
| Fase | Approccio generale | Responsabilità / Dati personali | Settori sensibili | Danni & sanzioni |
| Presentazione 2024 | Antropocentrismo, coordinamento UE | Implicita (“uso responsabile”) | Nessuno | Non definito |
| Emendamenti | Rafforzamento responsabilità genitoriale | Interesse sui minori | Si estende a sanità, PA, professioni | Inizi normative settoriali |
| Testo Senato | Responsabilità umana non delegabile | Chiara responsabilità genitoriale | Sanità, giustizia, professioni, PA | Nuovo regime risarcitorio + sanzioni specifiche |
Convergenze e divergenze tra AI Act e DDL 1146
Sebbene l’AI Act non disciplini in modo diretto la responsabilità civile, esso costituisce il presupposto normativo per valutare la diligenza degli operatori. Il DDL 1146, invece, disciplina espressamente la responsabilità, includendo strumenti processuali innovativi come la presunzione del nesso causale e l’onere della prova alleggerito per le vittime.
Tali strumenti si pongono in coerenza con l’approccio che perseguiva la Proposta di Direttiva europea sulla responsabilità da IA.
Prospettive future della responsabilità civile nell’intelligenza artificiale
La responsabilità civile nel contesto dell’IA richiede un coordinamento multilivello tra normativa europea e legislazione nazionale. L’AI Act stabilisce un quadro regolatorio di riferimento, mentre il DDL 1146 propone una soluzione più concreta ai problemi probatori e sostanziali legati ai danni causati dall’IA. La Proposta di Direttiva europea sulla responsabilità da IA (COM(2022) 496) avrebbe potuto avere un ruolo centrale se non ritirata.
È fondamentale applicare all’Intelligenza Artificiale le medesime logiche di responsabilità oggettiva e assicurazione obbligatoria previste per i veicoli a motore, così come sancito dall’art. 193 del Codice della Strada (Decreto legislativo 30 aprile 1992, n. 285): “I veicoli a motore … non possono essere posti in circolazione … se non coperti dall’assicurazione … verso terzi” in combinato disposto con la Direttiva 2009/103/CE, recepita tramite il D.Lgs. 184/2023 che ha esteso l’obbligo assicurativo “a prescindere … dal fatto che sia fermo o in movimento”. Inoltre, attribuire all’IA una personalità elettronica – come suggerito dalla Risoluzione 2017/2103(INL) e coerente con la futura disciplina dell’AI Act – consentirebbe di attribuire alla tecnologia una soggettività analoga a quella delle società di capitali, garantendo così sicurezza giuridica e risarcimento ai danneggiati.
Molto è stato fatto dal momento in cui sembrava che l’unica soluzione fosse l’applicazione di categorie che risalgono alla codificazione napoleonica ma ancora molto rimane da normare in un ambito così pervasivo da interessare qualsiasi aspetto della vita umana come quello dell’IA.












