l’approfondimento

Intelligenza artificiale nei trasporti: chi paga in caso di incidente?



Indirizzo copiato

L’uso crescente dell’intelligenza artificiale nei trasporti mette al centro una domanda cruciale: chi risponde quando un sistema autonomo sbaglia? Dalla guida automatizzata alla gestione intelligente delle infrastrutture, la trasformazione in atto impone di ripensare modelli di responsabilità civile e penale, nesso causale e ruolo della supervisione umana

Pubblicato il 18 dic 2025

Riccardo Gentilucci

Ministero delle Infrastrutture e dei Trasporti – Ufficio di Coordinamento del Dipartimento per le Infrastrutture e le Reti di Trasporto Sapienza Università di Roma – Dipartimento di Ingegneria Civile, Edile e Ambientale



treni

L’introduzione dellIntelligenza Artificiale nei trasporti sta determinando una trasformazione strutturale nei modelli di gestione delle infrastrutture e dei relativi servizi, con applicazioni che spaziano dai veicoli a guida autonoma alla gestione intelligente del traffico, fino alla manutenzione predittiva di mezzi e infrastrutture.

Tali innovazioni promettono benefici significativi in termini di efficienza, sicurezza e sostenibilità [1]. Tuttavia, l’integrazione dell’AI nei sistemi di mobilità solleva una serie di quesiti inediti.

Ad esempio, la questione di chi debba rispondere in caso di incidente causato da un veicolo in modalità autopilot, se il conducente o il produttore del veicolo, è tutt’altro che banale [2]. Analogamente, se un algoritmo predittivo fallisce causando un danno, è necessario determinare il nesso causale e chiarire quale soggetto – se il produttore, l’operatore o il gestore dell’infrastruttura – ne sia legalmente responsabile. Del resto, nel settore dei trasporti, la mancata rilevazione di un deterioramento strutturale o del malfunzionamento del componente di un veicolo, può risultare particolarmente grave, sia per l’entità dei beni coinvolti sia per l’elevato rischio correlato all’integrità fisica degli utenti [3] [4].

Tali questioni evidenziano la necessità di esaminare con rigore i profili di responsabilità giuridica connessi all’uso dell’AI nel settore. Parallelamente, l’evoluzione tecnologica ha spinto le autorità regolatorie a elaborare nuovi strumenti normativi. L’Unione Europea, in particolare, ha adottato un approccio basato sull’analisi del rischio attraverso il Regolamento sull’Intelligenza Artificiale (AI Act) [5], cercando di bilanciare l’innovazione con la tutela della sicurezza, della salute e dei diritti fondamentali dei cittadini europei nonché con la salvaguardia della competitività industriale e tecnologica del settore [6]. Tale approccio, ex ante, tuttavia, incontra il duplice rischio di obsolescenza regolatoria e di classificazioni eccessivamente rigide [7].

Indice degli argomenti

Il ruolo dell’intelligenza artificiale nel nuovo scenario della mobilità

Il presente articolo si propone di approfondire i temi sopra delineati, con particolare riferimento ai profili di responsabilità civile e penale connessi all’impiego dell’AI nel settore dei trasporti, ponendo attenzione specifica agli errori predittivi e ai danni derivanti da malfunzionamenti algoritmici. Saranno pertanto analizzati il principio di precauzione, la prova del nesso causale e le ipotesi di responsabilità omissiva, nonché le forme di responsabilità riconducibili al produttore, all’operatore e all’ente gestore.

In conclusione, saranno esaminate alcune possibili soluzioni normative e interpretative volte a chiarire e delimitare tali profili di responsabilità, nella prospettiva di un equilibrio tra tutela delle vittime e incentivo all’innovazione nel settore dei trasporti intelligenti.

Principio di precauzione e responsabilità giuridica dell’intelligenza artificiale nei trasporti

L’impiego di sistemi di AI solleva una serie di questioni giuridiche, nuove e complesse, tanto in ambito civile quanto in quello penale, anche nel settore dei trasporti [8]. I quadri giuridici tradizionali si fondano sul principio secondo cui, affinché un soggetto possa essere ritenuto responsabile di un determinato atto illecito, è necessario che un suo stato mentale cosciente ne sia stato la causa: ossia che una mens rea abbia generato un corrispondente actus reus [9]. Tuttavia, nel caso di algoritmi complessi e privi di coscienza, i tradizionali schemi di attribuzione della responsabilità possono risultare inadeguati.

Origini del principio di precauzione e sua evoluzione normativa

Nella gestione giuridica del rischio tecnologico assume rilievo il principio di precauzione, affermatosi in origine nel diritto ambientale e sanitario e invocato oggi anche rispetto all’AI. Tale principio, sancito dall’art. 191 del Trattato sul Funzionamento dell’Unione Europea, impone l’adozione di misure preventive in presenza di rischi potenziali per la salute o l’ambiente, anche in assenza di certezza scientifica.

Esso rappresenta un approccio alla gestione del rischio per cui, qualora una determinata politica o azione possa arrecare danno ai cittadini o all’ambiente e qualora non vi sia ancora un consenso scientifico sulla questione, la politica o l’azione in questione non dovrebbe essere perseguita. Tuttavia, essa può essere riesaminata non appena si rendano disponibili nuove evidenze scientifiche. Il principio può essere invocato solo in presenza di un rischio potenziale e non può mai giustificare decisioni arbitrarie [10].

AI Act, disegno di legge italiano e gestione del rischio tecnologico

Il principio di precauzione trova riscontro in recenti iniziative normative. Lo stesso AI Act adotta un approccio basato sul rischio, vietando l’impiego di applicazioni di AI considerate a rischio inaccettabile e subordinando l’utilizzo di sistemi ad alto rischio a stringenti requisiti di sicurezza e controllo umano.

Questa strategia normativa può essere letta come una concreta applicazione del suddetto principio: in presenza di rischi elevati per la vita e i diritti delle persone – come potrebbe essere il caso dei sistemi di guida autonoma non maturi –, l’AI Act prescrive un intervento preventivo forte – fino al divieto – per evitare potenziali conseguenze catastrofiche.

A livello nazionale, il recente disegno di legge italiano in materia di AI, recentemente approvato, richiama espressamente il dovere di prevenzione del danno nell’utilizzo di tali tecnologie. Tuttavia, un’eccessiva regolazione, giustificata dall’incertezza, potrebbe ostacolare l’innovazione e i benefici sociali dell’AI [11].

Misure preventive per l’intelligenza artificiale nei trasporti e manutenzione predittiva

Vi è dunque la necessità di bilanciare precauzione e proporzionalità [12]: le misure preventive dovrebbero essere commisurate al livello di rischio effettivo e aggiornate man mano che l’evidenza scientifica sulla sicurezza dei sistemi evolve. In altri termini, il principio di precauzione va declinato in modo dinamico e flessibile.

Nel contesto trasportistico, l’adozione responsabile dell’AI richiede la predisposizione di misure preventive e trasparenti, coerenti con il principio di precauzione. Tra queste, si annoverano:

  • la costruzione di database interoperabili e, ove compatibile con i profili di sicurezza e tutela dei dati, accessibili in formato aperto, al fine di favorire un addestramento trasparente degli algoritmi;
  • lo sviluppo di sistemi di supervisione legale ed etica, in grado di rilevare e sanzionare comportamenti e configurazioni tecniche non conformi;
  • la promozione di una alfabetizzazione pubblica sull’uso e sul funzionamento delle nuove tecnologie, con particolare attenzione all’interazione uomo–macchina e ai rischi residuali;
  • l’introduzione di specifici requisiti di sicurezza per le applicazioni critiche;
  • la previsione di fasi sperimentali controllate (come le sandbox regolamentari) prima dell’immissione sul mercato;
  • il monitoraggio continuo delle performance algoritmiche mediante metriche idonee a rilevare deviazioni, derive e anomalie negli output.

Un caso emblematico riguarda i sistemi di manutenzione predittiva: l’approccio delineato implica la necessità di minimizzare i falsi negativi – failure non intercettati – anche a costo di tollerare un numero maggiore di falsi positivi – segnalazioni erronee di guasti inesistenti –, in quanto i primi potrebbero compromettere gravemente la sicurezza dell’infrastruttura, degli operatori e dei cittadini.

Tale bilanciamento, se ben impostato, comporta un aumento dei costi operativi, ma consente di evitare incidenti derivanti da errori di predizione, rafforzando la resilienza del sistema nel lungo periodo. In definitiva, il principio di precauzione, il quale rappresenta una garanzia di sicurezza ex ante – quando calibrato su base tecnico-scientifica – non costituisce un ostacolo all’adozione dell’AI, bensì una condizione necessaria per garantirne un utilizzo maturo, affidabile e socialmente accettabile.

Nesso causale, responsibility gap e prova del danno da AI nei trasporti

Poiché i sistemi di AI influenzano sempre di più il processo decisionale in diversi campi, tra cui il settore dei trasporti [13], uno dei nodi più complessi nei contenziosi da incidenti causati da AI è l’individuazione del nesso eziologico tra il funzionamento, o il disfunzionamento, del sistema algoritmico e l’evento lesivo conseguente [14].

Nei casi classici di responsabilità civile o penale, il nesso causale va provato secondo criteri logico-scientifici: occorre dimostrare che, più probabile che non (cd. preponderanza dell’evidenza o prevalenza relativa della probabilità dell’accadimento), la condotta dell’agente – ad esempio la guida negligente – è stata causa dell’evento dannoso – ovvero l’incidente [15].

Complessità tecnica dell’AI e difficoltà probatorie nel nesso eziologico

Con i sistemi di AI, questa ricostruzione causale si complica per vari motivi, legati alle relative peculiarità tecnologiche: la complessità dei sistemi, la parziale autonomia decisionale e l’opacità del processo algoritmico (il cd. effetto black box) [16]. Tali caratteristiche possono rendere arduo o eccessivamente oneroso per i danneggiati identificare i responsabili e provare tutti gli elementi richiesti dalle norme sulla responsabilità.

Del resto, gli algoritmi di apprendimento automatico commettono errori di previsione – o di azione – difficilmente prevedibili ex ante anche dallo sviluppatore, dal produttore o dall’operatore, in quanto il loro comportamento può evolvere rispetto alla programmazione iniziale. Inoltre, l’opacità intrinseca dei modelli di AI più avanzati implica che non è sempre possibile spiegare a posteriori, in termini causali lineari, come l’algoritmo abbia prodotto un certo output.

A differenza di un guasto meccanico, in cui è spesso tracciabile la rottura di un componente, in un algoritmo di deep learning l’errore può derivare da milioni di parametri interni, il cui funzionamento sfugge alla comprensione immediata anche degli stessi programmatori.

La letteratura parla, a tal proposito, di responsibility gap: uno scarto di responsabilità dovuto alla difficoltà di ricondurre l’azione lesiva a una condotta umana colposa identificabile, che può comportare un vuoto di tutela nei confronti di coloro che dall’evento lesivo risultano danneggiati [17].

Ad esempio, se un’auto autonoma causa un incidente mortale perché l’algoritmo di visione non ha rilevato un pedone in condizioni di scarsa luce, per la vittima è complesso provare se la causa risieda in una negligenza progettuale – dunque colpa del produttore –, in un uso improprio o manutenzione carente – colpa dell’operatore – oppure in una sequenza causale talmente sui generis da non collocarsi con certezza sotto alcuna condotta umana specifica.

Dalla proposta di direttiva europea sull’AI al ritorno agli strumenti tradizionali

Consapevole di queste difficoltà probatorie, il legislatore europeo aveva inizialmente proposto delle soluzioni ad hoc nella Direttiva sulla responsabilità da AI (Proposta COM (2022) 496). Tali misure miravano proprio ad alleviare l’onere della prova a carico del danneggiato in modo mirato e proporzionato, attraverso il ricorso alla divulgazione degli elementi di prova e a presunzioni relative.

In base alla proposta, se un sistema di AI ad alto rischio causa un danno e l’attore prova la violazione di un obbligo legale da parte del convenuto – ad esempio il mancato rispetto dei requisiti dell’AI Act da parte del fornitore –, si presume che il danno sia causalmente correlato a tale violazione. Ciò avrebbe semplificato per i danneggiati la prova del nesso causale, colmando l’asimmetria informativa generata dall’autonomia dell’algoritmo.

Accanto a ciò, la proposta di direttiva prevedeva che, su istanza della vittima, il giudice potesse ordinare al produttore o utilizzatore del sistema di AI di esibire evidenze e dati in suo possesso necessari a ricostruire la dinamica dell’incidente. Si tratta di una sorta di discovery tecnologica volta a superare il muro della black box e consentire alla parte lesa di reperire le informazioni chiave sulla causalità.

Va segnalato che questo progetto europeo, per quanto innovativo, ha incontrato resistenze politiche e alla fine non ha visto la luce. Le motivazioni ufficiali del ritiro attengono al timore di un eccesso di regolamentazione che avrebbe potuto frenare la competitività delle imprese europee e l’innovazione tecnologica.

In altre parole, si è temuto che misure come le presunzioni di colpa o di causalità potessero aumentare il contenzioso e i costi a carico dei produttori di AI, disincentivando investimenti nel settore. Questa scelta, dettata da esigenze di flessibilità regolatoria, comporta però che l’ordinamento torni ad affidarsi agli strumenti probatori tradizionali, con tutte le incertezze sopra descritte.

Strumenti del diritto civile italiano e limiti degli attuali modelli di responsabilità

Nel contesto nazionale, in materia di responsabilità civile si distingue tra responsabilità contrattuale ed extracontrattuale. Escludendo la responsabilità da prodotto – seppur potenzialmente applicabile ai sistemi di AI –, le prime leggi rilevanti in materia di responsabilità extracontrattuale potrebbero essere gli articoli 2050 e 2051 c.c., relativi alla responsabilità per l’esercizio di attività pericolose e al danno cagionato da cose in custodia.

Tuttavia, tali articoli parrebbero non essere pienamente adatti alle nuove sfide poste dall’AI: infatti, i sistemi basati su AI non sono intrinsecamente attività pericolose caratterizzate da elevato rischio di danno a terzi. È comunque opportuno precisare che, secondo la giurisprudenza, la nozione di attività pericolosa non è tipizzata e potrebbe, quantomeno in astratto, ricomprendere tecnologie ad alto rischio come la guida autonoma, pur con significative criticità interpretative.

Inoltre, il tradizionale concetto di custodia potrebbe non essere adatto ai sistemi di AI dotati di capacità decisionali autonome. Queste leggi richiedono, tra l’altro, alla parte lesa di provare sia il danno sia il nesso causale con l’attività pericolosa o la cosa in custodia.

Analogamente, la norma generale sulla responsabilità civile ai sensi dell’articolo 2043 c.c. presuppone che la parte lesa dimostri la colpa dell’autore del reato. La responsabilità contrattuale può applicarsi quando esiste un chiaro rapporto tra il fornitore del servizio di AI e l’utente.

Per i prodotti o servizi che utilizzano l’AI, potrebbe essere rilevante l’articolo 1228 c.c. relativo alla responsabilità per fatto degli ausiliari, presupponendo l’esistenza di un rapporto tra terzo – il sistema di AI – e debitore – utente, così come delineato nel medesimo articolo. L’applicazione di tale articolo ai sistemi di AI è però controversa poiché l’AI non possiede la posizione giuridica di ausiliario in senso tecnico.

Nei casi giudiziari che valutano i danni correlati all’AI, sono state talvolta applicate le norme sulla responsabilità del produttore, mentre in altri casi la responsabilità è stata attribuita all’ente che controlla l’uso del sistema [18].

Di conseguenza, la prova del nesso causale in caso di danni da AI resta oggi un onere gravoso per la vittima, che deve elaborare complessi modelli controfattuali per dimostrare il legame tra l’errore algoritmico e l’evento di danno.

Questa situazione alimenta un dibattito dottrinale sull’opportunità di introdurre, a livello nazionale, correttivi ispirati a quelli discussi in sede europea per riequilibrare le posizioni processuali e non lasciare il danneggiato privo di tutela effettiva nell’era dell’AI.

Infine, come già evidenziato in precedenza, l’applicazione della logica classica della responsabilità civile basata sulla colpa o sul difetto all’AI rischia di essere inadeguata: gli algoritmi possono infatti sbagliare senza che vi sia un errore imputabile a progettisti o programmatori, data la loro autonomia operativa.

Ciò potrebbe portare, da un lato, a lasciare vittime di danni senza un risarcimento se non si individua un colpevole in senso tradizionale, e dall’altro a disincentivare l’innovazione se i produttori fossero sempre ritenuti responsabili anche in assenza di negligenza.

Per questo, viene prospettata l’adozione di schemi di responsabilità senza colpa (no-fault) o di fondi di compensazione, che garantiscano un indennizzo alle vittime di danni causati da AI, una volta appurato che non vi siano prove che i produttori e i programmatori abbiano agito in condizioni di negligenza, imprudenza o imperizia e la loro attività sia adeguatamente conforme agli standard normativi e tecnici.

Tali schemi di risarcimento no-fault potrebbero garantire un indennizzo alle vittime di danni causati dall’AI [19]. Questi modelli potrebbero funzionare in modo simile alle assicurazioni obbligatorie: ad esempio, per i veicoli a guida autonoma si potrebbe prevedere un fondo alimentato da produttori e operatori, dal quale attingere per risarcire prontamente eventuali vittime di incidenti causati dall’AI, fatta salva la possibilità di rivalersi sul responsabile qualora emerga una chiara condotta colposa o una violazione di uno standard di sicurezza.

Supervisione umana, human oversight e responsabilità omissiva nei sistemi di AI

Altro tema di crescente rilevanza nel contesto giuridico contemporaneo è quello della responsabilità omissiva nell’impiego di sistemi predittivi. L’automazione di attività tradizionalmente svolte dall’uomo non esonera, infatti, l’essere umano dalla responsabilità in caso di eventi lesivi causati dalla macchina.

Al contrario, l’uso di sistemi intelligenti impone una vigilanza continua sull’operato della tecnologia. Il principio della supervisione umana (human oversight) è centrale nelle linee guida etiche per un’AI affidabile sviluppate dalla Commissione Europea.

Tale principio è anche oggetto di specifica disciplina legislativa all’art. 14 dell’AI Act, che sottolinea la necessità di un controllo umano significativo sui sistemi di AI, specialmente su quelli ad alto rischio.

Meaningful human control e criteri di attribuzione della colpa

In ambito accademico, il concetto di controllo umano significativo (meaningful human control) è stato proposto per affrontare le lacune di responsabilità e, al contempo, mitigarle stabilendo condizioni che consentano una corretta attribuzione della responsabilità agli esseri umani.

Questo implica che, anche in presenza di sistemi autonomi, è essenziale che gli operatori umani mantengano una comprensione adeguata del funzionamento del sistema e siano in grado di intervenire quando necessario [20]. Pertanto, la responsabilità attribuita a un essere umano dovrebbe essere commisurata alla sua capacità e autorità di controllare il sistema.

L’adozione di sistemi predittivi non elimina la necessità di una supervisione umana attiva: l’interazione tra operatori e sistemi autonomi è fondamentale, specialmente nel contesto della manutenzione predittiva. Gli operatori sono chiamati a esplorare, modificare e verificare continuamente i metodi e le regole decisionali implementate in tali sistemi [21].

La crescente capacità della tecnologia di assumere compiti precedentemente svolti dall’uomo non comporta una diminuzione della responsabilità umana in caso di eventi lesivi. Al contrario, introduce nuovi obblighi di vigilanza e controllo, volti a garantire che l’utilizzo della tecnologia sia conforme ai principi etici e giuridici, prevenendo potenziali danni e assicurando una corretta attribuzione della responsabilità.

Modelli causali strutturali e misurazione della colpevolezza nell’interazione uomo–AI

Sebbene non sia sempre possibile intervenire tempestivamente per evitare la concretizzazione di un danno causato dalla macchina, è essenziale che l’essere umano mantenga una supervisione continua sulla tecnologia utilizzata.

Infine, sul punto, data la complessità delle interazioni tra uomo e AI, che rende complesso definire le relative responsabilità in caso di malfunzionamenti ed eventuali danni, la letteratura scientifica propone dei framework volti a misurare la colpevolezza complessiva e attribuire responsabilità attraverso il ragionamento controfattuale, tenendo conto del livello epistemico atteso dagli agenti (cd. modelli causali strutturali), ed in grado di analizzare le relazioni causali tra le variabili dei sistemi decisionali basati sulla collaborazione tra uomo e macchina, nonché fornire un approccio rigoroso per valutare l’impatto delle azioni del singolo agente sugli esiti indesiderati, consentendo una valutazione sistematica della responsabilità [14].

Manutenzione predittiva nel settore ferroviario: errori algoritmici e catena decisionale

Un esempio concreto di applicazione di tali principi può rinvenirsi nei sistemi di manutenzione predittiva impiegati nel settore ferroviario. In tali contesti, l’AI elabora in modo autonomo dati provenienti da sensori per individuare in anticipo anomalie nei componenti meccanici o elettrici dei convogli.

Tuttavia, un errore algoritmico – ad esempio un falso negativo che non rilevi un guasto imminente – può condurre a un evento lesivo, mentre un falso positivo può determinare manutenzioni inutili e costi elevati. In entrambi i casi, la definizione delle responsabilità non può limitarsi all’algoritmo, ma deve considerare l’intera catena decisionale: chi ha progettato il modello predittivo, chi ha definito le soglie di allarme, chi ha validato i dati, chi ha implementato le procedure di monitoraggio, chi ha ignorato o interpretato impropriamente le segnalazioni del sistema.

L’approccio controfattuale, fondato sui modelli causali strutturali, consente di scomporre queste relazioni, attribuendo in modo proporzionato la responsabilità in base al livello epistemico e al margine di controllo effettivo di ciascun agente. Ciò permette di preservare il principio di meaningful human control, garantendo che l’autonomia tecnologica non comporti un vuoto di responsabilità, ma piuttosto un suo ripensamento distribuito e verificabile lungo l’intero ciclo di vita del sistema di AI.

Produttori, operatori, enti gestori: responsabilità giuridica dell’IA nei trasporti

L’ecosistema dell’AI nel settore dei trasporti coinvolge una pluralità di attori: il produttore, ossia colui che sviluppa e commercializza il sistema di AI; l’operatore, che lo impiega nel contesto operativo; e l’ente gestore, titolare della responsabilità complessiva sull’infrastruttura o sul servizio.

Ciascuno di questi soggetti può, in diverse circostanze, essere chiamato a rispondere in sede civile o penale per eventi dannosi legati al funzionamento dell’AI.

Il produttore di un sistema di AI incorporato in un veicolo o in altro dispositivo può essere ritenuto responsabile a titolo di prodotto difettoso qualora il danno derivi da un malfunzionamento imputabile a un difetto di fabbricazione, progettazione o informazione. In tal caso la vittima può agire direttamente nei confronti del produttore senza dover dimostrare la colpa di quest’ultimo, ai sensi della disciplina sulla responsabilità del produttore.

La responsabilità per danni causati da prodotti difettosi è disciplinata dal Codice del Consumo (D.lgs. 206/2005), che recepisce la Direttiva 85/374/CEE relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative in materia di responsabilità per danno da prodotti difettosi, oggi abrogata dalla Direttiva 2024/2853, con effetto a decorrere dal 9 dicembre 2026 – sebbene continui ad applicarsi in relazione ai prodotti immessi sul mercato o messi in servizio prima di tale data.

Nuova direttiva prodotto 2024/2853 e responsabilità del produttore di sistemi AI

In particolare, la Direttiva 2024/2853 amplia la nozione di prodotto difettoso, includendo espressamente componenti digitali, software e sistemi basati su AI, con particolare rilevanza per i casi in cui il difetto emerga dopo l’immissione sul mercato a seguito di aggiornamenti.

Non solo: amplia anche significativamente il novero dei soggetti potenzialmente responsabili, estendendo la qualifica di fabbricante anche all’operatore che effettui una modifica sostanziale del prodotto al di fuori del controllo del fabbricante originario e lo rimetta sul mercato o lo metta in servizio, secondo quanto previsto dalla nuova disciplina.

La nuova disciplina della responsabilità segue un criterio di imputazione razionale: qualora la modifica avvenga senza il controllo del produttore originario, la responsabilità graverà sull’operatore economico artefice della modifica, che assume la qualifica di fabbricante del prodotto così modificato.

Per converso, il produttore originario conserverà la propria responsabilità nelle ipotesi in cui la modifica sostanziale sia da lui direttamente apportata o sia eseguita sotto la sua supervisione, conformemente a quanto previsto dalla Direttiva. Ciò non incide, tuttavia, sul regime generale di responsabilità del produttore originario, che continua a rispondere in qualità di fabbricante per i difetti riconducibili alla progettazione, produzione o informazione del prodotto immesso sul mercato.

Responsabilità oggettiva da prodotto e colpa del produttore in sede civile e penale

La responsabilità del produttore opera in regime oggettivo, ai sensi degli artt. 114 e ss. del D.lgs. 206/2005, e non richiede la prova della colpa ma solo del difetto, del danno e del nesso eziologico, sebbene permangano le principali criticità già evidenziate in precedenza e riconducibili alla particolare natura dei sistemi di AI, in grado di evolversi autonomamente attraverso meccanismi di apprendimento automatico e rendendo, pertanto, difficile identificare a posteriori un difetto originario riconducibile al produttore.

Al di fuori della responsabilità oggettiva da prodotto, il produttore può comunque incorrere in responsabilità aquiliana per colpa qualora si provi che ha agito con negligenza, imprudenza o imperizia nella realizzazione del sistema.

Ad esempio, se un costruttore di auto a guida autonoma omette colpevolmente di implementare un sistema di sensori ridondanti e ciò contribuisce a causare un incidente, potrebbe essere ritenuto civilmente responsabile verso i danneggiati.

In sede penale, il produttore potrebbe rispondere per negligenza o imprudenza – ad esempio per omicidio colposo ai sensi dell’art. 589 del Codice Penale in caso di morte causata dal difetto di un veicolo autonomo –, qualora si dimostri che l’evento lesivo era prevedibile ed evitabile con adeguate cautele progettuali.

La recente dottrina ha esaminato i profili di responsabilità penale del produttore di un’AI difettosa, evidenziando come l’autonomia e l’opacità dei sistemi impongano di ripensare i criteri tradizionali di imputazione soggettiva e di accertamento della colpa in situazioni di incertezza scientifica, nonché la necessità di individuare una nozione penalisticamente orientata di AI [17].

Operatore, utilizzatore e fornitori di dati: obblighi di vigilanza e uso diligente dell’AI

Per operatore, invece, si intende colui che utilizza direttamente il sistema di AI nel contesto concreto: può trattarsi, ad esempio, del tecnico che si avvale di un algoritmo predittivo per pianificare la manutenzione di un sistema infrastrutturale o di un mezzo di trasporto.

L’operatore ha generalmente il dovere di vigilare sul funzionamento del sistema e di intervenire in caso di malfunzionamento, anche prevedibile. La sua responsabilità civile potrà emergere per colpa qualora ometta tale vigilanza o utilizzi l’AI in modo improprio.

In ambito penale, l’operatore può rispondere di reati colposi – lesioni o omicidio colposo – se la sua condotta omissiva o imprudente ha concorso a causare il danno.

Va però considerato che man mano che i sistemi di AI diventano più autonomi – come nel caso di veicoli di livello 5, senza conducente umano –, il ruolo dell’operatore umano si assottiglia fino a scomparire. Di conseguenza, la figura dell’utilizzatore-responsabile va ridefinita in base al livello di intervento umano richiesto dalla tecnologia, in linea con le considerazioni fatte nel paragrafo precedente.

Infine, preme sottolineare come in una ripartizione delle colpe possano inserirsi anche gli eventuali fornitori di dati, qualora l’incidente sia stato causato da un addestramento del modello eseguito con dati non rappresentativi.

Ente gestore, custodia dell’infrastruttura e responsabilità ex art. 2049, 2051 c.c. e D.lgs. 231/2001

Per i servizi di trasporto pubblico o per la gestione delle infrastrutture, spesso vi è un ente pubblico o privato che ha la responsabilità generale del sistema, come una società autostradale, un ente ferroviario o un operatore del trasporto pubblico locale.

Questo ente può essere chiamato in causa sia direttamente, in qualità di custode dell’infrastruttura, ai sensi dell’art. 2051 del Codice Civile, sia indirettamente per i fatti illeciti commessi dai propri dipendenti o ausiliari, potendosi prefigurare una responsabilità civile indiretta ai sensi dell’art. 2049 del medesimo Codice.

Inoltre, se l’ente gestore ha un ruolo nell’autorizzare o nel configurare i sistemi di AI usati sulla propria rete, potrebbe assumere obblighi di diligenza specifici. In linea generale, l’ente gestore ha il dovere di assicurare la sicurezza delle infrastrutture e dei servizi: l’introduzione di sistemi di AI non lo esonera da tale dovere, ma anzi lo obbliga a governare attivamente la tecnologia, verificando che l’algoritmo operi entro margini di affidabilità accettabili e intervenendo qualora emergano anomalie.

In prospettiva penalistica, i vertici dell’ente potrebbero essere chiamati a rispondere per colpa organizzativa se si dimostra che l’incidente sia dipeso da una carenza nelle procedure di controllo o nella formazione del personale rispetto all’utilizzo dell’AI.

Anche la disciplina della responsabilità degli enti collettivi (D.lgs. 231/2001) potrebbe trovare applicazione: se un incidente mortale avvenuto per colpa di un sistema automatizzato integrato nell’attività dell’ente riconducesse a violazioni di norme sulla sicurezza, l’ente potrebbe essere imputato per il reato presupposto di lesioni o omicidio colposo con violazione di norme antinfortunistiche, ai sensi dell’art. 25-septies del D.lgs. 231/2001.

In definitiva, la ripartizione della responsabilità dovrà essere valutata caso per caso, potendo concorrere profili di colpa di diversi soggetti. Un incidente grave causato da AI può dar luogo a un contenzioso complesso con pluralità di convenuti: il produttore per un difetto di progettazione, l’operatore per uso negligente, l’ente per carente supervisione.

L’ordinamento offre strumenti per graduare le colpe e le rispettive quote di risarcimento, come il regresso tra corresponsabili, ma resta fondamentale delineare con chiarezza i doveri di ciascun attore nell’impiego dell’AI. Solo definendo standard di condotta appropriati sarà possibile attribuire le responsabilità in modo equo e incentivare tutti i soggetti a mantenere l’AI nel settore dei trasporti entro livelli accettabili di sicurezza.

Verso nuovi modelli di responsabilità penale per l’intelligenza artificiale nei trasporti

Come anticipato, il tema della responsabilità penale connessa all’utilizzo di sistemi di AI presenta complessità strutturali, in quanto il diritto penale si fonda tradizionalmente sul binomio tra soggettività giuridica e imputabilità personale.

Essendo l’AI priva di personalità giuridica e capacità volitiva, essa non può essere titolare di responsabilità penale diretta né destinataria di sanzioni penali in senso stretto. Pertanto, in caso di reati causati dall’utilizzo di un’AI, occorre identificare una persona fisica o giuridica responsabile.

La difficoltà risiede nell’individuare un profilo di colpa o negligenza rilevante. Del resto, diversi studi comparativi evidenziano come le caratteristiche proprie dell’AI mettano in crisi i concetti tradizionali di colpa.

Responsibility gap penale e crisi dei concetti tradizionali di colpa

In particolare, problemi come l’opacità epistemica, ovvero la difficoltà di comprendere a posteriori il processo decisionale dell’AI, la mancanza di controllo umano diretto, il carattere di rischio generico diffuso e il cosiddetto problema delle molte mani – molteplici attori coinvolti nello sviluppo e nell’implementazione di un sistema AI – rendono difficile applicare i tradizionali requisiti della colpa penale basati su consapevolezza del rischio, prevedibilità ed evitabilità dell’evento [22], generando ciò che in dottrina è stato definito responsibility gap, ovvero uno scarto tra il danno subito e l’identificabilità del soggetto responsabile [23].

Alcuni ordinamenti stanno esplorando soluzioni innovative.

Soluzioni comparative: Francia, Regno Unito e nuove figure soggettive della guida autonoma

In Francia, una riforma ha introdotto disposizioni specifiche per i veicoli autonomi, distinguendo tra responsabilità dell’utente e responsabilità del sistema automatizzato in funzione della modalità operativa del veicolo. Quando il sistema di guida automatica è attivo, l’utente è sollevato da responsabilità, salvo i casi in cui intervenga in modo colposo o imprudente [24].

Anche nel Regno Unito, la Law Commission of England and Wales ha formulato un’articolata proposta normativa volta a chiarire i profili di responsabilità penale connessi all’impiego di veicoli a guida autonoma.

In particolare, le raccomandazioni prevedono che, qualora il veicolo operi in modalità completamente automatica, la responsabilità per eventuali incidenti ricada principalmente sui produttori e sui fornitori della tecnologia, esonerando l’occupante umano da imputazioni, salvo che questi abbia interferito in modo inappropriato con il sistema.

Tale approccio ha condotto all’introduzione di tre nuove figure giuridiche: lo User-in-Charge, ovvero l’utente responsabile incaricato del controllo quando richiesto; l’Authorised Self-Driving Entity, cioè l’ente titolare dell’autorizzazione alla guida autonoma e responsabile legale del veicolo durante la modalità automatica; e infine il No-User-in-Charge Operator, figura prevista per i veicoli che operano senza la presenza di un utente fisico a bordo, incaricata della supervisione remota del sistema [25].

Catene di accountability, modelli organizzativi e responsabilità penale degli enti

Al fine di prevenire lacune indesiderate nella catena delle responsabilità, i decisori pubblici, i produttori e gli utilizzatori di veicoli a guida autonoma dovrebbero garantire che, lungo tutte le fasi del ciclo di vita del sistema – dalla progettazione allo sviluppo, dal controllo alla regolazione fino all’impiego operativo – vi sia sempre almeno un soggetto umano (preferibilmente una catena di soggetti) dotato di potere decisionale, competenza tecnica e consapevolezza etica, chiaramente investito di doveri di vigilanza e di poteri d’intervento.

Tale soggetto dovrebbe essere in grado di comprendere il funzionamento del sistema, valutarne gli effetti e assumersi, ove necessario, una responsabilità etica e giuridica in caso di esiti indesiderati. In quest’ottica, le organizzazioni coinvolte sono chiamate a definire assetti organizzativi e matrici di responsabilità (come la RACI), predisporre adeguati percorsi di formazione, a garantire la diffusione di competenze coerenti con il ruolo svolto, a stabilire processi di tracciabilità e a costruire una chiara catena interna di accountability.

Parimenti, la progettazione delle tecnologie impiegate dovrebbe essere coerente con le capacità cognitive e operative degli utenti, valorizzandone il ruolo attivo e responsabile [26].

Tale approccio riflette un più ampio mutamento paradigmatico: dal tradizionale focus sull’errore umano si passa a una concezione dell’errore come prodotto di disfunzioni sistemiche, organizzative e algoritmiche.

In prospettiva, per colmare le attuali lacune in materia di responsabilità penale, appare opportuno valutare l’introduzione di nuove fattispecie specificamente calibrate sui soggetti preposti alla supervisione e alla garanzia di sicurezza dei sistemi di AI.

In alternativa – o in parallelo – si potrebbe valorizzare il ricorso a modelli di responsabilità penale degli enti collettivi, mediante l’introduzione di modelli organizzativi dedicati (come procedure strutturate di risk management, meccanismi formalizzati di human oversight e sistemi di audit periodici volti a verificare il corretto funzionamento e l’uso appropriato dell’AI), in particolare nei casi in cui l’evento lesivo sia riconducibile a deficit strutturali o a carenze nei processi di gestione dei sistemi di AI.

Modello multilivello di accountability e prospettive per i trasporti intelligenti

In conclusione, la disciplina della responsabilità applicabile ai sistemi di AI nel settore dei trasporti richiede un bilanciamento normativo attentamente calibrato. Da un lato, è imprescindibile garantire un effettivo accesso al risarcimento per le vittime di danni derivanti dall’uso di sistemi automatizzati, assicurando nel contempo che produttori e operatori siano adeguatamente incentivati a investire in soluzioni tecnologicamente sicure, in linea con la funzione preventiva e deterrente attribuita alla responsabilità civile [19].

Dall’altro lato, il quadro giuridico deve mantenere una sufficiente flessibilità, così da non ostacolare l’innovazione tecnologica in presenza di rischi residui non ascrivibili a condotte colpose o negligenti. In tale prospettiva, il principio di precauzione – pur orientato verso la prevenzione di rischi gravi e scientificamente incerti – non dovrebbe degenerare in un approccio aprioristicamente restrittivo, né in una paralisi regolatoria fondata sulla tecnofobia.

Le più recenti elaborazioni dottrinali e legislative convergono sull’opportunità di adottare un modello multilivello di responsabilità fondato sul principio di accountability, inteso come responsabilità proattiva e tracciabile di tutti gli attori coinvolti nello sviluppo e nell’utilizzo dei sistemi di AI [27].

Questo modello integrato prevede una combinazione di strumenti ex ante – quali obblighi di progettazione safe-by-design, standard di sicurezza, certificazioni algoritmiche – con regimi ex post di responsabilità civile e penale, modulati sulle specificità dell’AI.

In tale contesto, l’introduzione di meccanismi di assicurazione obbligatoria o di schemi di compensazione senza colpa (no-fault schemes) potrebbe rappresentare un ulteriore presidio a tutela degli utenti, riducendo al contempo l’incertezza giuridica per gli operatori economici.

Bibliografia

[1] M. Niestadt, A. Debyser, D. Scordamaglia, e M. Pape, «Artificial intelligence in transport», European Parliament Research Service. https://www.europarl.europa.eu/RegData/etudes/BRIE/2019/635609/EPRS_BRI(2019)635609_EN.pdf

[2] B. Botero Arcila, «AI liability in Europe: How does it complement risk regulation and deal with the problem of human oversight?», 1 luglio 2024, Social Science Research Network, Rochester, NY: 4647568. doi: 10.2139/ssrn.4647568.

[3] L. Eboli, C. Forciniti, e G. Mazzulla, «Factors influencing accident severity: an analysis by road accident type», Transportation Research Procedia, vol. 47, pp. 449–456, gen. 2020, doi: 10.1016/j.trpro.2020.03.120.

[4] J. Liu et al., «A new procedure for assessing and predicting the severity of accidents: A case study on freight-train derailments», Journal of Loss Prevention in the Process Industries, vol. 94, p. 105511, apr. 2025, doi: 10.1016/j.jlp.2024.105511.

[5] Artificial Intelligence Act, Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale) 2024/1689, 2024. https://eur-lex.europa.eu/eli/reg/2024/1689/oj

[6] C. Cancela-Outeda, «The EU’s AI act: A framework for collaborative governance», Internet of Things, vol. 27, p. 101291, ott. 2024, doi: 10.1016/j.iot.2024.101291.

[7] N. Rangone e L. Megale, «Risks Without Rights? The EU AI Act’s Approach to AI in Law and Rule-Making», European Journal of Risk Regulation, pp. 1–16, mar. 2025, doi: 10.1017/err.2025.13.

[8] J. Dharm, A. Girme, e U. Gharde, «Artificial intelligence: Challenges in criminal and civil liability», International Journal of Law, vol. 10, fasc. 2, pp. 52–57, mar. 2024.

[9] M. De Caro, «Intenzionalità, causazione mentale e colpevolezza», Filosofia morale, vol. 1, fasc. 1, p. 14, 2022, doi: 10.7413/fmmp0001.

[10] «Principio di precauzione – EUR-Lex», EUR-Lex Access to European Union law. Disponibile su: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=legissum:precautionary_principle

[11] D. B. Resnik e S. L. Andrews, «A precautionary approach to autonomous vehicles», AI Ethics, vol. 4, fasc. 2, pp. 403–418, mag. 2024, doi: 10.1007/s43681-023-00277-6.

[12] P. Zuddas, «Pregiudizi digitali e principio di precauzione», fasc. II, 2020.

[13] V. R. Mulam, «Data-Driven Decision-Making in Transportation Management Using AI», International Journal of Scientific Research in Computer Science, Engineering and Information Technology, vol. 10, fasc. 6, Art. fasc. 6, nov. 2024, doi: 10.32628/CSEIT24106186.

[14] Y. Qi, B. Schölkopf, e Z. Jin, «Causal Responsibility Attribution for Human-AI Collaboration», 5 novembre 2024, arXiv: arXiv:2411.03275. doi: 10.48550/arXiv.2411.03275.

[15] La Nuova Procedura Civile, «Più probabile che non: vale per il solo nesso causale, per il resto c’è attendibilità (piùelevata idoneità rappresentativa e congruità logica)», La Nuova Procedura Civile, vol. 1, 2023.

[16] V. Calderonio, «The Opaque Law of Artificial Intelligence», 23 gennaio 2025, arXiv: arXiv:2310.13192. doi: 10.48550/arXiv.2310.13192.

[17] B. Fragasso, «La responsabilità penale del produttore di sistemi di intelligenza artificiale», presentato all’Intelligenza artificiale, diritto e processo, Napoli: Sistema Penale, 2023.

[18] M. A. Golobardes et al., Artificial intelligence, judicial decision-making and fundamental rights. in Justice, fundamental rights and Artificial intelligence. Scuola Superiore della Magistratura, 2024. https://www.julia-project.eu/resources

[19] E. Marchisio, «In support of “no-fault” civil liability rules for artificial intelligence», SN Social Sciences, vol. 1, fasc. 2, p. 54, 2021, doi: 10.1007/s43545-020-00043-z.

[20] L. C. Siebert et al., «Meaningful human control: actionable properties for AI system development», AI Ethics, vol. 3, fasc. 1, pp. 241–255, feb. 2023, doi: 10.1007/s43681-022-00167-3.

[21] S. Wellsandt et al., «Towards Using Digital Intelligent Assistants to Put Humans in the Loop of Predictive Maintenance Systems», IFAC-PapersOnLine, vol. 54, fasc. 1, pp. 49–54, gen. 2021, doi: 10.1016/j.ifacol.2021.08.005.

[22] A. Giannini e J. Kwik, «Negligence Failures and Negligence Fixes. A Comparative Analysis of Criminal Regulation of AI and Autonomous Vehicles», Criminal Law Forum, vol. 34, fasc. 1, pp. 43–85, gen. 2023, doi: 10.1007/s10609-023-09451-1.

[23] F. Santoni de Sio e J. van den Hoven, «Meaningful Human Control over Autonomous Systems: A Philosophical Account», Front. Robot. AI, vol. 5, feb. 2018, doi: 10.3389/frobt.2018.00015.

[24] French Road Act, art L. 123-1, 2021.

[25] Automated Vehicles Act 2024, 2024. https://www.legislation.gov.uk/ukpga/2024/10/contents

[26] Directorate-General for Research and Innovation (European Commission), Ethics of connected and automated vehicles: recommendations on road safety, privacy, fairness, explainability and responsibility. Publications Office of the European Union, 2020. https://data.europa.eu/doi/10.2777/035239

[27] G. D’Alfonso, «Intelligenza artificiale e responsabilità civile. Prospettive di regolamentazione europea», Revista de Estudios Jurídicos y Criminológicos, fasc. 6, Art. fasc. 6, dic. 2022, doi: 10.25267/REJUCRIM.2022.i6.06.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x