I problemi pratici e giuridici connessi all’utilizzo dell’intelligenza artificiale (“AI”) possono facilmente far venire in mente la celebre “Prima Legge della Robotica” ideata dallo scrittore di romanzi fantascientifici Isaac Azimov: «Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno».
Chiudendo un occhio sull’imprecisa equivalenza tra robot e AI, tale (fittizia) “Legge” descrive in maniera evocativa l’ipotesi di atto illecito che può generare forme di responsabilità risarcitorie legate all’uso di questa tecnologia ormai piuttosto diffusa.
Responsabilità dell’AI, alcuni casi pratici
Si pensi all’ipotesi che un veicolo a guida autonoma, come i taxi che ormai circolano regolarmente in alcune città americane, causi un incidente stradale, o alla possibilità che un’assistente virtuale basato sul cosiddetto deep learning diffonda informazioni errate, false o addirittura diffamatorie. Ancora, è facile ipotizzare il caso in cui uno strumento per la gestione automatizzata di investimenti finanziari basati sull’AI esegua scelte che si rivelino dannose sul piano economico.
Non è necessario lavorare di fantasia perché si tratta di fattispecie astratte che hanno già generato contenziosi oltremodo concreti.
Per limitarci alle più recenti notizie di stampa, sono di pochi giorni fa i numerosi articoli che riprendono le accuse mosse a una compagnia di taxi a guida autonoma secondo le quali uno dei veicoli della flotta, sprovvisto di conducente, avrebbe bloccato un’ambulanza ritardando le cure che avrebbero forse potuto salvare la vita al paziente che era a bordo.
Sempre di recente, un conduttore radiofonico statunitense ha fatto causa a una celebre società informatica affermando che un AI chatbot, un software che simula ed elabora conversazioni umane utilizzando l’intelligenza artificiale, abbia inventato di sana pianta un suo coinvolgimento in un caso giudiziario in materia di frode e appropriazione indebita, rispondendo alle domande di un utente terzo su un caso realmente esistente nel quale, però, il soggetto in questione non era affatto coinvolto.
Per limitarci a un esempio nel settore finanziario, ha avuto una certa risonanza il caso di un gestore di investimenti tedesco che aveva assunto la gestione del conto di un cliente con sede nel Regno Unito impegnandosi a gestirlo tramite un “super computer” chiamato K1, in grado di applicare il machine learning alle notizie che poteva reperire in tempo reale e di compiere autonome scelte di investimento su tale base.
Quando diverse scelte dell’algoritmo in questione si sono rivelate errate e il patrimonio gestito ha subito rilevanti perdite finanziarie nel giro di poco tempo ne è sorta una lite giudiziaria davanti alle corti inglesi, nell’ambito della quale, tra l’altro, il cliente ha domandato un risarcimento di circa 22 milioni di dollari.
La lite si è risolta con una transazione e non sappiamo che approccio avrebbe adottato la Corte. È possibile ipotizzare, però, che se la controversia fosse proseguita i giudici avrebbero potuto valutare se l’utilizzo di un sistema di AI, concordato tra le parti, sarebbe stato di per sé in grado di interrompere il nesso causale tra atto illecito o inadempimento contrattuale, da un lato, e danno, dall’altro.
La disciplina applicabile
I casi descritti sopra forniscono alcuni spunti per inquadrare le principali questioni giuridiche alla luce delle norme di diritto italiano.
Come ogni sistema di civil law, l’ordinamento del nostro paese è costituito da norme generali che trovano applicazione in ogni fattispecie ad esse astrattamente sussumibile. L’introduzione di una nuova tecnologia, dunque, di per sé non rende per forza necessario l’adozione di nuove norme o principi giuridici. È certamente vero, tuttavia, che l’avanzare della frontiera tecnologica pone spesso problemi interpretativi e pratici non da poco.
Una prima distinzione per affrontare la questione deve essere fatta tra le ipotesi di responsabilità contrattuale e quelle di responsabilità aquiliana, o extracontrattuale.
L’applicazione della disciplina contrattuale
Nel caso in cui tra le parti esista un contratto, la norma principale da considerare rimane l’art. 1218 c.c. anche nel caso in cui sia coinvolto l’utilizzo di sistemi di intelligenza artificiale. In forza di tale norma, chi non esegue esattamente le prestazioni alle quali si è obbligato è tenuto a risarcire il danno causato alla controparte, a meno che non riesca a provare che esso sia stato causato dall’impossibilità della prestazione non causata da colpa o dolo.
Da un punto di vista astratto, l’applicazione della disciplina contrattuale ai rapporti negoziali che coinvolgano l’utilizzo di strumenti di AI pone forse meno problemi rispetto alle ipotesi di responsabilità extracontrattuale.
Vi sono pochi dubbi sul fatto che, in Italia, un caso come quello descritto sopra relativo all’utilizzo del machine learning nel settore finanziario ricadrebbe nell’ambito di applicazione dell’art. 1218 c.c.
Trattandosi di servizi finanziari, poi, troverebbe con ogni probabilità applicazione la disciplina in materia dettata dalla normativa dell’Unione Europea, in particolare dalla c.d. Direttiva MiFID 2, e dalle relative norme di recepimento nel diritto interno, con particolare riferimento all’individuazione degli obblighi informativi e di diligenza posti a carico degli operatori del settore.
La responsabilità extracontrattuale
In materia extracontrattuale la questione si complica al punto che è meno agevole individuare con certezza le norme civilistiche applicabili.
La norma generale dalla quale partire per un’analisi della questione è certamente l’art. 2043 c.c., secondo il quale qualunque fatto doloso o colposo che cagioni ad altri un danno ingiusto obbliga colui che ha commesso il fatto a risarcire il danno.
Si è osservato che alcune norme speciali potrebbero essere particolarmente calzanti qualora il danno in questione sia causato tramite l’uso dell’AI. Le ipotesi svolte vanno dall’art. 2048 c.c. sulla responsabilità dei genitori e tutori, che alcuni affermano applicabile ai soggetti responsabili del c.d. training dell’IA, all’art. 2049 c.c. sulla responsabilità dei committenti. Tali norme, tuttavia, risultano di difficile interpretazione estensiva.
In alcune ipotesi potrebbe essere considerato applicabile l’art. 2050 c.c. sulla responsabilità per l’esercizio di attività pericolose che, tuttavia, presuppone appunto che l’uso dell’IA in questione sia intrinsecamente pericoloso, il che non è necessariamente vero nella maggior parte dei casi.
Ha raccolto maggiori consensi l’ipotesi dell’applicabilità dell’art. 2051 c.c. sulla responsabilità da cosa in custodia, che potrebbe in astratto trovare applicazione quando l’AI non sia lo strumento attraverso il quale il danno è causato ma ne sia la fonte stessa.
Oltre a individuare le norme astrattamente applicabili è altresì necessario risolvere alcune questioni pratiche particolarmente rilevanti. Ad esempio, può risultare oltremodo difficile, per il danneggiato, provare il nesso di causalità tra il malfunzionamento dell’AI e il danno patito, a causa dell’estrema complessità di sistemi di machine learning che coinvolgono l’elaborazione di milioni di dati.
Le nuove regole dell’Unione Europea
L’Unione Europea si è prefissa l’obbiettivo di risolvere alcune delle questioni discusse.
È del 28 settembre 2022 una proposta di direttiva del Parlamento europeo relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale.
Il testo proposto adotta un approccio basato su due misure principali:
- l’introduzione di una presunzione relativa di causalità che stabilirebbe un nesso causale tra la violazione di uno specifico dovere di diligenza e l’output fornito dal sistema di IA coinvolto, facilitando l’onere della prova dei soggetti danneggiati;
- l’attribuzione alle corti nazionali il potere di ordinare a chi le possiede l’esibizione dei documenti e delle informazioni relative ai sistemi di IA ad alto rischio sospettati di aver causato il danno, in modo da facilitare la prova del nesso causale e l’individuazione dei soggetti responsabili.
Conclusioni
L’iniziativa del legislatore europeo rappresenta un segnale di attenzione verso un settore, quello dei servizi basati sull’AI, tanto strategico quanto sfidante, pur rischiando di imporre agli operatori dei principi di accountability ai quali potrà risultare particolarmente gravoso fare fronte.
Resterà in ogni caso necessario uno sforzo interpretativo da parte dei professionisti del settore legale, che saranno chiamati ad inquadrare le diverse fattispecie a seconda delle circostanze che si presenteranno sulla base di un approccio necessariamente case-by-case, valorizzando anche i diversi profili di responsabilità dei soggetti coinvolti, a vario titolo, nella programmazione, istruzione, commercializzazione e gestione dei complessi sistemi di AI.