Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Il caso

Fintech: chi è responsabile se l’intelligenza artificiale sbaglia a investire

Il caso K1 ha portato alla luce la prima azione legale mossa per la perdita di investimenti a causa di processi decisionali automatizzati. L’accaduto pone le basi per una riflessione sul soggetto cui imputare il danno se l’intelligenza artificiale sbaglia in ambito finanziario

30 Mag 2019

Alessandro Ferrari

Partner DLA Piper

Giacomo Lusardi

Avvocato DLA Piper


È stata mossa nel 2019 la prima azione legale promossa per la perdita di investimenti derivante dall’impiego di processi decisionali automatizzati tramite algoritmi.[1] La vicenda ha avuto un certo risalto mediatico a livello mondiale e contribuisce a riaccendere il dibattito sul tema della responsabilità connessa all’impiego di sistemi di Intelligenza Artificiale, riassumibile sostanzialmente nel seguente quesito: il chiedersi cioè chi è responsabile dei danni causati dall’AI e da chi deve essere risarcito l’eventuale danno.

L’intelligenza artificiale che sbaglia investimenti: il caso K1

Il sistema di AI oggetto dell’azione legale in questione è denominato K1 e opera attraverso un algoritmo di machine learning alimentato da una molteplicità eterogenea di dati, quali notizie in tempo reale e post sui social media, in grado di individuare correlazioni e schemi ricorrenti tra i dati da cui inferire previsioni sul sentiment degli investitori e sull’andamento delle borse. Sulla base delle correlazioni ottenute, il sistema invia istruzioni ai broker sulle operazioni da compiere, aggiustando in tempo reale la propria strategia di investimento grazie all’apprendimento continuo dell’algoritmo.

Secondo quanto riportato dai media, l’investitore avrebbe agito in giudizio nei confronti del fondo speculativo a cui aveva affidato la gestione di una parte del proprio capitale mediante il sistema K1.

In sintesi, l’investitore avrebbe chiesto un risarcimento del danno pari a 23 milioni di dollari per perdite subìte, lamentando una rappresentazione errata ed iperbolica delle capacità del sistema K1 da parte degli esponenti del fondo. In questo caso, dunque, l’investitore sembra aver invocato ciò che nel nostro ordinamento potrebbe essere, tra le altre fattispecie, assimilabile a un vizio nella formazione della volontà negoziale, quale il dolo[2], consistente in presunti raggiri da parte dell’altro contraente che l’avrebbero spinto a concludere il contratto, oppure in una forma di responsabilità precontrattuale[3], intesa come malafede nella conduzione delle trattative o reticenza nelle informazioni fornite in tale sede, profili a maggior ragione rilevanti nel settore degli investimenti, in cui trasparenza e regole di comportamento di stampo “paternalistico” in capo ai prestatori del servizio sono alla base del rapporto fiduciario che si crea con l’investitore, in virtù della posizione di vulnerabilità che quest’ultimo ricopre.

Intelligenza artificiale forte o debole

Sistemi come K1 costituiscono forme d’intelligenza artificiale “debole”, evoluti algoritmi di machine learning privi, tuttavia, di capacità di autodeterminazione e di comprensione delle informazioni processate, che operano come un mero strumento a supporto dell’uomo. Ciò malgrado la capacità di apprendimento automatico dei sistemi di AI conferisca loro un grado di autonomia crescente, mettendoli in condizione di prendere decisioni che producono effetti sul mondo esterno e insinuando il dubbio che in fin dei conti non siano soltanto meri strumenti.[4]

Non siamo ancora al cospetto di un’intelligenza artificiale “forte” o “generale”, tecnologia che ad oggi sembrerebbe restare puramente teorica, dotata di capacità cognitive in grado di comprendere il mondo nella sua complessità, di imparare dall’esperienza, riflettere e prendere decisioni autonome, in maniera paragonabile all’intelligenza umana. Non siamo ancora giunti, quindi, in uno scenario in cui la soluzione preferibile appare l’attribuzione di soggettività giuridica ai sistemi di AI, con la conseguenza di considerarli imputabili per gli eventuali danni che dovessero provocare nel corso del loro funzionamento[5]. La soluzione del problema della responsabilità dei sistemi di AI va pertanto ricercata negli strumenti che l’ordinamento mette oggi a disposizione, senza poter indugiare in questa sede sul dibattito relativo alla regolazione di AI e robotica e all’adeguatezza o meno delle categorie giuridiche esistenti a disciplinare la materia.

La possibile imputazione al produttore

In estrema sintesi, a seconda del caso specifico e della costruzione teorica seguita, la responsabilità per i danni causati a terzi dal (mal)funzionamento dei sistemi di AI potrebbe essere imputata al produttore[6], al programmatore, ovvero al proprietario o all’utilizzatore del sistema di AI[7] o, ancora, a tutti o soltanto alcuni dei soggetti menzionati, a seconda della distribuzione della responsabilità tra i danneggianti. Le menzionate ipotesi andrebbero lette in chiave di responsabilità oggettiva, che non richiede quindi da parte del danneggiato la prova del dolo o della colpa del danneggiante, bensì soltanto del danno subìto e del nesso causale sussistente tra il danno e l’evento dannoso.

In un simile contesto gioca un ruolo fondamentale la trasparenza dei sistemi di AI, che si articola in tre principali sottocategorie[8]: tracciabilità, intesa come identificabilità dei dataset e dei processi che hanno condotto alla decisione compiuta dall’AI; comunicazione, ossia trasparenza sulla natura umana o di intelligenza artificiale di un sistema, ma soprattutto sui limiti e possibilità di quest’ultima; “spiegabilità“, vale a dire da un lato la capacità di spiegare il processo decisionale dell’AI sul piano tecnico e dall’altro lato di “giustificare” la decisione umana sottesa all’impiego di tale sistema. La “spiegabilità” costituisce anche uno dei pilastri dei processi decisionali basati unicamente sui trattamenti automatizzati di dati personali, vale a dire quei casi in cui vengono prese, senza l’intervento umano, decisioni che producono effetti giuridici o comunque effetti significativi sugli interessati, come – tendenzialmente – avviene nel caso dei sistemi di AI (ad esempio, un algoritmo decide se concedere o meno un mutuo a seguito di sofisticate elaborazioni dei dati personali del richiedente, combinandoli anche con altre informazioni): nella misura in cui la legge consenta di prendere tale tipo di decisioni[9], il titolare del trattamento è tenuto a fornire all’interessato “informazioni significative sulla logica utilizzata” e spiegare “l’importanza e le conseguenze previste di tale trattamento per l’interessato”[10].

Il rispetto del principio di trasparenza nei contratti per investimenti finanziari con AI

Dal punto di vista della responsabilità extracontrattuale sono perciò tracciabilità, comunicazione e spiegabilità le tre direttrici fondamentali che potrebbero consentire ai soggetti coinvolti nella catena di sviluppo, fornitura e utilizzo dei sistemi di AI di individuare l’eventuale prova liberatoria in grado di elidere il nesso causale tra il danno e l’evento, sollevandoli da responsabilità, così come di provare l’eventuale concorso di colpa del danneggiato.[11] Diversamente, sul piano della responsabilità contrattuale il rispetto del principio di trasparenza così articolato può agevolare la dimostrazione di aver fornito tutte le informazioni necessarie all’utilizzatore del sistema di AI per metterlo in condizione di operare una scelta consapevole e ponderata. Infatti, nel caso in cui alla base del rapporto vi sia un contratto, il fornitore del sistema di AI dovrà rendere un’informativa completa all’utilizzatore sui limiti e la capacità del sistema, così come limitare opportunamente le proprie responsabilità nella misura consentita dalla legge.

Il livello di trasparenza e dettaglio delle informazioni da fornire variano naturalmente in base al settore e al tipo di sistema di AI impiegato: la valutazione di un consumatore di affidarsi a un aspirapolvere robotizzato alla cui base sta un algoritmo imperscrutabile sarà ben diversa da quella di un investitore che ha intenzione di destinare i propri capitali a un sistema di AI la cui logica decisionale non è facilmente comprensibile. Come già accennato, nel settore degli investimenti il dovere informativo assume una rilevanza ancor maggiore; pertanto l’imprescindibile “trasparenza algoritmica” dovrà essere associata a un oculato rispetto degli obblighi informativi e di disclosure imposti dalle norme applicabili in materia.[12]

Tuttavia, trasparenza e spiegabilità dei sistemi di AI non sono sempre semplici da ottenere. Da una parte, l’esigenza di trasparenza si scontra con il legittimo interesse dei produttori e programmatori dei sistemi di AI a tutelare i propri diritti di proprietà intellettuale su tali sistemi per mezzo di know-how riservato e segreti commerciali.[13] Dall’altra parte, privilegiare la trasparenza può diminuire la precisione del sistema: ad esempio, un sistema di AI basato sul deep-learning può assicurare un elevato grado di precisione in termini di predizioni svolte, ma il produttore o perfino il programmatore potrebbero avere serie difficoltà a spiegarne la logica di funzionamento.

Una delle principali sfide del prossimo futuro sarà quindi trovare un compromesso tra trasparenza e spiegabilità dei sistemi di AI, tutela della proprietà intellettuale e precisione, a vantaggio di tutti, dai produttori agli utilizzatori finali. In uno dei prossimi contributi tratteremo verticalmente il tema della spiegabilità come elemento costitutivo fondamentale dei sistemi di AI.

Note

  1. https://www.bloomberg.com/news/articles/2019-05-06/who-to-sue-when-a-robot-loses-your-fortune, consultato in data 11 maggio 2019.
  2. art. 1439 c.c.
  3. art. 1337 c.c.
  4. In questo senso la Risoluzione del Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL), disponibile all’indirizzo: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.pdf, consultato in data 12 maggio 2019.
  5. Va comunque tenuto conto della proposta de iure condendo del Parlamento Europeo di cui alla citata Risoluzione del 26 febbraio 2017, p. 17, di istituire una sorta di “personalità elettronica” per i robot che prendono decisioni autonome o che interagiscono in modo indipendente con i terzi, attribuendo loro la responsabilità di risarcire qualsiasi danno che dovessero causare.
  6. In base alla direttiva 85/374/CEE, successivamente modificata dalla direttiva 1999/34/CE, e relative norme nazionali di recepimento, rappresentate in Italia dapprima dal d.p.r. 224/1988, poi confluite nel d. lgs. 206/2005 (Codice del Consumo).
  7. In applicazione, a seconda dell’interpretazione seguita, degli artt. 2048 c.c. (responsabilità dei genitori, dei tutori, dei precettori e dei maestri d’arte), 2049 c.c. (responsabilità dei padroni e dei committenti), 2050 c.c. (responsabilità per l’esercizio di attività pericolose), 2051 (danno cagionato da cosa in custodia), 2052 c.c. (danno cagionato da animali) e 2054 c.c. (circolazione di veicoli).
  8. Ethic Guidelines for Trustworthy AI, by the EC’s independent high-level expert group on artificial intelligence, p. 18, disponibili all’indirizzo https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=58477, consultato in data 12 maggio 2019.
  9. Nei casi previsti dall’art. 22 Reg. UE 2016/679 (GDPR).
  10. Artt. 13, par. 2, lett. f) e 14, par. 2, lett. g), GDPR, e considerando 71.
  11. Art. 1227 c.c.
  12. Tra cui, senza pretesa di esaustività, si ricordano la direttiva 2014/65/UE (MiFID II) e il Regolamento UE 2014/600 (MiFIR) relativi al mercato degli strumenti finanziari, e il d. lgs. 129/2017 che ha, rispettivamente, recepito la menzionata direttiva e adeguato la normativa nazionale alle disposizione del citato regolamento, nonché il Regolamento UE 2014/1286 in materia di prodotti di investimento al dettaglio e assicurativi pre-assemblati.
  13. La cui disciplina è stata di recente novellata dalla Direttiva (UE) 2016/943, recepita in Italia con d. lgs. 63/2018.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4