Robot e responsabilità per danni: basi giuridiche | Agenda Digitale

il dibattito

Robot e responsabilità per danni: basi giuridiche

Come si sta sviluppando il dibattito sulla responsabilità per danni a terzi prodotti dai robot. Una panoramica sulle principali questioni legate ai rapporti civili nell’era dell’Intelligenza Artificiale e sul perché l’introduzione di un nuovo status giuridico per i robot necessita di una discussione globale

19 Ott 2018
Alessandro Massolo

Università di Pisa


Esistono al momento i presupposti per introdurre la categoria della ‘personalità elettronica’, e quindi attribuire una responsabilità ‘propria’ ai robot? Vediamo a chi e come va imputata la responsabilità per danni a terzi prodotti dai robot e come si sta sviluppando il dibattito sull’idoneità del quadro giuridico attuale nazionale ed europeo a regolare i rapporti civili nell’era dell’Intelligenza Artificiale.

Danni prodotti da robot: il tema della responsabilità

Siamo agli albori di una quarta rivoluzione industriale: l’era, preannunciata dal genio di Alan Turing. nella quale essere umani e ‘macchine intelligenti’ interagiranno sempre più strettamente. Macchine, afferma la Commissione europea, esse stesse sempre più interconnesse, autonome e ‘capaci di pensare’ (CE; maggio 2018).

I robot riusciranno sempre più a svolgere attività tipicamente umane, ed anche ad imparare dalle esperienze passate, sino ad adottare decisioni in maniera indipendente (EP; 2017). Non si tratta quindi, più soltanto di robot meramente esecutivi, bensì di “computational machines”’(Turing) che grazie a una programmazione predefinita, agiranno in maniera autonoma, cioè senza uno specifico cosciente ‘comando’ umano.

Questa evoluzione tecnologica ha sollevato un acceso dibattito internazionale con particolare riferimento all’individuazione del soggetto al quale ascrivere la responsabilità dei danni causati dai robot, e delle relative conseguenze in termini di incentivi all’innovazione e al benessere sociale.

In particolare, la scelta di ascrivere la responsabilità al produttore piuttosto che al programmatore comporta infatti effetti socio-economici rilevanti: entrambi i soggetti esercitano un ruolo centrale nello sviluppo tecnologico. Il programmatore crea programmi e/o gli algoritmi attraverso i quali le macchine agiscono, mentre i produttori sviluppano in concreto le macchine per la loro produzione e diffusione di massa[1]. Per meglio comprendere la complessità del problema si pensi ad esempio alle cosiddette Intelligenze artificiali (IA) ‘generiche’ (o meglio: multipurpose) utilizzabili per una molteplicità di applicazioni e quindi sfruttabili in diversi contesti e per diversi scopi come un coltellino svizzero. Esse, infatti, sono state sviluppate per indefinite applicazioni e non per specifici scopi (droni o autoveicoli senza pilota). Pertanto, nel caso di danni cagionati dal malfunzionamento di prodotti frutto di tecnologie che integrano forme di IA generiche, sarebbe difficile, per l’utilizzatore, provare che i danni derivano dal fatto che tali tecnologie abbiano operato in maniera inattesa o anormale – anziché per sua negligenza o imprudenza . al fine di ottenere il risarcimento del danno da prodotto difettoso. In questi casi, può essere arduo capire a chi più razionalmente attribuire la responsabilità: se al programmatore o al produttore (o a entrambi, eventualmente) oppure all’utilizzatore stesso. Per ulteriori casistiche esemplificative si veda la Commissione Europea nella sua recente comunicazione su Liability for emerging digital technologies (CE; 2018).

Il ruolo delle assicurazioni

Ovviamente, poi, al fine di cercare di mitigare l’impatto del trasferimento del rischio di responsabilità sui programmatori e sui produttori si è discusso del ruolo delle assicurazioni. Queste ultime, attraverso una buona determinazione delle componenti tecnologiche e delle funzioni svolte dai robot, nonché della valutazione, sulla base dell’esperienza umana, dei rischi che essi comportano e della loro prevedibilità, non solo, ed evidentemente, favorirebbero l’assunzione, da parte del produttore o dei programmatori, della responsabilità dei danni causati dai loro prodotti, bensì anche potrebbero svolgere un ruolo positivo nell’incentivare lo sviluppo e/o l’adozione di tecnologie più avanzate e quindi (tendenzialmente) più sicure.

La responsabilità civile extracontrattuale

La discussione sul regime di diritto positivo idoneo a regolare in modo razionalmente efficiente (leggasi: insieme socialmente equo e non ostativo delle dinamiche dell’innovazione) si concentra ovviamente sull’istituto della responsabilità civile extracontrattuale. In altre parole, sull’istituto che per eccellenza provvede (in sinergia con il ricorso all’assicurazione) alla razionale amministrazione del rischio derivante sia da azioni od omissioni individuali sia da attività industriali: e quanto a queste ultime, in particolare sia rispetto ai rischi evitabili con l’impiego della diligenza esigibile sia a quelli statisticamente inevitabili pur con l’impiego delle tecnologie e delle prassi organizzative più avanzate. Ai primi mediante la imputazione colposa, ai secondi mediante la imputazione oggettiva.

Come ricordato, il tema della responsabilità civile per danni a terzi prodotti dalla attivazione della Intelligenza Artificiale si pone con particolare criticità rispetto al rapporto fra esseri umani e robot ‘autonomi’: quelli che, nella definizione del Parlamento europeo, sono “capaci di adottare delle decisioni e di attuarle indipendentemente dal controllo o da elementi esterni che influiscono su tali decisioni”.

Le responsabilità del produttore

Alla problematica che ci occupa, dunque, sembrano anzitutto applicabili i principi (accolti nel sistema giuridico europeo e nazionale) sulla responsabilità del produttore per danno da prodotto difettoso[2]. Si pensi ad esempio, agli incidenti stradali causati dai c.d. unmanned vehicles (auto senza piloti o droni) difettosi. In questo modo, i soggetti che subiscono danni dai robot possono più facilmente rivalersi sugli altri soggetti della catena di produzione e cioè i produttori. Infatti, questi ultimi sono i soggetti meglio ‘attrezzati’ i per internalizzare il costo del rischio associato ai possibili danni che i robot da loro prodotti possono causare a terzi. Basti pensare al fatto che i produttori, nei limiti in cui il mercato lo consenta, possono redistribuire sul prezzo dei singoli prodotti l’onere del premio assicurativo, evitando così che l’intero peso dell’evento dannoso cada e rimanga sulle spalle del singolo malcapitato utente/consumatore.

Qualora il danno sia causato dalla difettosità contenuta nei software o negli algoritmi che governano il robot, anche se generici, il produttore sarebbe comunque responsabile nei confronti di terzi. E questo, sia nel caso di programmatore dipendente del produttore che di programmatore indipendente che produce e vende software o algoritmi generici su richiesta del produttore. Nel primo caso, il produttore sarà responsabile verso terzi per effetto dell’applicazione della norma sulla responsabilità “dei padroni e dei committenti”, art. 2049 cod. civ. (ovviamente, il produttore potrà poi rivalersi sul proprio dipendente programmatore).

Anche nel secondo caso, il produttore sarà responsabile nei confronti di terzi sempre per effetto dell’applicazione del 2049 codice civile. E ancora il produttore potrà rivalersi sul programmatore indipendente applicando la norma in tema di vizi dell’opera nell’appalto ( art. 1667 cod. civ.).

La responsabilità oggettiva potrebbe anche investire il proprietario che utilizzi il robot a proprio uso e consumo, in tal caso applicandosi la norma (art. 2051 cod. civ.) sulla responsabilità del custode.

È importante sottolineare che la imputazione oggettiva della responsabilità per danno da prodotto difettoso dovrebbe essere vista come una tutela ‘sussidiaria’ rispetto alla imputazione per colpa, ossia per negligenza produttiva (adozione di tecnologie superate, carenza di controlli, cattiva organizzazione aziendale). E così, più precisamente, i danneggiati potrebbero richiedere al giudice, in primo luogo, di accertare la negligenza del produttore, vale a dire la violazione di “regole di condotta” esigibili in base agli standard massimi di settore industriale di appartenenza dell’impresa produttrice. Ciò al fine di ottenere sia il risarcimento sia misure inibitorie dell’adozione di tecnologie inadeguate ovvero della omissione di controlli di qualità/sicurezza: in tal modo garantendo direttamente la funzione preventiva (di futuri eventi dannosi, evitabili con l’adozione di migliori tecniche).

WEBINAR
ERP in cloud: come coniugare performance e sicurezza anche in ambienti complessi
ERP
IoT

Qualora, viceversa, il giudice non fosse in grado di accertare la negligenza del produttore e, quindi l’evento dannoso fosse considerato inevitabile, i danneggiati potrebbero comunque richiedere il risarcimento per danni sulla base della imputazione oggettiva, risarcimento per il quale, di nuovo, il produttore potrebbero assicurarsi, ‘distribuendo’ sul prezzo il costo del premio (ma anche qui, a ben vedere, una funzione preventiva può ancora emergere là dove il numero dei sinistri, pur ritenuti inevitabili, sia molto alto, elevando così l’onere del premio assicurativo: il che potrebbe indurre il produttore, per abbassarlo, a sperimentare, vieppiù innovando, nuove tecnologie ancor più ‘sicure’).

Prospettive di riforma e criticità

Secondo il Parlamento europeo, con l’aumentare del grado di autonomia, i robot non potranno più essere considerati meri strumenti in mano a chi li detiene come ad esempio i produttori, i proprietari, gli utilizzatori ecc. (EP; 2017). In questa prospettiva ‘futuribile’, nella quale si è ipotizzato persino di equiparare i robot a persone fisiche (M. Iaselli; 2017), lo stesso Parlamento europeo si è spinto sino a prospettare, come soluzione di lungo termine, l’introduzione di una nuova categoria giuridica: quella delle ‘persone elettroniche’, responsabili di qualsiasi danno da esse causato.

Sia lecito esprimere qualche perplessità su siffatto tipo di ‘fuga in avanti’ (o ‘indietro’?!).

Osservo, in primis, che l’autonomia del robot, come capacità di regolarsi liberamente, si collega, secondo il Parlamento europeo, alla possibilità di adottare decisioni sempre più complesse sulla base delle interazioni con l’ambiente esterno, tecnologico e umano. Mi chiedo però se ciò sia sufficiente per affermare che i robot possano effettivamente autoregolarsi. Infatti, la loro capacità di apprendimento dipende da come sono stati progettati ossia dal loro grado di sofisticazione tecnologica, così come del resto affermato dallo stesso Parlamento europeo. Pertanto, a me pare che (allo stato della evoluzione tecnologica) sia difficile affermare che il robot possa regolarsi liberamente: chi lo governa è chi l’ha progettato.

Insomma, sebbene i robot siano sempre di più equiparabili ad agenti in grado di comunicare con l’ambiente che li circonda e di alterarlo in maniera significativa, essi non sono equiparabili a persone fisiche capaci di agire autonomamente, in quanto seguono, pur attuandole ‘in proprio’, regole predefinite contenute nei loro software: software progettati da persone umane.

“Personalità elettronica” e attribuzione di responsabilità

Inoltre, riprendendo il dubbio sopra espresso in termini semischerzosi, la prospettiva evocata rischia di condurre all’affermazione di una responsabilità del robot come distinta da quella del produttore, così ‘liberato’ da obblighi verso i terzi danneggiati. Se così fosse (ma a pensare male si fa peccato), si metterebbe capo a un’allocazione iniqua del rischio dei danni causati dai robot a terzi, in quanto il produttore, il soggetto che più guadagna dalla messa in commercio e diffusione dei robot non assumerebbe la giusta ‘quota’ (eventualmente in solido con il programmatore) di responsabilità. Anche il Comitato Economico e Sociale Europeo (CESE) sottolinea che “l’introduzione di una personalità giuridica per i robot o per l’IA (o i sistemi di IA),comporterebbe un rischio inaccettabile di azzardo morale. Dal diritto in materia di responsabilità civile deriva una funzione preventiva di correzione del comportamento, la quale potrebbe venir meno una volta che la responsabilità non ricade più sul costruttore perché è trasferita sul robot (o al sistema di IA)” (CESE; 2017)[3].

Pertanto, va allo stato negato che sussistano i presupposti per introdurre la categoria della ‘personalità elettronica’, e quindi attribuire una responsabilità ‘propria’ ai robot. Si riconferma dunque l’esigenza di imputare la responsabilità per danni a terzi — per negligenza in primis, e oggettivamente in via sussidiaria — ai soggetti umani che producono, utilizzano e sfruttano economicamente i robot, lungo tutta la catena di produzione e utilizzazione dei medesimi.

La stessa Commissione europea sembra, allo stato, limitarsi ad analizzare se gli attuali istituti giuridici europei siano ancora adatti a regolare i rapporti civili nell’era dell’Intelligenza Artificiale senza prevedere esplicitamente l’introduzione di nuove categorie giuridiche[4]. L’obiettivo immediato della Commissione è comunque quello di fornire un report sulle possibili criticità, che le nuove tecnologie possono produrre, in tema di responsabilità civile e sicurezza entro la prima metà del 2019. In particolare, la Commissione ha pubblicato la quinta relazione sull’applicazione della direttiva in materia di responsabilità per danno da prodotti difettosi (direttiva 85/374/CEE) (CE; 2018), nella quale essa rileva che nel complesso la Direttiva continua a rappresentare uno strumento adeguato ma che necessita di alcuni chiarimenti e di linee guida per rendere ancor più efficace la sua applicazione nell’ambito del nuovo contesto tecnologico. A tal fine, la Commissione ha costituito un gruppo di esperti che si è già riunito a giugno 2018 e ci sarà un nuovo incontro a settembre 2018. In particolare, fra i vari temi discussi nell’incontro di giugno, è emersa la questione se la definizione di prodotto ricomprendesse anche i software, se la direttiva fosse in grado di chiarire a quale soggetto ascrivere la responsabilità nel caso di prodotti offerti in bundle con servizi, come ad esempio quelli nati dalla c.d. Internet of Things. Ci si è poi chiesti se la possibilità per un produttore di liberarsi dalla responsabilità se prova che lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo il prodotto in circolazione non permetteva di scoprire l’esistenza del difetto potesse ancora valere in questo nuovo contesto tecnologico[5]. In questa ipotesi, potrebbe soccorrere la istituzione di un fondo di garanzia, istituito e finanziato dal mondo assicurativo, capace di indennizzare i singoli utenti vittime di incidenti attualmente ‘inevitabili’.

Conclusioni

Il dibattito sull’idoneità del quadro giuridico attuale nazionale ed europeo a regolare i rapporti civili nell’era dell’Intelligenza Artificiale, inclusa la eventuale opportunità di introdurre un nuovo status giuridico per i robot è ancora aperto, soprattutto a livello europeo. La Commissione europea sta preparando un “reflection paper” sulle possibili politiche in materia di IA per il 2019 che verrà pubblicato ad aprile.

Ed invero, il tema della responsabilità civile in ambito IA dovrà essere affrontato in un’ottica sovranazionale — anzi ‘globale’– in quanto tali forme di IA opereranno su scala mondiale. Pertanto, (come suggerisce il Consiglio d’Europa; 2017) l’Unione europea dovrà individuare forme di collaborazione a livello internazionale, con paesi come ad esempio gli Stati Uniti e la Cina che convivono già da tempo con l’IA. E qui si parrà la nobilitate dell’Unione: vorrà giocare, in questa quarta rivoluzione industriale, un ruolo da protagonista o da sparring partner di altre superpotenze? Non è chi non veda, infatti, che, a tacere di più ampi effetti sociali, le nuove regole eserciteranno un peso notevolissimo anche rispetto alla competitività per le imprese europee.

________________________________________________

Bibliografia

Commissione Europea, Relazione della Commissione al Parlamento Europeo, al Consiglio e al Comitato Economico e Sociale Europeo sull’applicazione della direttiva del Consiglio relative al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi (direttiva 85/374/CEE), 7 maggio 2018, COM (2018).

Commissione Europea, Commission staff working document Liability for emerging digital technologies accompanying the document Comunication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions, Artificial Intelligence for Europe, 25 aprile 2018, SWD (2018) 137 final.

Commissione Europea, AI policy paper will take ‘pragmatic approach, EU Commission’s Viola says, mlex, 29 novembre 2017.

European Parliament, should we fear artificial intelligence? In-depth analysis, March 2018.

European Parliament, Understanding artificial intelligence, Briefing, January 2018.

European Parliament, Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on robot ics, (2015/2103(INL)).

Comitato Economico e Sociale Europeo (CESE), L’intelligenza artificiale – Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società, Parere, INT/806, 31 maggio 2017.

Consiglio d’Europa, Technological convergence, artificial intelligence and human rights, Recommendation 2102 (2017).

Direttiva UE (2000/31), Relativa a taluni aspetti giuridici dei servizi della società dell’informazione, in particolare il commercio elettronico, nel mercato interno (“Direttiva sul commercio elettronico”), GU L 178/1, 17 luglio 2017.

Direttiva 1999/34/CE, che modifica la direttiva 85/374/CEE del Consiglio relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati membri in materia di responsabilità per danno da prodotti difettosi, GU L 283, 6 novembre 1999.

Direttiva 85/374/CEE, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi, GU L 210/29, 7 agosto 1985.

  1. Si pensi alla c.d. Open robotics, vale a dire a robot per i quali è possibile accedere liberamente alle loro componenti di costruzione (i.e. software). Questi robot sono considerati dei veri e propri catalizzatori di conoscenza tecnologica e dei motori di sviluppo della robotica e in generale dell’IA. Pertanto, ascrivere la responsabilità ai programmatori, potrebbe ostacolare la diffusione della conoscenza tecnologica, in quanto questi ultimi sarebbero disincentivati dal diffonderla, temendo di essere ritenuti responsabili per i danni causati dallo sfruttamento di tale conoscenza da parte di terzi–ad esempio i produttori.
  2. Cfr. rispettivamente, direttiva 85/374/CEE e modifiche con direttiva 99/34/CE e art. 117 del codice del consumo.
  3. Nella citata risoluzione pubblicata a inizio 2017 (PE; 2017), il Parlamento Europeo ha ipotizzato un’azione legislativa in due tempi. Nel breve/medio periodo, il PE prevede un regime assicurativo obbligatorio, imponendo ai produttori e proprietari di robot di sottoscrivere una copertura assicurativa per danni provocati dai robot, la creazione di un fondo di risarcimento per la riparazione dei danni e l’immatricolazione dei robot, con l’iscrizione presso un registro specifico nell’Unione Europea. Nel lungo periodo, il PE ipotizza, come detto nel testo, il riconoscimento di uno status giuridico dei robot: quelli più autonomi e sofisticati dovrebbero appunto essere considerati ‘persone elettroniche’ e quindi responsabili di qualsiasi danno da essi causato. Condivido e ribadisco le perplessità già espresse nel testo. Piuttosto, appare interessante al fine di trovare un equilibrio fra responsabilità civile e innovazione tecnologica, l’idea di definire degli standard di sicurezza comuni e successivamente rimettere alle assicurazioni la valutazione sul rischio dei robot basandosi sui dati storici dei sinistri dei produttori piuttosto che dei passeggeri. Tali standard sarebbero stabiliti da gruppi di lavoro composti da esperti del settore e di etica e da membri dei governi.
  4. Si veda la già citata recente comunicazione della Commissione Europea (CE; 2018).
  5. Per ulteriori approfondimenti, si veda il verbale dell’incontro disponibile al seguente link:http://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMeetingDoc&docid=15351
WEBINAR
Come aumentare il ROI e ottenere forecast sempre più precisi? AI & Deep Learning per il finance
Finanza/Assicurazioni
Intelligenza Artificiale

@RIPRODUZIONE RISERVATA

Articoli correlati