L'analisi

Responsabilità giuridica di enti artificiali: è l’ora di superare pregiudizi antichi

La responsabilità giuridica di enti artificiali riguarda società e sistemi di IA: il Parlamento europeo nel 2017 ha proposto l’istituzione di uno status giuridico per i robot ma la reazione è stata durissima. Cosa è cambiato con IA e deep fake, chi è l’agente per il diritto, perché ripartire da Hallevy

15 Apr 2022
Amedeo Santosuosso

IUSS Pavia e Dipartimento giurisprudenza UNIPV

Giustizia digitale

La responsabilità giuridica di entità artificiali, che siano società commerciali o dispositivi tecnologici (come sistemi di IA), è diventata cruciale negli ultimi decenni a causa del preoccupante numero di illeciti[1].

Il dibattito si svolge in due direzioni: la possibilità di riconoscere forme di soggettività giuridica, sia pur limitate, a entità totalmente artificiali (per es. robot dotato di IA dai percorsi decisionali imprevedibili o inspiegabili); la possibilità, strettamente dipendente dalla prima, che sia riconosciuta a sistemi di IA la capacità di commettere reati e di sopportarne le relative conseguenze.

Responsabilità dei robot nei processi automatizzati: norme attuali e scenari futuri

Responsabilità giuridica di enti artificiali: i precedenti normativi

La questione della responsabilità giuridica di enti artificiali ha aspetti significativi di novità per alcuni aspetti, ma non è nuova: se ne sono occupate le istituzioni internazionali, in relazione alle diverse forme di responsabilità, civile, penale o amministrativa.

INFOGRAFICA
Le 7 opportunità imperdibili di un ERP di ultima generazione per il Settore Servizi
CRM
Digital Transformation

Il 16 febbraio 2017 il Parlamento europeo ha approvato una risoluzione con raccomandazioni alla Commissione sulle norme di diritto civile da introdurre nella robotica[2].

Sin dal 1988 la Raccomandazione del Comitato del Consiglio dei Ministri della Comunità Europea ha invitato gli Stati a inserire forme di responsabilità penale delle persone giuridiche[3].

Sono seguite la Convenzione penale sulla corruzione (ETS n.173), aperta alla firma a Strasburgo il 27 novembre 1998 e la Convenzione OCSE sulla lotta alla corruzione dei pubblici funzionari nelle operazioni economiche internazionali (Parigi, 17 settembre 1997).

In Italia, è significativo il caso del Decreto legislativo n. 231 del 2001, che introduce forme di responsabilità delle società per alcuni reati.

A fronte della commissione di illeciti penali e amministrativi da parte di dirigenti di società commerciali (nell’interesse e secondo le direttive degli organi sociali), le società usano da sempre scaricare la responsabilità sulla persona fisica del dirigente.

Continuano quindi (come società) a commettere gli stessi illeciti, pronte a scaricare nuovamente la responsabilità sul nuovo dirigente che ha preso il posto di quello sotto processo. E per continuare ad agire in questo modo, le società sono disposte a pagare anche ingenti somme ai dirigenti[4].

Responsabilità giuridica di enti artificiali: cosa è cambiato con IA e deep fake

A questi fenomeni ben noti si sommano ora modalità di azione illecita (anche penale) legate alle tecnologie dell’informazione e all’IA.

Si pensi alla disinformazione tramite la rete (fake news), che può essere intenzionalmente finalizzata alla manipolazione dell’opinione pubblica, all’incitamento all’odio (hate crimes) o alla sovversione dell’ordine politico democratico.

Oppure, alla creazione e manipolazione di immagini e video (deep fake) allo scopo di commettere o facilitare reati di terrorismo, interferenze elettorali e altro ancora, senza qui considerare l’uso di queste e altre tecnologie quali strumenti diretti di guerra.

I deep fake possono avvalersi di tecnologie innovative come i Generative Adversarial Networks (GAN), dove due network neurali artificiali (Artificial Neural Networks) competono l’uno contro l’altro, il primo creando un contenuto falso, e il secondo cercando di scoprire se il contenuto sia reale o creato dal software, con l’effetto che il primo migliora fino al punto in cui il secondo non riesce più a distinguere il vero dal falso[5]. La gamma di reati che possono essere commessi in tal modo è ampia e varia[6].

Queste nuove dimensioni degli illeciti (civili, penali e amministrativi) sono collegate allo sviluppo di oggetti e pratiche dove vi sono interazioni tecniche e giuridiche assai complesse[7].

Oppure, nuove tecnologie che consentono di realizzare condotte che sfuggono alle tipologie di reati esistenti, dove quindi il problema è di immaginare nuove ipotesi di reato di non facile definizione[8], o con modalità di esecuzione nuove, il cui perseguimento pone problemi di giurisdizione[9].

Status giuridico per i robot: la proposta 2017 del parlamento UE

Il dibattito seguito alla Risoluzione 16 febbraio 2017 del Parlamento europeo è un chiaro esempio della questione sulla soggettività e responsabilità giuridica degli enti artificiali.

Di base, riguarda i soli profili civilistici, come è chiaro già nel suo titolo, dove si parla di raccomandazioni alla Commissione “concernenti norme di diritto civile sulla robotica”.

L’art. 59, insieme a una serie di indicazioni riprese dal dibattito giuridico ed etico e tese a una più equa distribuzione del rischio per il caso in cui un robot procuri un danno, contiene un’indicazione che ha provocato un vero e proprio scandalo.

Il Parlamento, tra le soluzioni giuridiche che invita la Commissione a esplorare, ha indicato: “l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”[10].

Il Parlamento europeo ha inteso facilitare il risarcimento delle vittime per i casi in cui una responsabilità umana non possa essere completamente attribuita: ogni giorno di più diventa complesso determinare la responsabilità in caso di incidenti provocati dai più sofisticati robot, autonomi e dotati di autoapprendimento, capaci di prendere decisioni per le quali non si può risalire a un essere umano agente.

Per questi casi, la risoluzione chiede alla Commissione di valutare l’impatto di uno schema di assicurazione obbligatoria, che includa la possibile idea di dare ai robot lo status giuridico di una personalità elettronica.

L’intento voleva essere pragmatico, partendo dalla constatazione dello sviluppo di sistemi di IA capaci di fornire risposte non prevedibili, in quanto basate su sistemi di deep learning, secondo una prospettiva già considerata in precedenti ricerche e studi in ambito europeo[11].

La reazione è stata, nondimeno, di chiusura radicale.

Responsabilità giuridica per i robot: la reazione alla proposta del parlamento UE

Un gruppo di 156 esperti europei d’intelligenza artificiale ha ritenuto la mera ipotesi che i robot abbiano lo status legale di persone elettroniche un’idea senza senso, ideologica e non pragmatica.

A sostegno della loro posizione hanno richiamato un Parere del Comitato economico e sociale europeo (CESE) sull’intelligenza artificiale[12] e la posizione espressa dalla World Commission on the Ethics of Scientific Knowledge and Technology (COMEST UNESCO) in un rapporto del 2017.

Ma in questi documenti, se si esclude il riferimento al problema (reale) del rapporto tra responsabilità del robot e responsabilità del produttore, che è un caposaldo del diritto dei consumatori in Europa, le altre critiche hanno un tono non sempre preciso.

Per esempio, si afferma che è altamente controintuitivo definire i robot ‘persone’ perché essi non possiedono alcune qualità tipicamente associate alle persone umane, come la libertà di volontà, l’intenzionalità, l’autocoscienza, l’agenzia morale o un senso di identità personale.

Ma così facendo, si dice qualcosa che va molto oltre l’obiettivo circoscritto del documento del Parlamento europeo e che, presa alla lettera, esclude la possibilità di usare il termine “persona” anche per le “persone giuridiche”, che pure sono entità indiscutibilmente riconosciute.

Oppure, quando si dice che i Romani avrebbero negato ai robot la personalità giuridica, sembra che non si tenga conto del fatto che i Romani non riconoscevano la personalità giuridica anche a interi gruppi di umani, come gli schiavi, che erano equiparati a res[13].

In realtà, tutte le critiche finiscono, prima o poi, con il richiamare il modello delle società commerciali, per negare che esso, con la sua conclamata artificialità, possa costituire un buon argomento per il riconoscimento di qualità giuridiche a entità non umane.

Le società di capitali sono, notoriamente, artefatti giuridici, di invenzione relativamente recente, che possono essere titolari di diritti e di doveri, che possono stare in giudizio per propria iniziativa o perché chiamati da altri soggetti (umani o altri enti giuridici), che possono essere titolari di diritti di proprietà intellettuale, del diritto all’immagine/reputazione e altro ancora.

E allora perché un robot non potrebbe avere uno status simile per limitati, ben individuati, aspetti a tutela dei cittadini e dei consumatori?

La risposta è negativa, secondo i critici, perché il modello delle società implica comunque l’esistenza, dietro la persona giuridica, di persone umane che la rappresentano e la dirigono e ai quali si possano attribuire intenzioni, piani, obiettivi e diritti e doveri giuridici, e la responsabilità in ultima istanza. E questo non è (o non sarebbe) il caso di un robot.

Questa visione delle società commerciali come entità teleoperate e/o riducibili alla mera sommatoria delle volontà e degli interessi dei singoli soci è smentita da alcuni importanti aspetti del regime giuridico delle società di capitali, come è evidente solo che si pensi come, per esempio, anche l’assemblea dei soci ha vincoli che sono dettati dall’interesse della società in sé in relazione al più ampio interesse pubblico del mercato.

I critici adottano in realtà una visione delle società di capitali che è datata e che può essere ricondotta all’idea corrente (talora negli stessi manuali di diritto) secondo la quale le persone giuridiche sono una mera finzione, che il diritto adotta modellandola sulla persona umana.

Ma questa visione, che attribuisce la qualità di naturale alla persona umana, come entità biologica, e la qualità di artificiale a ogni entità/artefatto diverso, va sottoposta a verifica sia logica, sia storica.

Responsabilità giuridica: la posizione di Kelsen su naturalità e artificialità

I critici del Parlamento europeo brandiscono un autentico pregiudizio, duro a morire, nel dire che l’unica entità degna del titolo giuridico di persona sia l’essere umano, biologicamente inteso secondo una tradizione che accomuna cultura giuridica di civil e common law: “Natural persons are such as the God of nature formed us”[14].

La questione è stata affrontata in modo radicale da Hans Kelsen[15]: per questo autore, la cosiddetta persona ‘fisica’ è solo una persona ‘giuridica’ in senso ampio, e non ha una qualità diversa da quelle che comunemente sono chiamate ‘persone giuridiche’.

Entrambe sono creazioni del diritto, accomunate dal carattere dell’artificialità.

I principali punti che emergono dal passo di Kelsen possono essere riassunti come segue:

a) l’essere umano, come entità biologica, è cosa diversa dalla persona fisica in termini giuridici;

b) l’essere umano è il fondamento della persona fisica in termini giuridici come un’unità simbolica e linguistica;

c) l’essere umano biologico è solo la delimitazione spaziale (Kelsen usa la parola compasso, tra virgolette) di una persona fisica in termini giuridici;

d) l’essere umano esiste per l’ordinamento solo nella limitata parte in cui vi siano norme giuridiche che lo assumano come riferimento di diritti e doveri;

e) la persona fisica in termini giuridici e la persona giuridica (cioè le società di capitali) sono entrambe creazioni giuridiche aventi in comune il carattere dell’artificialità.

La chiarificazione di Kelsen sulle differenze tra giuridico e biologico non è da tutti condivisa e non è esente da criticità (si veda sopra il punto c). Ma ciò, a mio avviso, non mina la forza critica di quella visione e, soprattutto, l’incomparabile sua capacità esplicativa dei nuovi fenomeni di artificialità.

Responsabilità giuridica enti artificiali: chi è l’agente per il diritto

È possibile verificare se le entità tecnologiche di nuova generazione ed esperienze connesse possano rientrare nelle categorie giuridiche esistenti?

La domanda può anche essere posta così: quali sono le caratteristiche che deve avere un’entità, quale che sia la sua natura, per poter essere un agente per il diritto?

Rinviando ad altri precedenti lavori in materia[16] per una spiegazione più estesa, si può in sintesi dire che in anni più recenti, grazie anche agli studi dei sistemi adattativi complessi, il concetto centrale e comprensivo per un agente non è considerato più quello di essere causa attiva/efficiente di una trasformazione, ma quello di avere capacità di elaborare informazioni.

È, quindi, la capacità di elaborare informazioni la fondamentale caratteristica di un agente, con la conseguenza che robot, agenti software, cloud e ogni tipo di sistema autonomo (in grado di elaborare informazioni), nonostante la loro natura di cosa e non di persona fisica, possano essere considerati agenti, quantomeno nel senso più ampio che si è appena detto.

È la ricerca scientifica e tecnologica a produrre nuove entità con capacità di processare dati.

Come faceva notare Luciano Floridi nel 2008:

“We are not immobile, at the centre of the universe (Copernicus); we are not unnaturally distinct and different from the rest of the animal world (Darwin); and we are far from being entirely transparent to ourselves (Freud). We are now slowly accepting the idea that we might be informational organisms among many agents (Turing), inforgs not so dramatically different from clever, engineered artefacts, but sharing with them a global environment that is ultimately made of information, the infosphere”[17].

L’idea che gli umani siano organismi informazionali (inforgs) inseriti in un ambiente globale, il cui tratto distintivo è costituito dall’informazione (infosfere), apre una prospettiva interessante circa il rapporto tra cose e persone, anche dal punto di vista giuridico.

Infatti, l’indagine fattuale e teorica su cosa significhi ‘agente’ si interseca con quella su cosa sia persona per il diritto.

Le domande cruciali diventano, dunque, le seguenti: dove il diritto traccia il limite di un agente, che sia considerato tale dal diritto stesso (qualsiasi tipo di diritto: civile, penale, amministrativo), cioè che sia un agente in senso giuridico? Tale limite è o dovrebbe essere coincidente con quello tra cose e persone?

Nel campo del diritto, il concetto più vicino a quello di agente sembra essere quello di individuo o di gruppo cui sia consentito dal diritto di compiere atti giuridicamente rilevanti e, alla fine, di adire le vie legali, come attore o convenuto.

In inglese, la parola “person” racchiude questo ampio concetto di essere umano o di organizzazione che ha diritti e doveri. Nei Paesi di civil law si utilizzano parole e concetti diversi, come soggetto giuridico (italiano), ”sujet de droit”  (francese) e  ”Rechtssubjekt”  (tedesco).

Tuttavia, tutti questi lemmi, nonostante le differenze dei contesti culturali e giuridici, ricoprono lo stesso fondamentale significato di entità che ha diritti e doveri.

E, in effetti, vi sono vari aspetti non controversi dello status giuridico delle società di capitali, come i diritti e i doveri di cui sono titolari in modo indipendente e distinto dalle persone che ne siano soci.

Di conseguenza, le leggi civili e amministrative possono sanzionare condotte aziendali illecite, cosa che realmente accade in diversi Paesi in base alle leggi nazionali.

La grande quantità di contenziosi davanti ai tribunali civili e amministrativi dice più di qualsiasi spiegazione teorica sulle società come agenti giuridici, sia come persona (artificiale) sia come soggetto giuridico o “sujet de droit” o “Rechtssubjekt”.

La soggettività giuridica di enti artificiali viene quindi pacificamente riconosciuta come possibile nei limiti delle caratteristiche del soggetto giuridico e dell’interesse della comunità a regolarne alcuni aspetti.

Responsabilità giuridica di enti artificiali: la dottrina penalistica italiana

Rimane la seconda questione: la soggettività penale delle società e/o dei sistemi di IA.

L’obiezione tradizionale, che escludeva tale possibilità, era basata sul principio del XIX secolo, secondo il quale la società non può commettere reati: “societas delinquere non potest”.

L’argomento era sempre quello: la società è una mera finzione giuridica, con la specificazione, dal punto di vista penale, che mancando un corpo (umano) e un’anima, non arriva a integrare l’elemento soggettivo del reato (in inglese mens rea) e un’azione in propria persona.

E non avere un corpo biologico capace di soffrire materialmente e moralmente (penare), rende inidonea la pena carceraria, che non può immaginarsi applicata alle società o altri enti artificiali.

Se si pensa di trovare in entità artificiali (giuridiche e/o tecniche) caratteristiche corrispondenti a quelle umane per quanto riguarda la condotta e l’elemento psicologico del reato, non si può che escludere che quelle entità artificiali possano commettere reati.

A meno che non si voglia, ma senza grande costrutto attuale, discettare sul controverso tema della singularity, prefigurando la responsabilità penale di enti dotati di capacità pari o superiori agli umani.

Molto più interessante e utile pare essere una riflessione sul concetto di azione penalmente rilevante e sulle modalità dell’azione dei sistemi di IA.

Modalità che sono diffuse sia per territorio (transnazionalità), sia per il concorso di azioni di componenti tecnologiche e umane, sia per la difficoltà di individuare l’“autore”, umano o artificiale che sia.

Tutte questioni delicate, perché individuare l’azione dal punto di vista penale può portare alla compressione o violazione di diritti fondamentali di soggetti che non sono partecipi di alcuna condotta dannosa o che ne sono addirittura vittime[18].

L’opinione prevalente nella dottrina penalistica italiana rimane ferma all’idea che “machina delinquere non potest” per la non configurabilità di comandi diretti a enti artificiali, che abbiano il medesimo effetto di deterrenza o che, quanto alla pena, abbiano un valore rieducativo.

Responsabilità giuridica di enti artificiali: la posizione di Hallevy

A livello internazionale, sulla responsabilità giuridica di enti artificiali va ricordata la posizione di Gabriel Hallevy[19] che ha ipotizzato tre paradigmi di responsabilità.

Nel primo, “perpetration through another”, i sistemi di IA sono strumento per la commissione del reato da parte di un umano, che può essere un programmatore oppure un’utente.

Il secondo modello di responsabilità penale, “natural probable consequence”, presuppone ancora il coinvolgimento dei programmatori o degli utenti del sistema di IA, i quali però non hanno pianificato di commettere alcun reato attraverso il sistema di IA.

È invece il sistema di IA che commette un reato di cui programmatori o utenti erano ignari.

In tal caso, essi, pur non avendo partecipato materialmente a qualsiasi parte della commissione di quel reato specifico, possono comunque essere considerati responsabili come accomplices (complici) in un’azione che costituisce una conseguenza naturale probabile.

Il terzo modello è, invece, quello della responsabilità diretta del sistema IA senza alcuna dipendenza da uno specifico programmatore o utente.

Mentre il primo modello è uno sviluppo della responsabilità indiretta dell’uomo (noto agli ordinamenti), il secondo e il terzo implicano il riconoscimento della personalità giuridica penale di sistemi di IA.

Ma Hallevy non esclude che vi possa essere una combinazione dei tre tipi di responsabilità:

“The combined and coordinated application of these three models reveals a new legal situation in the specific context of AI systems and criminal law. As a result, when AI systems and human entities are involved, directly or indirectly, in a perpetration of a specific offense, it would be much more difficult to evade criminal liability. The social benefit of such a legal policy [enfasi aggiunta] is of a very high value. All entities, human, legal or AI, are subordinated to the criminal law”.

Senza voler discutere qui i vari profili tecnici e giuridici, merita di essere messo in luce come sarebbe utile discutere laicamente una tale prospettiva pragmatica.

Perché o si rinuncia alla possibilità dell’intervento penale in nome della fissità del “machina delinquere non potest” oppure, pur con tutte le cautele del caso, non si potrà non accedere a un’analisi più precisa delle situazioni concrete, degli interessi in gioco (qual è il social benefit che si vuole perseguire con lo strumento penale) e dei possibili rischi per i diritti e le libertà che potrebbero essere coinvolti, nonché dei beni che si vogliono proteggere.

Responsabilità giuridica degli enti artificiali: il sistema ibrido italiano

Tutto sommato un approccio flessibile e pragmatico (anche se non by design) sulla responsabilità giuridica degli enti artificiali è quello che è emerso con il Decreto legislativo n. 231 del 2001 in Italia a proposito della responsabilità delle società di capitali.

La responsabilità penale delle società era stata esclusa dal legislatore italiano per il timore che fosse in contrasto con il principio della personalità della sanzione penale (“la responsabilità penale è personale”, secondo l’art 27 della Costituzione). Erano, quindi, state previste solo sanzioni amministrative per le società.

Ma la Corte di Cassazione ha colto esattamente il punto e, in forza di un criterio di effettività affermatosi anche nella giurisprudenza della Corte EDU, ha chiaramente affermato che, quale che sia la denominazione usata dal legislatore (“forse sottaciuta per non aprire delicati conflitti con i dogmi personalistici dell’imputazione criminale”), le sanzioni previste dalla legge italiana hanno natura sostanziale di sanzioni penali, per la cui irrogazione devono valere le garanzie tipiche del diritto penale[20].

Il risultato è una sorta di sistema ibrido, che nominalmente non è penale, dove però vi è una sanzione nominata amministrativa, che viene inflitta dal giudice penale in un processo penale in cui sono coinvolte anche le persone fisiche.

Tale conclusione sarà pure da criticare, come è stato fatto in dottrina, ma mi pare molto importante per due motivi.

In primo luogo, perché esclude che lo schermo societario sia solo un modo di coprire le soggettività ‘umane’ retrostanti (e sempre pronte a riemergere) e conferisce a un tipico artefatto giuridico, quale la società di capitali, sostanziale capacità penale.

In secondo luogo, perché mostra che la pressione derivante dall’emergere di nuove forme di illecito e la necessità di rispondervi in modo efficace porta a superare alcuni antichi pregiudizi e anche quel tipico effetto paradosso per cui si nega la responsabilità penale delle società, in nome del nobile principio di tenere sempre l’uomo al centro, ma si lascia una via di fuga a entità responsabili di gravi atti, che scaricano la reazione sanzionatoria su umani intercambiabili.

_______________________________________________________________________

  1. Illeciti ambientali, violazione delle norme antitrust, frodi negli alimenti e nei farmaci, false dichiarazioni, incidenti mortali sul lavoro, corruzione, intralcio alla giustizia; criminalità finanziaria e manipolazione dei mercati; disinformazione globale (‘deep fake news’); revenge porn, pedopornografia; diffamazione e online harassment; estorsione; frodi; incitamento ad atti terroristici o di violenza contro minoranze.
  2. Norme di diritto civile sulla robotica. Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)): disponibile presso http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html
  3. Rec(88)18 20/10/1988, Concerning liability of enterprises having legal personality for offences committed in the exercise of their activities, disponibile presso https://search.coe.int/cm/Pages/result_details.aspx?ObjectID=09000016804f3d0c
  4. Si pensi che il Contratto Collettivo Nazionale di Lavoro per i Dirigenti di Aziende Produttrici di Beni e Servizi (art. 15) prevede sin dal 2009 che sia a carico dell’azienda ogni responsabilità civile verso terzi per fatti commessi dal dirigente nell’esercizio delle proprie funzioni e che, ove si apra un procedimento penale a carico del dirigente e il dirigente si dimetta per quel motivo, l’azienda debba pagare, oltre al trattamento di fine rapporto, un trattamento pari all’indennità sostitutiva del preavviso spettante in caso di licenziamento, oltre un’indennità supplementare al trattamento di fine rapporto pari al preavviso individuale maturato (un totale di svariate annualità di retribuzione).
  5. Danielle K. Citron & Robert Chesney, “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security”, 107 California Law Review 1753 (2019): presso https://scholarship.law.bu.edu/faculty_scholarship/640 ; Ian J. Goodfellow et al., Generative Adversarial Networks (2014), arXiv:1406.2661.
  6. Di grande interesse il Report preparato da Claudio Orazio Onorati (coordinatore), “Influenza sul mercato politico attraverso l’IA e reati contro la personalità dello Stato” – Position paper, Novembre 2021, Fondazione Vittorio Occorsio. A questo paper mi rifaccio per i profili più strettamente penalistici.
  7. Si pensi a prodotti -emblematici gli smartphone- che sono il risultato dell’assemblaggio di un alto numero di componenti, ciascuna con diverso sistema proprietario o di licenza
  8. Per es. i GAN possono essere usati anche in contesti coperti dalla libertà di espressione o artistica
  9. Per es. quando il crimine si realizza in un contesto e con modalità transnazionali
  10. Norme di diritto civile sulla robotica. Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)): disponibile presso http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html
  11. Si vedano A. Santosuosso et al, “Robots, market and civil liability: A European perspective,” 2012 IEEE RO-MAN: The 21st IEEE International Symposium on Robot and Human Interactive Communication, 2012, pp. 1051-1058, doi: 10.1109/ROMAN.2012.6343888; Cristophe Leroux – Roberto Labruto, “Suggestion for a green paper on legal issues in robotics”, 2012, disponibile all’indirizzo: https://www.researchgate.net/publication/310167745; Amedeo Santosuosso – Chiara Boscarato – Franco Caroleo, “Robot e diritto: una prima ricognizione”, in NGCC , 2012, pp. 494-516.
  12. CESE, “Le ricadute dell’intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull’occupazione e sulla società”  (2017/C 288/01)
  13. Per un esame critico più ampio rinvio al mio A.Santosuosso, “Intelligenza artificiale e diritto”, Mondadori Università, 2000, pp.198-219.
  14. William Blackstone, “Commentaries on the Laws of England”, Book I, 1765 (ora Clarendon Press, Oxford, 1975, p. 119).
  15. A. Santosuosso, “Persone fisiche e confini biologici, chi determina chi”, in Politica del diritto, vol. III, 2002, pp. 525-548. Molto netto sull’artificialità del diritto anche Natalino Irti, “Un diritto incalcolabile”, Giappichelli Editore, Torino, 2016, pp. 182-183 in particolare.
  16. A.Santosuosso, “Intelligenza artificiale e diritto”, Mondadori Università, 2000.
  17. L. Floridi, “Artificial intelligence’s new frontier: Artificial companions and the fourth revolution”, Metaphilosophy 39 (4-5):651-655 (2008)
  18. Un esempio importante di tale riflessione con connotati teorico-pratici è quella condotta nel sopra citato Report preparato dal gruppo di lavoro coordinato da Claudio Orazio Onorati.
  19. G. Hallevy, “The Basic Models of Criminal Liability of AI Systems and Outer Circles” (June 11, 2019). Accessibile presso SSRN: https://ssrn.com/abstract=3402527 or http://dx.doi.org/10.210139/ssrn.3402527
  20. Cass. Pen., Sez. III, 30 gennaio 2006, n° 3615 (Caso Jolly Mediterraneo).

rICERCA
RICERCA Osservatori Digital Innovation: qual è la maturità digitale delle aziende e delle startup?
CIO
Digital Transformation
@RIPRODUZIONE RISERVATA

Articolo 1 di 4