Il commento

Responsabilità civile dell’intelligenza artificiale: i paletti del nuovo Regolamento Ue

La Commissione europea, nel pacchetto di iniziative legislative che sta adottando nell’ambito dell’economia digitale, ha aggiornato la proposta di un Regolamento sull’intelligenza artificiale (IA). Si valuta se sia la strada giusta per garantire un adeguato risarcimento danni a tutte le vittime dei sistemi di IA

Pubblicato il 05 Ago 2021

Alessandro Massolo

Luiss Guido Carli

intelligenza artificiale pirateria

La Commissione europea ha recentemente pubblicato una nuova proposta di Regolamento sull’Intelligenza Artificiale (IA)[1] che si inserisce nell’ampio pacchetto di iniziative legislative che sta adottando nell’ambito dell’economia digitale. La Commissione è già intervenuta attraverso la regolazione su più fronti quali la privacy, la concorrenza e la sicurezza.

Sorveglianza di massa con l’IA, serve approccio rigoroso: i paletti del Parlamento Ue

In particolare, ciò che accomuna queste regolazioni è un approccio definito “top-down”. Viene cioè individuato un rischio – o una categoria di soggetti e settori ai quali si associa un determinato rischio – e si impongono degli obblighi di fare (o non fare). Pertanto, l’obiettivo è la responsabilizzazione dei soggetti che operano nei settori interessati da tali regolazioni o di cui sono i principali destinatari.

Raccomandazioni alla Commissione UE su un regime di responsabilità civile per l’intelligenza artificiale

Il concetto di rischio è centrale e questo comporta che le regolazioni siano particolarmente minuziose. Esse tentano, infatti, di individuare tutte le componenti e casi di rischio associati a un particolare dispositivo, settore o comportamento, al fine di poter adottare misure quanto più specifiche possibili. Sotto questo profilo, queste regolazioni contengono lunghi elenchi e tabelle che descrivono in maniera dettagliata i rischi.

La recente Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale sembra seguire il medesimo approccio.

A differenti livelli di rischio corrispondono diversi livelli di responsabilità

In particolare, esattamente come nella Proposta di Regolamento sull’IA, si individuano differenti livelli di rischio ai quali viene associato un diverso livello di responsabilità. Si prevede infatti che l’operatore di IA ad alto rischio sia oggettivamente responsabile di qualunque danno arrecato e che l’operatore di IA a basso rischio sia soggetto a un regime di responsabilità per colpa, in caso di eventuali danni.

Un approccio per rispondere alle criticità sollevate da peculiarità dell’intelligenza artificiale

Tale approccio contribuisce a porre rimedio ad alcune criticità sollevate da alcune peculiarità dell’IA. Tuttavia, considerando la rapida evoluzione dell’IA, ci si chiede se esso rappresenti la strada più efficace da percorrere per garantire a tutte le eventuali vittime dei sistemi di IA un adeguato risarcimento dei danni subiti.

Col passare del tempo, determinare i rischi e individuare i soggetti responsabili sarà più complicato in quanto i sistemi diventeranno maggiormente integrati e polifunzionali. Inoltre, se è vero che si sta lavorando per sviluppare, in futuro, dei sistemi di IA capaci di agire in maniera autonoma senza un cosciente comando umano, sarà ancora più difficile aggiornare, di volta in volta, la regolazione.

Si rischierebbe, in effetti, di pervenire a un elenco interminabile di settori, soggetti e misure di difficile interpretazione e applicazione in un contesto in continua evoluzione. Dunque, verrebbe meno l’obiettivo, sottolineato dallo stesso Parlamento europeo, di “trovare un equilibrio tra l’efficace ed equa tutela delle potenziali vittime di danni o pregiudizi e, allo stesso tempo, la disponibilità di una sufficiente libertà d’azione per consentire alle imprese, in particolare alle piccole e medie imprese, di sviluppare nuove tecnologie e nuovi prodotti o servizi”[2].

Proposta Regolamento UE sull’Intelligenza Artificiale: è l’ora di coordinamento e aggiornamento

Viene dunque da chiedersi se non sia opportuno valutare l’adeguatezza delle norme vigenti e della giurisprudenza sviluppatasi, effettuando semmai uno sforzo in termini di coordinamento e aggiornamento. Il nostro sistema giuridico ricomprende, infatti, varie ipotesi di responsabilità ascrivibili a molteplici soggetti oltre al produttore.

Si pensi, ad esempio, alla responsabilità dei padroni e dei committenti (art. 2409 c.c.), quella dei custodi (art. 2051 c.c.) e a quella del produttore per danno da prodotto difettoso, in relazione alla quale lo stesso Parlamento europeo ha auspicato l’aggiornamento della Direttiva.

Tali norme potrebbero essere applicate al caso. Pertanto, a titolo esemplificativo, in caso di danni causati da un sistema di IA utilizzato da un medico per operare o visitare un paziente, si potrà, qualora vi siano i presupposti, applicare la normativa riguardante la responsabilità dei padroni e committenti.

IA, l’imputazione oggettiva della responsabilità

Abbiamo quindi nuovi modi per responsabilizzare senza introdurre nuovi strumenti, ma utilizzando quelli che già abbiamo.

È importante sottolineare che l’imputazione oggettiva della responsabilità per danno da prodotto difettoso dovrebbe essere concepita come una tutela ‘sussidiaria’ rispetto alla responsabilità per colpa, ossia per negligenza produttiva.

E così, più precisamente, i danneggiati potrebbero richiedere al giudice, in primo luogo, di accertare la negligenza del produttore, vale a dire la violazione di “regole di condotta” esigibili in base agli standard massimi di settore industriale di appartenenza dell’impresa produttrice. Ciò al fine di ottenere sia il risarcimento sia misure inibitorie dell’adozione di tecnologie inadeguate ovvero dell’omissione di controlli di qualità/sicurezza. In tal modo, verrebbe garantita direttamente la funzione preventiva (di futuri eventi dannosi, evitabili con l’adozione di tecniche più evolute).

Qualora, viceversa, il giudice non fosse in grado di accertare la negligenza del produttore e, quindi l’evento dannoso fosse considerato inevitabile, i danneggiati potrebbero comunque richiedere il risarcimento per danni sulla base dell’imputazione oggettiva.

In conclusione

Infine, in questa prospettiva, le assicurazioni svolgono un ruolo importante al fine di cercare di mitigare l’impatto del trasferimento del rischio di responsabilità sui produttori e sugli altri soggetti coinvolti nella catena di produzione dei sistemi IA. Esse, infatti, favorirebbero l’assunzione, da parte di tutti i soggetti coinvolti, della responsabilità dei danni causati dai loro prodotti, e al contempo svolgerebbero un ruolo positivo nell’incentivare lo sviluppo e/o l’adozione di tecnologie più avanzate e quindi (tendenzialmente) più sicure.

Note

  1. Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, COM(2021) 206 final, 21 aprile 2021.
  2. Parlamento europeo, Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale, P9_TA(2020)0276.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati