commissione europea

Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa

La Commissione europea presenta oggi la proposta di direttiva europea su “Nuove regole di responsabilità sui prodotti e sull’IA per proteggere i consumatori e promuovere l’innovazione”. Passo molto atteso, per tutelare consumatori ma anche per promuovere l’innovazione

Pubblicato il 28 Set 2022

Rocco Panetta

Partner Panetta Studio Legale e IAPP Country Leader per l’Italia

intelligenza artificiale ai act
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Arriva oggi la proposta di direttiva europea, dalla Commissione ue, su “Nuove regole di responsabilità sui prodotti e sull’IA per proteggere i consumatori e promuovere l’innovazione”.

A fronte della accelerazione normativa che stiamo vivendo a livello globale sul tema della data economy, con l’Europa a fare da locomotiva, indubbiamente era molto attesa questa proposta.

Danni da intelligenza artificiale, l’Ue guarda oltre l’Ai Act: i temi sul tavolo

La direttiva sulla responsabilità dell’intelligenza artificiale

La direttiva sulla responsabilità per i danni da prodotto ha quarant’anni e la tecnologia che sta dietro i prodotti che usiamo oggi e che useremo da qui in avanti è molto più complessa di allora, il che rende più difficile, spesso, ottenere le prove necessarie a dimostrare il nesso di causalità tra il difetto e il danno arrecato all’utente. Se aggiungiamo l’AI a tali prodotti, l’affare si complica ulteriormente.

Questa direttiva è cruciale per permettere alla Commissione, e alle aziende stesse, di rompere quella barriera di scetticismo che potrebbe far desistere i consumatori dall’acquistare un prodotto che usa l’intelligenza artificiale.

Senza un alleggerimento dell’onere della prova e una maggior facilità nell’accesso alle informazioni necessarie a dimostrare il nesso causale, difficilmente gli utenti, siano essi consumatori o altre aziende che si servono degli stessi prodotti, si fideranno ad acquistare dei prodotti per cui non sia chiaro chi sia il responsabile in caso di problemi e malfunzionamenti.

C’è infatti da considerare che spesso questi prodotti sono poi il frutto della collaborazione di molte aziende e che, per sua natura, i risultati dell’AI sono spesso opachi e inspiegabili anche agli occhi dei suoi stessi sviluppatori. Mi sembra dunque un passo importante che consentirà a quelle aziende che sono più trasparenti, e che non vogliono schivare le proprie responsabilità dietro “la scelta dell’algoritmo”, di posizionarsi sul mercato come responsabili e degne della fiducia di chi le sceglierà

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x