Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

libro bianco

Norme sull’intelligenza artificiale, ecco dove va l’Europa: i tre punti chiave

Una definizione di intelligenza artificiale, il nuovo sistema di responsabilità e i contorni del nuovo quadro legislativo che si verrà a creare: sono questi i contenuti principali dell Libro Bianco sull’IA che dovrebbe essere pubblicato a breve. Servirà, se non altro, ad avviare una discussione

07 Feb 2020
Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Lucas Pinelli

Studio legale Martorana – Vice President for Marketing, ELSA Belgium


Si sta a poco a poco delineando in Europa il quadro normativo dell’intelligenza artificiale: dopo i rapporti degli esperti e la pubblicazione le linee guida per un’intelligenza artificiale affidabile, si dovrebbe arrivare a breve alla pubblicazione di un Libro Bianco da parte della Commissione ue.

Quest’ultimo documento altro non è che un testo volto ad avviare una discussione con il pubblico e nelle istituzioni, ma – stando alle anticipazioni trapelate questa settimana – toccherà temi importanti, tra cui spicca:

  • la definizione dell’IA
  • il nuovo sistema di responsabilità 
  • contorni del nuovo quadro legislativo che si verrà a creare.
  • Pertanto, l’instaurazione di una legislazione europea prosegue il suo lento ma continuo percorso.

Intelligenza artificiale, il cammino verso una legislazione europea

E’ cominciato ad aprile 2019, quando la Commissione europea aveva pubblicato, in allegato alla sua Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni dal titolo “Creare fiducia nell’intelligenza artificiale antropocentrica”, gli orientamenti etici per un’intelligenza artificiale affidabile redatti da un gruppo di esperti di alto livello da essa istituito. Lo stesso gruppo di esperti fece seguire nel giugno 2019 le sue raccomandazioni politiche e di investimento per un’intelligenza affidabile.

Pochi mesi dopo, appena insediata, la Presidente della Commissione, Ursula Von der Leyen, fissò tra le sue priorità in ambito legislativo quella di guidare l’Europa attraverso la transizione digitale per rispondere alle sfide relative alle nuove tecnologie.

La Presidente ha così dichiarato di voler introdurre al più presto una legislazione specifica sull’intelligenza artificiale, simile al Regolamento sulla protezione dei dati, sulla base dei rapporti realizzati dagli esperti innanzi richiamati.

Recentemente, poi, il sito di informazione Euractiv ha pubblicato una bozza del libro bianco sull’intelligenza artificiale della Commissione che dovrebbe essere pubblicato intorno al 19 febbraio.

I libri bianchi della Commissione “sono documenti che contengono proposte di azione dell’Unione europea (UE) in un settore specifico. Essi costituiscono talvolta il prolungamento dei libri verdi, il cui scopo è invece quello di avviare un processo di consultazione a livello dell’UE. Lo scopo dei libri bianchi è di avviare una discussione con il pubblico, le parti interessate, il Parlamento europeo e il Consiglio allo scopo di raggiungere il consenso politico.”[1]

WHITEPAPER
Cybersecurity: come superare le vulnerabilità delle tecniche di Intelligenza Artificiale
Sicurezza
Sicurezza

Siamo quindi ancora lontani dall’adozione di una legislazione europea specifica sull’intelligenza artificiale. Il libro bianco – che ancora deve essere pubblicato – non ha altro scopo che lanciare il dibattito all’interno delle istituzioni europee e nel pubblico. Non è privo di interesse, però, soffermarci sugli spunti della Commissione.

I rapporti preliminari al libro bianco del gruppo di esperti di alto livello

Gli orientamenti per un’intelligenza artificiale affidabile si basano su un principio d’IA antropocentrica “volto a garantire che i valori umani rivestano un ruolo centrale nelle modalità di sviluppo, distribuzione, utilizzo e monitoraggio dei sistemi di IA, garantendo il rispetto dei diritti fondamentali, tra cui quelli sanciti nei trattati dell’Unione europea e nella Carta dei diritti fondamentali dell’Unione europea, accomunati dal riferimento a un fondamento condiviso radicato nel rispetto della dignità umana, nei quali l’essere umano gode di uno status morale unico e inalienabile. Ciò implica anche il rispetto dell’ambiente naturale e di altri esseri viventi che fanno parte dell’ecosistema umano e un approccio sostenibile che consenta alle generazioni future di prosperare.”[2]

Queste linee guida si prefiggono di garantire una costante sorveglianza umana dei sistemi IA, la robustezza tecnica e la sicurezza degli algoritmi, la riservatezza dei dati nonché il rispetto del principio di accountability stabilito dal GDPR, la trasparenza e il rispetto della diversità, la non-discriminazione e l’equità. Ma il rapporto auspicava soprattutto l’adozione di regole a livello europeo in grado di armonizzare le normative a riguardo nello spazio europeo.

Nelle raccomandazioni, si insisteva ancora una volta sull’importanza del fattore umano nello sviluppo dell’IA. Si proponeva altresì di rimuovere le barriere per procurare beni e servizi leciti, etici e robusti permessi dall’intelligenza artificiale in tutta Europa, consentendo allo stesso tempo una posizione globale competitiva attraverso ampi mercati integrati, così come il rafforzamento dei livelli di investimento nell’IA con supporto sia pubblico che privato.

Veniva raccomandato, inoltre, di far avanzare ulteriormente le azioni politiche in materia di accesso, condivisione, riutilizzo e interoperabilità dei dati, garantendo al contempo un’elevata protezione dei dati e, infine, instaurare e dimostrare una leadership intellettuale e commerciale nell’intelligenza artificiale riunendo la capacità di ricerca europea in modo multidisciplinare.

Gli orientamenti nel libro bianco

Il primo argomento trapelato dalla bozza, e che più ha fatto discutere, è certamente la possibilità di vietare l’uso di sistemi di riconoscimento facciale nei luoghi pubblici per un periodo di cinque anni, il che secondo la stessa “salvaguarderebbe i diritti delle persone, in particolare contro ogni possibile abuso della tecnologia”. Questo non è però altro che una delle possibilità avanzate nel già menzionato progetto, che la Commissione stessa presenta come “una misura di vasta portata che potrebbe ostacolare lo sviluppo e l’adozione di questa tecnologia”, preferendo affidarsi alle vigenti norme UE sulla protezione dei dati, ovvero il Regolamento generale sulla protezione dei dati (GDPR).[3]

Oltre a questo, nel libro bianco la Commissione ricorda l’importanza di un maggior supporto allo sviluppo e alla diffusione dell’IA, senza il quale l’Europa rischierebbe di rimanere indietro rispetto ad altre regioni del mondo.

Inoltre, il documento accenna il tema dell’accessibilità dei dati per fare in modo di addestrare adeguatamente i sistemi di intelligenza artificiale. L’addestramento di detti sistemi è infatti essenziale se si vuole garantire l’assenza di discriminazioni e pregiudizi, o almeno limitarne il rischio.

Infine, la Commissione affronta temi importanti rispetto alla possibile normativa dell’IA a livello europeo. L’intelligenza artificiale viene infatti definita come un “software (integrato in hardware o indipendente) che preveda le seguenti funzioni:

  • simulazione di processi di intelligenza umana;
  • esecuzione di determinati compiti complessi specifici (incluso il processo decisionale);
  • che coinvolgono l’acquisizione, l’elaborazione e la razionale o analisi ragionata dei dati.”

Una definizione più pratica rispetto a quella emersa dalle ricerche del gruppo di esperti.

La Commissione, poi, si sofferma sul tema della responsabilità, la quale dovrebbe spettare all’attore che si trova nella posizione migliore per ridurre i rischi potenziali, comportando così obblighi diversi per gli sviluppatori, i fornitori e gli utenti dell’IA.

Il documento esplora, altresì, diverse opzioni normative tra le quali:

  • un quadro volontario di etichettatura nel quale gli sviluppatori avrebbero la possibilità di richiedere un certificato conformandosi a certi requisiti;
  • l’istituzione di norme settoriali per le pubbliche amministrazioni e i sistemi di riconoscimento facciale; la definizione di requisiti obbligatori basati sul rischio per applicazioni ad alto rischio; la modifica delle attuali legislazioni in materia di sicurezza e responsabilità;
  • la nomina di autorità di controllo responsabili del monitoraggio e dell’applicazione del futuro quadro normativo per l’IA negli Stati membri.[4]

________________________________________________________________

  1. https://eur-lex.europa.eu/summary/glossary/white_paper.html?locale=it.
  2. Nathalie Smuha, “Orientamenti etici per un’IA affidabile”, Gruppo di esperti ad alto livello sull’intelligenza artificiale, p. 46.
  3. Natasha Lomas, “EU lawmakers are eyeing risk-based rules for AI, per leaked white paper”, https://techcrunch.com/2020/01/17/eu-lawmakers-are-eyeing-risk-based-rules-for-ai-per-leaked-white-paper/.
  4. Brahim Benichou, Jan De Bruyne, Thomas Gils and Ellen Wauters, “The European Union as a Rule-Maker of Artificial Intelligence”, KU Leuven CiTiP, https://www.law.kuleuven.be/citip/blog/the-european-union-as-a-rule-maker-of-artificial-intelligence/.
WHITEPAPER
Mobile security: come proteggere gli smartphone dai malware
Mobility
Sicurezza

@RIPRODUZIONE RISERVATA

Articolo 1 di 4