Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

etica e ai

Regole per l’intelligenza artificiale, come si muovono Europa, Stati Uniti e Cina

La Ue è in prima linea nel definire principi etici per l’AI, con le nuove lineee guida “Ethic Guidelines fo Trustworthy AI” che saranno adottate entro marzo 2019. Si muovono anche gli Usa, con principi fissati dalla società civile. Mentre la Cina corre verso un sistema di controllo di massa. Ecco le prospettive

07 Gen 2019

Massimiliano Nicotra

avvocato, esperto di diritto delle tecnologie

Abstract circuit side male portrait on blue background with copyspace and binary code. Innovation concept. 3D Rendering

I tempi sembrano ormai maturi per una presa di posizione regolatoria da parte delle nazioni, che sia il più coordinata ed uniforme possibile, sul tema dell’intelligenza artificiale.

Nel corso del 2018, infatti, in Europa e non solo, il dibattito sull’intelligenza artificiale si è fatto sempre più vivo, soprattutto con riferimento alle possibili implicazioni etiche e giuridiche ed all’impatto che essa avrà nella nostra società.

E tutto questo fermento è destinato a maturare nel 2019.

L’Europa si è già mossa e ha posto a consultazione, lo scorso 18 dicembre, la bozza delle “Ethic Guidelines fo Trustworthy AI” che saranno poi adottate entro marzo 2019.

Negli Stati Uniti è invece la società civile che sta maturando la necessità di una regolamentazione.

In Cina, intanto, è in fase di implementazione un sistema di controllo massivo della popolazione.

Tutta l’intelligenza artificiale già nella nostra vita

Assistenti vocali sia su smartphone sia nelle nostre case, macchine a guida autonoma (o semi-autonoma), chatbot ed interazioni con operatori virtuali intelligenti, sistemi di profilazione e predittivi del nostro comportamento online, sono oramai realtà diffuse e con cui ci troviamo ad interagire sempre più spesso.

Dall’altra parte l’industria, la sanità, il trading di borsa, il controllo dei sistemi infrastrutturali ed anche il settore militare e della sicurezza stanno sempre di più aumentando l’utilizzo di sistemi di intelligenza artificiale con risultati che possono avere grandi impatti dal punto di vista sociale ed economico.

Profili etici e regolatori

È in tale contesto che si pone l’esigenza di comprendere i profili etici e regolatori di questo nuovo fenomeno. Perché, per la prima volta, ci troviamo di fronte alla necessità di rapportarci con una tecnologia che non è solamente un mero strumento che utilizziamo secondo la nostra volontà, ma essa può sostituirci, o supportarci in maniera innovativa, nell’adozione di decisioni razionali che hanno un impatto sul nostro mondo reale.

E ciò non vale solamente nell’ipotesi di sistemi di intelligenza artificiale “forti” o “generali”, ossia sistemi che riescono ad elaborare informazioni e prendere decisioni in un vasto ambito di domini, e che in verità siamo ancora ben lungi dal poter realizzare, ma anche per quelli che vengono definiti sistemi di intelligenza artificiale “deboli” nel senso di sistemi – come la totalità di quelli oggi utilizzati – che sono specializzati unicamente in determinati compiti (riconoscimento vocale, del testo, del volto, analisi predittive, etc.).

Gli approcci delle potenze mondiali che stanno partecipando alla “corsa per l’intelligenza artificiale” sono, come già abbiamo avuto modo di esaminare su queste pagine, profondamente diversi. A tali approcci corrispondono anche differenti modi di riflettere sulle implicazioni etiche e regolatorie che però, verso la fine del 2018, hanno visto importanti convergenze nei Paesi occidentali.

Mentre, infatti, la Cina sta implementando un sistema di controllo massivo della popolazione tramite l’applicazione di un Social Credit System applicato ai vari comportamenti (acquisti, posizioni di credito, amicizie, relazioni, etc.) dei propri cittadini, che sarà pienamente operativo dal 2020 e si baserà anche su sistemi di identificazione diffusi di riconoscimento facciale, sia in Europa sia negli Stati Uniti il dibattito si sta facendo sempre più serrato.

L’approccio top-down dell’Europa

Sotto tale profilo l’Unione Europea è stata il precursore avendo istituito un apposito Gruppo di Alto livello di Esperti con il compito di definire delle Linee Guida per la realizzazione di sistemi di intelligenza artificiale affidabili. Il lavoro del Gruppo di esperti è stato diviso in due fasi: la prima relativa alla redazione di Linee Guida relative ai profili etici dell’intelligenza artificiale; la seconda per la produzione di Raccomandazioni inerenti alla politica legislativa ed investimenti.

Il 18 dicembre 2018 il Gruppo di lavoro ha posto in consultazione la bozza delle “Ethic Guidelines fo Trustworthy AI” che saranno poi adottate entro marzo 2019. Le linee guida si dividono in tre sezioni:

  • la prima è relativa ai principi e valori generali necessari ad assicurare che un sistema di intelligenza artificiale venga realizzato secondo finalità etiche;
  • la seconda indica dei requisiti che dovrebbero essere soddisfatti nella realizzazione di un sistema di intelligenza artificiale per essere in linea con i principi ed i valori generali;
  • la terza contiene una vera e propria check list di punti da esaminare nel processo di implementazione di un tale sistema.

È importante notare che l’obiettivo di queste linee guida è quello di fornire un framework di regole a livello etico per assicurare che un sistema di intelligenza artificiale sia “affidabile”, intendendosi con il concetto di affidabilità il rispetto di una visione umano-centrica e dei diritti fondamentali dell’uomo.

Il documento, partendo proprio dai diritti fondamentali dell’uomo, individua alcuni principi e valori generali che devono essere rispettati per la realizzazione di un’intelligenza artificiale affidabile, principi che, per fare un parallelismo forse scontato, potrebbero essere prerequisiti etici delle tre famose leggi della robotica dettate da Asimov nel suo racconto “Essere razionale”.

Tali principi e valori sono:

  • Il principio di beneficenza (fai il bene): inteso come la necessità che un sistema di intelligenza artificiale sia progettato e sviluppato allo scopo di aumentare il benessere individuale e collettivo;
  • Il principio di non maleficenza (non fare il male): che implica che un’intelligenza artificiale non deve far del male all’essere umano, dovendo proteggere la sua dignità, libertà, privacy e sicurezza nella società ed al lavoro;
  • Il principio di autonomia (preservare l’agente umano): il rispetto dell’essere umano nel senso che non può essere subordinato o sopraffatto da un’intelligenza artificiale, essendo necessario che venga sempre rispettato il principio di auto-determinazione dell’uomo;
  • Il principio di giustizia (sii equo): nel contesto dell’intelligenza artificiale affidabile tale principio implica che devono essere evitate discriminazioni o pregiudizi, eliminando bias ed errori, assicurando il pari trattamento degli esseri umani;
  • Il principio di trasparenza (opera in maniera trasparente): che implica la possibilità di controllare il sistema decisionale di un’intelligenza artificiale, il quale deve essere comprensibile ed intellegibile per gli uomini di diversi livelli di esperienza e conoscenze.

Oltre a questi principi e valori le Linee Guida indicano anche dei requisiti specifici e concreti di un sistema di intelligenza artificiale. Si tratta di dieci requisiti – che possono essere anche modificati nel corso della consultazione pubblica – i quali sviluppano i cinque valori e principi generali indicando le modalità con cui deve essere realizzato un sistema di intelligenza artificiale. Tali requisiti pongono delle specifiche di implementazione affinché un sistema di intelligenza artificiale sia “etico by design” – ed infatti tra i metodi elencati vi è quello della “Ethics & Rule of law by design” – ossia risponda già, in sede di progettazione, a quei valori dettati nella prima parte delle Linee Guida. È importante notare che il Gruppo di lavoro individua metodi sia tecnici sia non tecnici per raggiungere lo scopo della creazione di un sistema conforme ai principi.

I metodi tecnici e non tecnici

Tra i metodi tecnici rientrano la progettazione delle architetture del sistema, la tracciabilità, le fasi di test e validazione, la “Ethics & Rule of law by design” e la possibilità di ottenere una spiegazione delle decisioni adottate. Nei metodi non tecnici sono comprese la regolazione, la standardizzazione, la governance dell’accountability, i codici di condotta, la formazione ed il dialogo tra le parti, compresa la diversità delle persone che fanno parte dei team di sviluppo.

Il documento termina con una vera e propria check list di assessment per coloro che vogliono realizzare un sistema di intelligenza artificiale affidabile, con una serie di quesiti volti ad esaminare ed approfondire in maniera operativa i vari principi e requisiti indicati nel documento.

La bozza delle Linee Guida, come accennato, sarà in consultazione per un breve periodo e definitivamente pubblicata a marzo 2019. Trattandosi, appunto, di Linee Guida etiche esse non possono avere efficacia vincolante per i Paesi dell’Unione Europea. Sicuramente però il documento assumerà fondamentale importanza nel momento in cui si dovranno adottare delle scelte di politica legislativa all’interno dell’Unione sul tema dell’intelligenza artificiale, come ad esempio le responsabilità ricollegate al suo uso ed i diritti dei cittadini, anche considerando il richiamo espresso ai diritti fondamentali dell’uomo.

L’approccio Usa

Se in Europa, quindi, l’approccio è del tipo top-down con le istituzioni che promuovono la costituzione di gruppi di esperti per poter individuare una serie di regole etiche e normative di questa nuova tecnologia, negli Stati Uniti è la società civile che sta maturando la necessità di una regolamentazione.

Ad ottobre del 2018 la Public Voice Coalition, che nasce in seno al centro di ricerca di pubblico interesse EPIC con sede a Washington, ha pubblicato le “Universal Guidelines for Artificial Intelligence” in cui sono presenti alcuni dei principi e requisiti che abbiamo già visto analizzando la bozza delle Linee Guida della UE, ma con l’aggiunta di ulteriori principi quali:

  • Identification Obligation” secondo cui l’ente che è responsabile del sistema di intelligenza artificiale deve essere reso noto al pubblico,
  • Prohibition on Unitary Scoring” sulla base del quale nessun governo nazionale deve istituire o mantenere un sistema generale di scoring sui cittadini o residenti,
  • Termination Obligation” per cui l’ente che utilizza un sistema di intelligenza artificiale deve avere un obbligo di arrestarne il funzionamento quando il controllo umano del sistema non è più possibile.

Ancor più rilevante la dichiarazione anticipata a giugno 2018 e ribadita a dicembre 2018, proveniente da una delle aziende più importanti dell’informatica mondiale. L’avvocato e presidente di Microsoft, Brad Smith, ha chiaramente ed espressamente dichiarato che è giunto il momento di introdurre una disciplina per i sistemi di riconoscimento facciale proprio per i pericoli che il loro utilizzo possono comportare in termini di sorveglianza massiva, di privacy delle persone, di discriminazione e pregiudizi, indicando anche alcuni principi che secondo la società dovrebbero essere adottati dai governi ai fini della regolazione.

L’Organizzazione delle Nazioni Unite a sua volta ha istituito una piattaforma, denominata “AI and Global Governance”, volta a favorire il confronto tra vari attori ed a supportare i Paesi membri nell’affrontare le tematiche inerenti all’intelligenza artificiale a livello mondiale.

L’impatto dell’IA su società e economia

Gli impatti che l’intelligenza artificiale ha sulla vita sociale ed economica delle persone possono essere vasti e di vario genere. Già oggi, secondo il Centro di Ricerca “AI Now” dell’Università di New York, la realizzazione ed utilizzo di un sistema di intelligenza artificiale, come un home assistant, richiede un uso massivo di risorse materiali ed umane, che vanno dall’estrazione e costruzione dei componenti necessari a realizzare l’hardware alla creazione e training di dataset su larga scala per consentire il riconoscimento delle interazioni vocali.

Già questi sistemi, sotto tale punto di vista, stanno creando dei lavoratori nascosti, chiamati “clickworkers” o “microworkers” – spesso collocati nei Paesi dell’Asia del Sud – che hanno il compito di classificare in maniera ripetitiva le informazioni contenute nei dataset necessari per addestrare le reti neurali su cui si basano i sistemi di riconoscimento vocale.

Un’automazione alimentata dall’essere umano, quindi, in cui appare quantomai necessaria una regolamentazione giuridica che imponga delle regole di progettazione ed implementazione nonché criteri di imputazione di responsabilità. È proprio con questa necessaria contestualizzazione che possiamo meglio comprendere l’importanza di una definizione di standard etici come quelli che l’Unione Europea si prepara ad approvare.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3