Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

rapporto CEPS

Intelligenza artificiale, quali politiche pubbliche per l’Europa

Nel rapporto “Artificial Intelligence: Ethics, Governance and Policy Challenges”, elaborato dal Ceps (Centre for European Policy Studies), un supporto conoscitivo e di analisi all’elaborazione della politica europea per l’AI. Ecco nel dettaglio le indicazioni su principi etici, regolazione, politica dei dati, ricerca

25 Mar 2019

Ginevra Bruzzone

Assonime, e School of European Political Economy, Luiss


L’Europa, come i principali Paesi del mondo, dagli Usa al Giappone, sta elaborando la propria strategia per lo sviluppo dell’intelligenza artificiale, la cui centralità per il futuro dell’Unione è stata ribadita recentemente dal Consiglio dei ministri Ue per la competitività e dal Consiglio europeo del 21 e 22 marzo.

In questo contesto si inserisce il Rapporto del Ceps (Centre for European Policy Studies) su “Artificial Intelligence: Ethics, Governance and Policy Challenges”, pubblicato in questi giorni e presentato oggi a Roma.

L’obiettivo è fornire un supporto conoscitivo e di analisi all’elaborazione della politica europea per l’AI.

Vediamo nel dettaglio le indicazioni contenute nel rapporto, molte delle quali, peraltro, possono essere utili anche per le strategie nazionali e costituire fonte di ispirazione al di fuori dell’Europa.

Strategie per l’AI e preoccupazioni etiche

Molti tra i maggiori paesi del mondo hanno adottato o stanno elaborando strategie per lo sviluppo e le applicazioni dell’intelligenza artificiale (AI, Artificial Intelligence): dal Giappone al Canada, dalla Cina all’India e alla Corea del Sud. In Russia il Presidente Putin ha dichiarato che l’AI rappresenta il futuro non solo per il suo paese ma per tutta l’umanità. Gli Stati Uniti stanno accompagnando i massicci investimenti delle loro imprese private con iniziative mirate volte a mantenere la leadership americana nell’AI.

Nell’Unione europea, una strategia ha cominciato a prendere forma nel 2018. In aprile la Commissione europea ha adottato una comunicazione su “L’intelligenza artificiale per l’Europa” e lo scorso dicembre ha pubblicato un piano di azione coordinato con gli Stati membri, richiedendo la definizione delle strategie nazionali per l’AI entro metà 2019.

Le potenzialità dell’intelligenza artificiale per migliorare i processi decisionali e produttivi sono ormai diffusamente riconosciute ed è chiaro che l’AI inciderà profondamente sulla vita dei cittadini, sui modelli di business e sul modo di operare delle pubbliche amministrazioni.

Già dalle attuali applicazioni è evidente l’impatto dirompente dell’AI in ambiti che vanno dal marketing dei prodotti al settore manifatturiero, dall’ agricoltura ai trasporti, dalla finanza sino all’energia, alla tutela dell’ambiente e alle politiche per la difesa e la sicurezza. Sul piano economico, nell’AI è riposta l’aspettativa di un contributo determinante alla crescita dell’economia globale nei prossimi anni.

Al tempo stesso, soprattutto nei paesi occidentali e in particolare in Europa, vi è il timore di sviluppi dell’intelligenza artificiale in contrasto con i valori fondamentali della nostra società.

Gli esperti sono pressoché unanimi nell’escludere, allo stato delle conoscenze, lo sviluppo della ‘intelligenza artificiale generale’, equiparabile in termini di coscienza e autodeterminazione all’intelligenza umana. Ma anche nell’ambito delle applicazioni della cosiddetta ‘narrow artificial intelligence’, che operano sulla base di istruzioni per il perseguimento di obiettivi specifici, se non si adottano accorgimenti adeguati vi sono rischi enormi per la tutela dei dati personali e la sicurezza delle persone, il possibile aumento delle diseguaglianze e le possibili discriminazioni, lo spiazzamento della forza lavoro, la salvaguardia della correttezza dell’informazione e persino quella delle istituzioni democratiche.

Una via per un nuovo umanesimo digitale

Così, numerose organizzazioni pubbliche e private stanno cercando di tracciare la via per un umanesimo digitale, in cui l’AI sia indirizzata a migliorare le condizioni di vita a supporto dell’uomo.

L’OCSE, ad esempio, è in procinto di pubblicare linee guida sull’AI da affiancare alle proprie linee guida sulla privacy. A livello europeo, la Commissione ha demandato a un High Level Expert Group sull’AI la predisposizione di linee guida etiche per l’intelligenza artificiale. Una bozza di queste linee guida è stata pubblicata lo scorso dicembre; la versione definitiva e un’ulteriore messa a punto della strategia europea per l’AI sono attesi prima dell’estate.

Gli obiettivi e l’impostazione del Rapporto CEPS

Il Rapporto, curato da Andrea Renda, è stato preparato da una task force internazionale composta da accademici, esperti del settore industriale, rappresentanti delle istituzioni europee e internazionali.

Il Rapporto è composto di due parti.

La prima parte affronta il tema dell’AI in generale, soffermandosi sui limiti e le potenzialità della tecnologia e identificando alcuni principi guida che dovrebbero ispirare la politica pubblica relativa allo sviluppo di un’AI umano-centrica.

La seconda parte del Rapporto guarda all’Europa, interrogandosi sul ruolo che può svolgere nella sfida per lo sviluppo dell’AI a livello globale. Il Rapporto propone una serie di ben quarantaquattro raccomandazioni per la definizione delle linee guida etiche e per la messa a punto della strategia europea. Soprattutto, dato che le dichiarazioni di principio sono suggestive ma spesso risulta difficile tradurle in concrete linee di azione, il Rapporto Ceps propone un modello per collegare i principi etici, le scelte legislative e le politiche attive di sostegno alla trasformazione.

L’AI come complemento dell’attività umana

Il Ceps riprende la definizione di intelligenza artificiale elaborata dall’High Level Expert Group europeo: si tratta di “sistemi che dispiegano un comportamento intelligente analizzando l’ambiente esterno e adottando azioni, con un qualche margine di autonomia, per perseguire specifici obiettivi”.

I sistemi di AI possono essere incentrati sul software e agire nel contesto virtuale (come nel caso degli assistenti vocali, dei software per l’analisi delle immagini, dei motori di ricerca e dei sistemi di riconoscimento facciale o del linguaggio), oppure essere incorporati in hardware, come nel caso della robotica avanzata, dei veicoli a guida autonoma, dei droni o delle applicazioni dell’Internet of Things.

Trattandosi di soluzioni che sono sempre inserite all’interno di un sistema IT, per lo sviluppo dell’AI occorre che vi siano anche gli altri elementi necessari per il buon funzionamento del sistema (connettività, dati, hardware), in un contesto istituzionale favorevole agli investimenti e all’innovazione.

Se, in aggiunta, si vuole assicurare che l’AI esplichi le sue potenzialità al servizio del bene comune, il Ceps indica che occorre anzitutto che l’AI sia sempre vista come un complemento, e non come un sostituto, dell’attività umana. Inoltre, bisogna responsabilizzare tutti i soggetti coinvolti dal lato dell’offerta affinché i sistemi di AI siano disegnati e utilizzati in modo da mitigare i rischi. Infine, l’AI dovrebbe essere per quanto possibile orientata al perseguimento degli obiettivi dello sviluppo sostenibile indicati dalle Nazioni Unite, in particolare con riferimento ai profili sociali e alla salvaguardia dell’ambiente.

Classificazione dei principi etici e impostazione dell’azione pubblica

Partire dai valori europei e dall’obiettivo di un’AI umano-centrica, responsabile e sostenibile non basta. Occorre evitare due rischi tra loro opposti: da un lato, quello di fermarsi alle dichiarazioni di massima, senza un seguito operativo; dall’altro, quello dell’iper-regolazione. La via d’uscita, in linea con le indicazioni del Ceps, consiste nel fissare un chiaro ordine di priorità tra i principi etici, secondo una gerarchia.

Il Rapporto identifica, in particolare, tre livelli di principi.

Il primo livello è quello dei principi fondamentali. Gli sviluppi e gli utilizzi dell’AI che contrastano con questi principi devono essere ritenuti incompatibili con i valori europei ed essere quindi vietati dall’ordinamento giuridico. Il Rapporto richiama in particolare il principio del ‘neminem laedere’, la protezione dell’integrità umana, della sicurezza e della privacy, il diritto di non essere ingiustificatamente discriminati, la protezione della libertà e del processo democratico.

Il secondo livello riguarda i principi per lo sviluppo di un’AI responsabile, che non hanno un valore universale ma vanno promossi in specifiche situazioni. Tra questi principi di secondo livello il Rapporto include ad esempio il principio del controllo da parte dell’uomo (human in the loop) e quello della trasparenza e della possibilità di spiegare i criteri di funzionamento dell’AI. Le modalità vanno declinate a seconda del contesto: ci sono ambiti, quali la medicina o la giustizia, in cui l’intervento umano va sempre salvaguardato. Anche per i veicoli a guida autonoma, al momento, non appare eliminabile un controllo da parte dell’uomo. E’ chiaro, invece, che l’approccio può essere diverso per molte applicazioni dell’AI ai processi di automazione in ambito industriale.

Il terzo livello riguarda i principi per l’AI sostenibile, in linea con gli obiettivi di medio termine dell’agenda europea. Il rispetto di questo terzo più ambizioso insieme di principi può essere richiesto, ad esempio, in particolari contesti, quali il public procurement e l’attività delle pubbliche amministrazioni.

A ciascuna delle tre categorie di principi corrispondono, quindi, diverse modalità di intervento pubblico.

In base ai principi fondamentali, vanno ad esempio considerate incompatibili con l’ordinamento europeo le armi letali autonome e ogni soluzione che deleghi agli algoritmi scelte attinenti alla vita o alla morte delle persone.

Vi sono fattispecie problematiche o borderline (quali ad esempio la vigilanza predittiva, il social credit scoring, il riconoscimento facciale non strettamente circoscritto) per cui può essere più complesso definire i confini tra il lecito e l’illecito. Il modo di procedere può essere quello di testare gli scenari regolatori con esperimenti pilota in contesti controllati (regulatory sandboxes).

Del resto, per forza di cose le linee guida europee per l’AI dovranno essere un documento vivente, da integrare e aggiornare sulla base dell’esperienza.

Delineato questo approccio, il Rapporto Ceps suggerisce che le linee guida europee indichino a tutti i soggetti coinvolti, dal lato dell’offerta, nello sviluppo dell’AI accorgimenti e best practices per ridurre i rischi connessi a specifici impieghi dell’intelligenza artificiale e forniscano indicazioni sugli ambiti in cui possono essere appropriate tecniche quali il deep learning senza supervisione.

A complemento di questa impostazione occorre educare gli utilizzatori finali a cosa devono attendersi dall’impiego di sistemi AI, rendendoli consapevoli dei loro diritti e del modo in cui farli valere.

La better regulation per l’AI

Il Ceps ha lavorato molto in passato sui temi della better regulation e si chiede se i problemi sollevati dall’AI richiedano un ripensamento degli strumenti tradizionali. Per l’AI non basta un’analisi costi benefici, ma occorre un’analisi ‘multicriteri’ delle opzioni di regolazione, per assicurare un elevato livello di protezione dei diritti fondamentali e per tenere conto degli obiettivi addizionali di un’AI antropocentrica e sostenibile.

Più in generale, i cardini delle scelte normative europee per una regolazione del settore adeguata e non eccessivamente invasiva dovrebbero includere l’analisi dei rischi e il rispetto del principio di proporzionalità. In particolare, prima di introdurre nuove regole in aggiunta a quelle esistenti, si dovrebbe provare la via dell’autoregolazione controllata (monitored self-regulation), con il sostegno degli Stati membri e dei soggetti che aderiscono alla piattaforma AI Alliance.

La responsabilità per danni

Rispetto al tema controverso delle regole sulla responsabilità per danni derivanti da prodotti o servizi che applicano l’AI, non occorre uno stravolgimento ma solo un adattamento delle regole esistenti. Secondo il Ceps, nei rapporti con i consumatori la responsabilità dovrebbe essere presunta, senza la necessità di dimostrare caso per caso la sussistenza della colpa, e occorre individuare a quale livello della catena produttiva debba rivolgersi il soggetto danneggiato, secondo un approccio basato sull’one stop shop. Resta da chiarire come gestire le ipotesi in cui più sistemi di AI abbiano contributo all’evento dannoso.

In ogni caso, il futuro sistema di responsabilità andrà accompagnato da adeguati regimi di assicurazione, che per le PMI potrebbero eventualmente prevedere forme di sostegno pubblico.

La politica dei dati

Tra le politiche complementari cruciali per lo sviluppo dell’AI, un ruolo centrale spetta alla politica dei dati. L’AI richiede infatti, per operare, grandi quantità di dati aperti, di buona qualità e in formati interoperabili.

Su questo fronte, il Rapporto Ceps riconosce che le misure già adottate nell’ambito della Strategia europea per il mercato unico digitale, tra cui il regolamento sulla libera circolazione dei dati e la revisione della direttiva sull’accesso all’informazione nel settore pubblico (PSI Directive), vanno nella giusta direzione.

Per i dati personali, il quadro giuridico europeo per la tutela dei dati personali posto dal GDPR costituisce un forte presidio per orientare l’AI in direzioni compatibili con i diritti della persona.

Al contempo, l’impostazione del GDPR pone alcune sfide che, se non affrontate, potrebbero frenare ingiustificatamente le sperimentazioni nel settore dell’AI ed il loro potenziale positivo in termini di innovazione.

In particolare, in base al diritto europeo non basta avere una base giuridica (ad esempio, il consenso) per il trattamento dei dati personali, occorre rispettare anche il principio di minimizzazione del trattamento dei dati. Questo principio, se interpretato in senso restrittivo, limita fortemente le possibilità di utilizzo dei dati. Il Rapporto Ceps auspica quindi investimenti a livello europeo per lo sviluppo e la standardizzazione nell’ambito della privacy by design e delle tecnologie privacy-enhancing. Queste iniziative, tuttavia, possono solo mitigare, sia pure in misura importante, ma non eliminare del tutto il problema.

Per l’accesso ai dati raccolti dalle imprese, il Ceps aderisce alla linea del pacchetto europeo dell’aprile 2018. Quindi, ferme restando le regole di concorrenza per le imprese in posizione dominante, viene posta al centro la libertà contrattuale nel rispetto di alcuni principi, in primis di trasparenza.

Esistono a livello europeo in alcuni settori (per i servizi di pagamento, nel settore dei trasporti e in quello dell’energia) alcuni obblighi specifici in termini di accesso ai dati detenuti dalle imprese. Il Ceps osserva che la condivisione dei dati tra diversi soggetti potrebbe essere utile anche in altri ambiti per risolvere specifici problemi collettivi. Per questi ulteriori ambiti, la strada che viene suggerita è non tanto quella di ulteriori interventi di regolazione quanto quella della promozione di piattaforme di data sharing su base volontaria.

Politica industriale e catalizzatori per la leadership europea

Secondo il Ceps l’Unione europea deve puntare a una posizione di leadership a livello globale per l’AI in specifici settori in cui può avere un vantaggio competitivo (industria manifatturiera, trasporto, sanità, finanza). In questi ambiti occorre un’adeguata strategia di politica industriale per ciascuna delle fasi della catena del valore (infrastrutture, dati, competenze, applicazioni, servizi).

Per realizzare la propria strategia l’Unione europea deve riuscire ad attrarre i migliori ricercatori ma è difficile proporre offerte competitive sul piano della remunerazione economica con quelle delle grandi imprese private del settore. Proprio il focus europeo su un’AI rispettosa dei valori umani e volta agli obiettivi dello sviluppo sostenibile può risultare un fattore di attrattiva che potrebbe motivare dei giovani a lavorare per l’AI nel contesto europeo.

Nella parte dedicata alla politica della ricerca e alla politica industriale, il rapporto del Ceps auspica la creazione di enti o insiemi di enti che fungano da catalizzatori per lo sviluppo dell’AI in Europa.

Per la ricerca sull’AI vi sono molti centri di eccellenza, ma sarebbe utile un ‘CERN per l’AI’. Sulla stessa linea ma in una prospettiva più ampia, servirebbe un catalizzatore per la politica relativa all’intero ecosistema dell’IT (‘Missione IT’), con il compito di monitorare gli sviluppi, promuovere il coordinamento delle iniziative e indicare linee di azione ai decisori pubblici europei ai fini della messa a punto dell’Agenda europea per il 2030. Questo secondo catalizzatore dovrebbe tenere conto di tutte le dimensioni della politica della trasformazione digitale, quindi non solo dei profili tecnologici e relativi alle competenze, ma anche degli aspetti etici e degli obiettivi dello sviluppo sostenibile.

Presentazione del Rapporto CEPS, Roma 25 febbraio

Il Rapporto Ceps è stato presentato a Roma presso Assonime lunedì 25 marzo. Al workshop hanno partecipato il curatore del Rapporto, Andrea Renda, il sottosegretario del Ministero dello sviluppo economico Andrea Cioffi, Paolo Benanti (Università Gregoriana), Rita Cucchiara (Università di Modena e Reggio Emilia), Pierluigi Dal Pino (Microsoft), Daniele De Paoli (Garante privacy) e Stefano Quintarelli (Comitato di indirizzo Agid).

@RIPRODUZIONE RISERVATA

Articolo 1 di 4