LO SCENARIO

Intelligenza artificiale, i punti sul tavolo per la strategia europea

Quadro giuridico e strategie per lo sviluppo di un ecosistema antropocentrico della AI. Sono i temi della consultazione pubblica voluta dalla Commissione Ue cui hanno partecipato gli stakeholder mondiali. Dalle big tech alle no profit, ecco i nodi più caldi e le contrapposizioni politico-economiche in campo

24 Giu 2020
Barbara Calderini

Legal Specialist - Data Protection Officier


Tecnologia al servizio delle persone, economia digitale equa e competitiva; sostegno a una società aperta, democratica e sostenibile.

È su questi tre cardini che l’Europa sta da tempo confrontandosi per lanciare una strategia sull’Intelligenza artificiale. Possiamo avere un’idea più chiara guardando le posizioni emerse nel corso della consultazione pubblica sulla strategia e pubblicate nei giorni scorsi.

Digital Future e Libro bianco

La consultazione è partita il 19 febbraio 2020, in occasione della pubblicazione da parte della Commissione europea del suo Libro bianco sull’intelligenza artificiale: un approccio europeo all’eccellenza e alla fiducia (unitamente ad un un report sulle implicazioni nel campo della sicurezza e della responsabilità civile dell’intelligenza artificiale, della robotica e dell’internet delle cose).

Una convinta esortazione che ha voluto fare  da eco alle dichiarazioni di intenti che espongono la visione audace e ambiziosa della Commissione di avanzare e regolare l’IA e che si traducono in un disegno tanto impegnativo quanto l’alto obiettivo che si propongono di centrare.

Il piano nel suo complesso, noto come Shaping Europe’s digital future, comprende il White Paper. Ed anzi questo ne costituisce la leva strategica principale andando ad incidere profondamente sulla sfera riguardante il delicato rapporto sussistente tra intelligenza artificiale e il suo impatto sociale.

Tre promesse ne costituiscono i punti salienti:

  • Favorire lo sviluppo di tecnologie al servizio delle persone
  • Promuovere lo sviluppo di una economia digitale equa e competitiva
  • Garantire il sostegno a una società aperta, democratica e sostenibile

Plasmare il futuro digitale dell’Europa all’interno di un ecosistema che sia contemporaneamente di eccellenza e di fiducia e consentire in tal modo che i benefici promessi “dall’artificiale”, per la crescita economica europea, per lo sviluppo sociale, nonché per il benessere umano e il miglioramento della sicurezza, si realizzino, rappresentano, nel complesso programma europeo, gli elementi cruciali della sfida da affrontare e altresì l’irriunciabile opportunità da cogliere.

Tuttavia tante sono ancora le domande che rimangono senza risposta.

La consultazione pubblica si è conclusa il 14 giugno scorso.

Tanti hanno accolto con favore l’invito della Commissione, complici anche le forti preoccupazioni sorte tra le aziende che sviluppano o implementano soluzioni di intelligenza artificiale, alimentate dai pesanti dubbi su quanto e in che modo le nuove regole preannunciate sull’IA potrebbero avere un impatto negativo sulla loro libertà d’impresa e di innovazione, specie di fronte alla concorrenza proveniente dai temibili competitors di Stati Uniti, Cina e oltre.

Proprio nello stesso momento, in America, l’ecosistema di fiducia legato alle applicazioni tecnologiche, subisce un primo rilevante scossone: Microsoft, IBM e Amazon rendono infatti note le loro intenzioni di negare, per un periodo di tempo più o meno determinato, l’uso dei loro sistemi di riconoscimento facciale da parte delle forze dell’ordine statunitensi, nell’attesa dei necessari adeguamenti normativi imposti dalle peculiarità e dalle implicazioni delle relative applicazioni. E, in Europa, il Garante europeo della protezione dei dati adotta il Parere 3/2020 datato 16 giugno 2020, sulla strategia europea per i dati.

La discussione è dunque aperta a livello globale e in pieno fermento.

Analizzeremo di seguito le risposte più rappresentative emerse dalla consultazione pubblica evidenziandone gli aspetti maggiormente critici e rappresentativi delle singole visioni.

Prima, però, un breve richiamo agli elementi chiave emersi dal Libro Bianco, si rivelerà utile al fine di cogliere le tante sfumature che caratterizzano l’attuale contesto tecnologico e digitale nel quale la discussione si inserisce.

Elementi chiave del Libro Bianco

Il White Paper del 19 febbraio, ponendosi in continuità sia con gli intenti già palesati nelle Linee guida etiche del gruppo di esperti di alto livello sull’intelligenza artificiale dell’8 aprile 2019 (a loro volta già soggette a consultazione aperta) che con l’European strategy for AI del 2018, evidenzia sin da subito un approccio binario piuttosto complesso: antropocentrico, secondo cui l’intelligenza artificiale deve essere sempre messa al servizio delle persone e non viceversa, e normativo insieme.

Un punto di vista, dunque, incentrato sull’uomo, sui diritti fondamentali, sulla protezione dei consumatori, le norme sulla sicurezza e la responsabilità dei prodotti e avente inoltre anche una portata extraterritoriale, a sua volta reso attuabile attraverso attraverso l’introduzione, in una vasta gamma di settori, di una legislazione europea, simile al Regolamento generale sulla protezione dei dati (GDPR), che sebbene non parta da zero, si ponga come base legale maggiormente pertinente, vincolante e coordinata sui temi delle implicazioni umane ed etiche dell’IA. Agli Stati membri, già portatori di piani di azione e strategie nazionali di intelligenza artificiale (quella italiana risale al marzo 2018), viene richiesto a tal fine un grosso impegno di collaborazione e partecipazione in ottica di visione condivisa e armonizzazione normativa.

Un duplice approccio antropocentrico e normativo al quale corrisponde un duplice obiettivo: favorire il rapido sviluppo di un ecosistema digitale sia di fiducia che di eccellenza. Un ambiente in cui la sinergia tra pubblico e privato si ponga tanto in termini di innovazione quanto di senso di sicurezza nei confronti dell’IA, grazie anche alla previsione di adeguate risorse finanziarie – l’obiettivo è arrivare a 20 miliardi di euro all’anno per i prossimi 10 anni – e regolamentari lungo tutta l’intera catena del valore.

Liceità (rispetto di tutte le leggi e i regolamenti applicabili), etica (rispetto dei principi e dei valori etici) e affidabilità (sia dal punto di vista tecnico che tenendo conto del suo ambiente sociale) sono, dunque, gli elementi cardine della strategia europea per l’IA che ne dovrà derivare.

I punti cruciali secondo la Commissione

Un programma che possiamo già delineare attraverso le parole dei suoi massimi sostenitori istituzionali: “Oggi presentiamo la nostra ambizione per plasmare il futuro digitale dell’Europa. Copre tutto, dalla sicurezza informatica alle infrastrutture critiche, educazione digitale alle competenze, democrazia ai media. Voglio che l’Europa digitale rifletta il meglio dell’Europa – aperto, giusto, diversificato, democratico e fiducioso”. “L’intelligenza artificiale deve servire le persone e non interferire con i diritti delle persone”. “Vogliamo trovare soluzioni europee nell’era digitale” Così il presidente della Commissione, Ursula von der Leyen nel corso della presentazione del Libro Bianco.

Premesse che specifica ulteriormente il vicepresidente esecutivo di A Europe Fit for the Digital Age and Competition, Margrethe Vestager “Vogliamo che ogni cittadino, ogni lavoratore, ogni azienda abbia la giusta possibilità di trarre vantaggio dalla digitalizzazione. Che ciò significhi guidare in modo più sicuro o inquinare meno grazie alle auto connesse; o persino salvando vite umane con immagini mediche basate sull’intelligenza artificiale che consentono ai medici di rilevare malattie come mai prima d’ora”. “L’intelligenza artificiale non è buona o cattiva in sé”. “Tutto dipende dal perché e da come viene utilizzata”.

E che vengono enfatizzate anche dal commissario per il mercato interno, Thierry Breton il quale non nasconde il proprio ottimismo: “La nostra società sta generando un’enorme ondata di dati industriali e pubblici, che trasformeranno il modo in cui produciamo, consumiamo e viviamo. Vorrei che le grandi imprese europee e le nostre numerose PMI potessero accedere a questi dati e creare valore per gli europei – anche sviluppando applicazioni di intelligenza artificiale. L’Europa ha tutto il necessario per guidare la gara ‘big data’, e preservare la sua sovranità tecnologica, la propria leadership industriale ed economica, assicurando competitività a beneficio dei consumatori europei”.

Un’impostazione che è stata condivisa anche dal Garante Europeo Wojciech Wiewiórowski. Nel recente Parere 3/2020 sulla strategia europea per i dati il Garante, soffermandosi sul basilare concetto di “disponibilità di dati per il bene pubblico”, ne evidenzia i numerosi aspetti di pregio pur richiamando l’attenzione verso il rispetto dei principi di protezione dei dati by design e by default e auspicando il celere completamento dell’intero quadro regolamentare, e-privacy compreso.

Obiettivo: approccio basato sul rischio

E dunque, in vista dell’atteso quadro giuridico europeo, che dovrà integrare o emendare le normative già esistenti e che si preannuncia come centrato sul rispetto dei principi fondamentali, basato sul rischio e dedicato in particolar modo e in senso maggiormente rigoroso e pertinente ai “sistemi di intelligenza artificiale definiti ad alto rischio” – tra questi la tecnologia di riconoscimento facciale in ambito pubblico e di sicurezza pubblica – il White Paper intende porre l’attenzione sui seguenti percorsi di azione:

  • incoraggiare e semplificare le sinergie tra gli eccellenti centri di innovazione e le promettenti start up innovative europee (nel campo della robotica applicata al mondo della produzione, l’automotive, la sanità, l’energia, i servizi finanziari e l’agricoltura) attraverso la valorizzazione dell’importante infrastruttura informatica di cui si dispone;
  • perseguire un approccio uniforme ancorché settoriale e basato sul rischio, ridurre la frammentazione attravero la creazione di appositi centri di competenza e di sperimentazione per applicazioni di intelligenza artificiale;
  • utilizzare l’accesso all’enorme mercato europeo come leva per diffondere l’approccio dell’UE alla regolamentazione dell’IA in tutto il mondo.
  • rafforzare la cooperazione tra gli Stati membri riprendendo quanto già la Commissione aveva previsto nel piano coordinato per promuovere lo sviluppo e l’uso dell’AI in Europa del 2018 (qualcosa come 70 azioni congiunte);
  • favorire la collaborazione internazionale attraverso il coinvolgimento dell’UE nello sviluppo dei principi etici di organzizzazioni quali OCSE e ONU. Sul punto merita di essere evidenziato l’avvio del progetto internazionale Global Partnership on Artificial Intelligence – GPAI. Un Partenariato Globale sull’Intelligenza artificiale per sostenere lo sviluppo di un’AI responsabile ed inclusiva, e un utilizzo coerente con i diritti umani, le libertà fondamentali e i valori democratici condivisi, come indicato dalla Raccomandazione OCSE sull’IA. Un’iniziativa di cui fa parte anche l’Italia oltre a Australia, Canada, Francia, Germania, India, Giappone, Messico, Nuova Zelanda, Repubblica di Corea, Singapore, Slovenia, Regno Unito, Stati Uniti d’America, e l’UE.
  • sostenere le iniziative di informazione e formazione dei cittadini e di sviluppo delle competenze;
  • promuovere un piano di inclusione e accesso alle soluzioni di IA in settori e organizzazioni specie di piccole e medie dimensioni come nella pubblica amministrazione (Sanità, trasporti, servizi di pubblica utilità, infrastrutture e altri settori di interesse pubblico);
  • espandere gli investimenti in tecnologie ed infrastrutture di nuova generazione nella ricerca, nello sviluppo e nella distribuzione dell’IA;
  • garantire l’accesso sicuro ai dati e alle infrastrutture;
  • identificare in anticipo settori e applicazioni ad alto rischio, incluso il software di riconoscimento facciale;
  • stabilire nuovi strumenti giuridici, che in modo similare a quanto previsto dalla direttiva canadese sul processo decisionale automatizzato e la proposta Algorithmic Accountability Act del 2019, introducano specifiche procedure di valutazione di conformità preliminare, di collaudo e ispezione della certificazione di algoritmi e set di dati dei sistemi opernati nei settori ritenuti ad alto rischio come l’assistenza sanitaria, i trasporti, la polizia, il reclutamento e il sistema legale o che prevodono utilizzi delle corrispondenti applicazioni tali da comportare rischi significativi quali il pericolo di morte, danni o lesioni o con conseguenze legali, piuttosto che di etichettatura volontaria per quelli non altrettanto invasivi e impattanti.

Il nodo del riconoscimento facciale

“I sistemi di intelligenza artificiale ad alto rischio, come il riconoscimento facciale, dovranno essere trasparenti, tracciabili e garantire il controllo umano in settori sensibili come “salute, polizia e trasporti“. Così la Commissione Ue che aggiunge: “Questi sistemi possono comportare rischi, per questo è essenziale costruire fiducia con “regole chiare” per le applicazioni “ad alto rischio” che dovranno essere “conformi alle norme europee”. Il riconoscimento facciale è tra i sistemi di intelligenza artificiale ad alto rischio, “il suo uso è generalmente proibito” e ammesso “solo in casi eccezionali, debitamente giustificati e proporzionati, soggetti a garanzie e basati sul Diritto dell’Unione o nazionale”. L’esecutivo Ue intende avviare un ampio dibattito su quale eventuali circostanze potrebbero giustificare tali eccezioni”.

Il Libro Bianco sull’IA rappresenta uno dei due pilastri che, insieme a quello costituito dalla creazione di un mercato unico dei dati, fungono da strutture portanti della strategia digitale dell’UE per il periodo 2020-2025. Le aspettative sono alte e la consultazione ne ha dato prova riscuotendo notevole interesse e partecipazione.

Gli esiti della consultazione

Aziende tra cui Facebook, Microsoft, Google, amministrazioni pubbliche, sviluppatori e fornitori di IA, università, cittadini e altre organizzazioni hanno colto l’opportunità di esprimere le proprie opinioni sulle importanti questioni sollevate nel Libro bianco sull’intelligenza artificiale.

Di seguito ne passiamo in rassegna alcune tra le più rappresentative delineando gli aspetti centrali delle singole risposte, cercando di coprire l’intero spettro degli attori coinvolti, alcuni più orientati alla promozione e alla maggiore definizione degli aspetti pratici e tecnici, ed altri fortemente schierati in favore dell’ecosistema di fiducia e di affidabilità a garanzia del rispetto dei diritti umani ritenuto prioritario rispetto alle esigenze di competitività del tessuto economico.

Facebook: servono più certezze

16 LUGLIO ore 17.00
TELCO PER L'ITALIA: Next generation network, fra Intelligenza Artificiale e Machine Learning
Telco
Banda larga

Non poteva mancare il benvenuto, all’invito della Commissione, del social network più famoso del mondo che, non a caso, si dichiara quanto mai desideroso di collaborare al futuro della governance dell’IA, potendo già contribuire con la sua divisione dedicata alla ricerca e allo sviluppo chiamata “Facebook AI Research (FAIR)”.

Dopo una “calorosa” premessa sull’impegno profuso da Facebook in ambito di IA e sviluppo etico e sostenibile (da leggere ed interpretare con una buona dose di analisi critica), il contributo si concentra su due raccomandazioni ben selezionate:

La prima: la Commissione dovrebbe prevedere una definizione chiara del concetto di “intelligenza artificiale ad alto rischio”. La domanda su cosa possa essere definito l’IA ad alto rischio, per Facebook, deve trovare una risposta certa e dai contorni ben delineati.

In pratica un sollecito affinché le istituzioni abbandonino atteggiamenti vaghi e fumosi e siano invece precise nella definizione di “IA” e nell’individuazione di quali settori e sottosettori questa possa essere considerata ad alto rischio, quale pre-condizione per l’applicazione di normative maggiormenti strigenti e rigorose.

La seconda. Raccomanda di mantenere il necessario allineamento normativo tra GDPR e i costituendi quadri regolatori destinati all’IA. Ciò “per fornire maggiore chiarezza legale, evitare duplicati di regolamentazione e garantire un approccio proporzionato a questi nuovi problemi”. In particolare in tema di valutazioni di impatto preventive ed obbligatorie per sistemi ad alto rischio.

Prosegue poi con una serie di ulteriori specifici interrogativi relativi agli aspetti delineati nel Libro bianco e alla loro compatibilità con altri obblighi legali che, oltre alla protezione dei dati coinvolgono la materia della proprietà intellettuale. Emergono anche le preoccupazioni di tipo pratico, che suonano piuttosto sibilline: oltre al mancato coordinamento tra normative che incidono sovraponendosi sui medesimi ambiti, anche le difficoltà per gli sviluppatori legate all’applicabilità delle nuove regole con riferimento ai sistemi già in produzione, all’aumento dei costi della conformità per le aziende.

“Ci sono molte difficili domande che ci aspettano e siamo ansiosi di collaborare per poter rispondere, sia nel contesto di questo dialogo legislativo sia in altri forum” conclude il contributo.

Access Now: alzare la guardia sui rischi

L’organizzazione no-profit dedicata alla creazione e protezione dei diritti umani nell’era digitale, attiva in 13 paesi del mondo, Europa compresa, ha contribuito alla consultazione pubblica suggerendo sei raccomandazioni fondamentali.

Tutte sono ispirate al rispetto dei valori esistenti sanciti dai Trattati e dalla Carta dei diritti fondamentali dell’UE e tese a promuovere un approccio regolatorio verso l’IA basato sui diritti umani prima ancora che sul rischio.

  • Non promuovere la diffusione indiscriminata dell’intelligenza artificiale
  • Attuare un approccio basato sui diritti e valutazioni obbligatorie dell’impatto sui diritti umani sia nel settore pubblico che privato
  • Vietare le applicazioni tecnologiche incompatibili con i diritti fondamentali come quelle che basano la relative predizioni algoritmiche sull’uso della biometria e che si prestanoa forme di sorveglianza di massa
  • Istituire centri nazionali di competenza AI per favorire la migliore comprensione da parte delle istituzioni e dei regolatori
  • Istituire, nel settore pubblico e in alcuni casi anche privato, specifici registri pubblici per i sistemi AI/ADM- automated decision-making, in ottica di trasparenza e affidabilità e chiara definizione delle responsabilità.
  • Applicare elevati standard scientifici nella verificazione delle soluzioni e validazione dei processi in cui le soluzioni di IA si inseriscono.

“Il Libro bianco non considera due punti chiave: in primo luogo, che non tutti i casi di implementazione dell’IA sono compatibili con i diritti fondamentali; in secondo luogo, che i sistemi basati sull’intelligenza artificiale non sono sempre la soluzione migliore per un dato dato problema. In effetti, mentre i sistemi di intelligenza artificiale hanno certamente il potenziale per aumentare l’efficienza e migliorare aspetti della nostra vita, i loro benefici devono essere valutati caso per caso e sostenuti da prove. Se e quando l’IA si dimostrasse compatibile con i nostri diritti e libertà evidenziando i vantaggi di tanto, solo allora dovrebbe essere promossa e consentita. Quando è vero il contrario, e si verifica una minaccia per i nostri diritti e le nostre libertà o mancano prove di reali benefici, l’UE dovrebbe opporsi attivamente alla sua diffusione”, riporta il relativo documento.

AlgorithmWatch: centri di competenza ad hoc

L’organizzazione non profit di ricerca e advocacy, impegnata nella valutazione e nella diffusione di processi decisionali algoritmici di rilevanza sociale, risponde alla Commissione chiedendo l’istituzione di rigorosi meccanismi di trasparenza che possano consentire il controllo pubblico e la contestazione delle decisioni.

Tra questi, l’istituzione di registri pubblici sui sistemi ADM – Automated Decision Making; la previsione di specifici rimedi per la contestazione; la costituzione di centri di competenza indipendenti su AI/ADM; e quadri di accesso ai dati che siano solidi e giuridicamente vincolanti per supportare e consentire la ricerca di interesse pubblico.

Una serie di misure che viene ritenuta estremamente utile al fine mitigare i rischi insisti nelle applicazioni di IA abilitate da sistemi ADM che, ad oggi, rimangono “scatole nere” per il pubblico, inibendo sin dall’inizio qualsivoglia forma di contestazione.

Una netta esortazione verso la realizzazione di un ecosistema che sia prima di tutto antropocentrico e trasparente, dove dare la priorità all’interesse pubblico, alla tutela dei diritti individuali, alla non discriminazione e alla parità di accesso alle risorse e dove la competitività non assurge a priorità assoluta degli intenti palesati nel Libro Bianco.

Viene sottolineata anche la necessità di apportare doverosi chiarimenti alla definizione di approccio basato sul rischio specificando precisi criteri volti ad identificare quando l’IA o un sistema ADM possa avere un impatto significativo su un individuo, un gruppo specifico o una società in generale, anche solo potenziale.

Suggerisce a tal fine tre parametri:

  • valutare il potenziale impatto che un sistema ADM ha sulle possibilità di vita e sulla partecipazione sociale delle persone;
  • il numero di persone interessate da una decisione presa da un sistema ADM;
  • verificare se le decisioni si basano o meno sulla correlazione o sulla causalità poichè le decisioni basate sulla correlazione suscitano ovviamente maggiori preoccupazioni.

E quattro raccomandazioni tese allo sviluppo di sistemi trasparenti e contestabili:

  • Allineandosi alle richieste di Access Now richiede di istituire con espressa previsione normativa cogente dei registri pubblici per i sistemi ADM utilizzati nel settore pubblico e anche privato, quando un sistema AI/ADM avesse un impatto significativo su un individuo, un gruppo specifico o società in generale. Le informazioni dovrebbero inoltre essere quanto mai comprensibili ed accessibili.
  • Prevedere specifici rimedi di contestazione delle decisioni algoritmiche, accessibili, convenienti ed efficaci , garantiti attraverso l’effettivo esercizio dei diritti degli interessati e la salvaguardia di requisiti di trasparenza dei meccansimi di apprendimento automatico e di analisi inferenziale.
  • Istituire centri di competenza indipendenti su AI/ADM, ovvero organizzazioni indipendenti e senza potere regolatorio che, a livello nazionale, possano monitorare, valutare, condurre ricerche, riferire e fornire consulenza al governo e all’industria in coordinamento con i regolatori, la società civile e il mondo accademico circa le implicazioni per la società e i diritti umani dell’uso dei sistemi AI/ADM. Un ruolo dunque centrale di stimolo e coordinamento.
  • Introdurre quadri di accesso ai dati legalmente vincolanti e declinati nel contesto delle normative già esistenti, per supportare e consentire la ricerca di interesse pubblico e dunque a disposizione di ricercatori indipendenti, giornalisti e organizzazioni della società civile impegnati in tal senso.

L’elaborato si conclude con un rammarico per il cambio di marcia contenuto nella versione definitiva del Libro Bianco rispetto alla bozza iniziale quanto al divieto di “utilizzare la tecnologia di riconoscimento facciale da parte di attori pubblici o privati, negli spazi pubblici […] per un periodo definito (ad esempio 3-5 anni) durante il quale una solida metodologia per la valutazione gli impatti di questa tecnologia e le possibili misure di gestione dei rischi potrebbero essere identificati e sviluppati”.

“I sistemi ADM basati su tecnologie biometriche, incluso il riconoscimento facciale, rappresentano una minaccia particolare e seria per l’interesse pubblico e i diritti fondamentali in quanto aprono la strada alla sorveglianza di massa indiscriminata” osserva AlgorithmWatch.

Microsoft: affidarsi a normative esistenti

Cinque i suggerimenti provenienti dall’azienda creata da Bill Gates e Paul Allen.

  • Incentivare l’adozione di standard e procedure di governance per rendere operativa l’IA affidabile. Favorire procedure di trasparenza sui limiti e sui rischi insiti nell’uso di qualsiasi sistema di intelligenza artificiale: su base preferibilmente volontaria ma anche cogente se necessario, almeno per i casi d’uso ad alto rischio.
  • Promuovere gli usi positivo dell’IA sottraendoli alla contaminazione delle logiche di mercato più abusate e a discapito di sicurezza ed affidabilità.
  • Operare una giusta differenziazione tra i diversi tipi di danno potenzialmente riconducibili ai rischi per la sicurezza e i diritti fondamentali, prevedendo regole e regimi di conformità diversi.
  • Chiarire quali requisiti si applicano a quali attori (ad esempio sviluppatori, implementatori o altri utenti finali) e definire un quadro di responsabilità preciso.
  • Affidarsi per quanto possibile ai quadri regolatori esistenti senza trascurare però i giusti interventi di adeguamento o integrazione laddove ciò si rivelasse necessario.

“Microsoft si impegna ad aiutare l’UE a far funzionare l’IA per tutti gli europei, collaborando con il settore pubblico, il mondo accademico, la società civile e l’industria. Promuovere la fiducia nell’intelligenza artificiale è un percorso continuo, ma è fondamentale per incoraggiarne l’adozione più ampia. In alcuni casi, ciò potrebbe richiedere nuove leggi o nuove interpretazioni delle leggi esistenti. La sfida è bilanciare la mitigazione dei potenziali danni con la promozione del vasto potenziale positivo dell’IA. Accogliamo con favore l’opportunità di lavorare con la Commissione e le altre parti interessate per rendere l’IA affidabile e responsabile la norma in tutta Europa e oltre”.

Google: non imbrigliare l’innovazione

Anche Google ha accolto con favore la pubblicazione del Libro bianco della Commissione europea sull’IA. “Supportiamo anche l’obiettivo della Commissione di costruire un quadro per l’innovazione dell’IA che creerà fiducia e guiderà lo sviluppo etico e l’uso di questa tecnologia ampiamente applicabile. Apprezziamo l’approccio proporzionato e basato sul rischio della Commissione”, così Kent Walker SVP, Global Affairs presso Google.

Le risposte al questionario proposto dalla Commissione da parte del colosso della tecnologia hanno tuttavia reso evidenti le critiche dell’azienda, amministrata da Sundar Pichai, al piano europeo pensato per l’IA.

La definizione di applicazioni AI ad alto rischio, rimane un punto particolarmente delicato e Google ne suggerisce una chiara delimitazione. Si spinge fino al punto di suggerire l’eliminazione in toto della clausola “casi eccezionali” riferita ai sistemi di intelligenza artificiale ad alto rischio, il cui uso sarebbe generalmente proibito e ammesso appunto “solo in casi eccezionali debitamente giustificati e proporzionati, soggetti a garanzie e basati sul Diritto dell’Unione o nazionale”.

La formulazione viene ritenuta troppo aperta e pertanto foriera di complicazioni. Allo stesso modo chiarire la portata del concetto di “danni immateriali”, appare auspicabile.

Preoccupano Google anche i requisiti relativi ai dati di addestramento, che potrebbero, a detta dell’azienda, ostacolare lo sviluppo dell’IA in modo rapido ed efficace specie in contesti emergenziali come l’attuale pandemia da COVID-19.

Altre preoccupazioni rigurdano la scarsa familiarità della Commissione e dei regolatori in generale con requisiti tecnici particolarmente complessi e, a tal fine, invita le istituzioni a lavorare a stretto contatto con i professionisti per chiarire aspetti cruciali che possano garantire una certa coerenza tra ciò che viene proposto e ciò che può essere tecnicamente fattibile e adeguato al raggiungimento degli obiettivi della Commissione.

Altrettanto la previsione di ulteriori quadri regolamentari dovrebbe sottostare ad un’attenta analisi dei quadri già esistenti da parte di legali esperti al fini di evitare fenomeni di inutile duplicazione normativa e incompatibilità varie.

Anche la redazione di una vera e propria guida a cui attenersi per la conduzione della “due-diligence” delle applicazioni di IA ad alto rischio viene ritenuta come giusta integrazione alle previsioni normative esistenti o in fieri e funzionale all’accountability rischiesta alle aziende.

“Le tecnologie di intelligenza artificiale ci consentiranno di fare rapidi progressi in termini di sicurezza e produttività in tutta la società e l’economia. Di conseguenza, qualsiasi quadro normativo che ne disciplina l’uso dovrà essere di natura flessibile, non rigido o eccessivamente prescrittivo, garantendo che sia possibile accompagnare piuttosto che scoraggiare l’innovazione futura. Sarà una sfida per i regolatori sviluppare un quadro sufficientemente flessibile per rendere conto di questo inevitabile cambiamento senza essere così vaghi”.

Il Libro bianco “suggerisce dei requisiti legali obbligatori, alcuni dei quali, secondo Google, potrebbero ostacolare in modo significativo lo sviluppo e la diffusione del bene Applicazioni AI” riporta il documento richiamando anche i principi etici in materia di IA previsti da Google sin dal 2018.

ITI: servono standard globali

Sulle stessa linea di Google anche ITI, l’associazione commerciale, con sede a Washington, che rappresenta le migliori aziende del settore delle tecnologie dell’informazione e delle comunicazioni.

Il riscontro alla consultazione pubblica evidenzia in particolare la necessità di promuovere un impegno che pur partendo dall’Europa si estenda oltre i confini del mercato unico giungendo allo sviluppo di standard globali, volontari e orientati all’industria al fine di sostenere la corretta diffusione dell’IA a beneficio di tutti i paesi del mondo.

“Supportiamo il Libro bianco nel suo suggerimento di coinvolgere ulteriormente le parti interessate del settore in modo aperto e inclusivo nella creazione dell’approccio europeo AI, incluso qualsiasi regolamento“. Poiché l’ecosistema AI è globale e la tecnologia non è più sviluppata nei silos regionali, i mezzi efficaci per far progredire l’agenda europea dell’intelligenza artificiale sono quelli che permettono di espandere la discussione al di là della dimensione nazionale. Raccomandiamo che l’UE si impegni oltre i confini del mercato unico, per favorire lo sviluppo e l’uso dell’IA a livello globale collaborando con i suoi partner internazionali nella promozione del rispetto dei diritti fondamentali, nella non discriminazione e nella protezione della privacy” riporta in conclusione la risposta dell’organizzazione internazionale.

ETNO: meno vincoli, più focus sull’accelerazione

Anche l’associazione europea degli operatori di reti di telecomunicazioni europei ha tenuto a poter dire la sua ed il riscontro reso si presenta particolarmente critico.

Dopo una premessa sui benefici attesi da 5G e IoT, ETNO ha “voluto ammonire” la Commissione ritenendola troppo concentrata sugli aspetti normativi relativi all’affidabilità dell’IA a scapito delle necessarie “prese di posizione audaci ma attuabili” in grado di favorire l’eccellenza dell’ecosistema lungo tutta l’intera catena del valore.

Lamenta, inoltre, la mancanza di dettagli sulle azioni che dovrebbero consentire la diffusione e la scalabilità della tecnologia e dei prodotti di intelligenza artificiale in tutta Europa, assicurando in tal modo la giusta competitività dell’UE sulla scena globale. A tal fine auspica altresì una definizione maggiormente accurata di “sistema di intelligenza artificiale”, magari basata sulla descrizione riportata nelle linee guida HLEG, quale pre-requisito per una corretta valutazione del problema e una chiara definizione delle responsabilità legate alle applicazioni artificiali “in linea con il principio che chi inquina paga”.

Così ETNO, che prosegue: “L’obiettivo generale della strategia europea per l’IA dovrebbe essere quello di perseguire un approccio coordinato, rafforzando la capacità dell’Unione di tenere il passo e rimanere competitivi con le altre regioni del mondo nello sviluppo e nella distribuzione di applicazioni di IA. Requisiti nazionali divergenti che sollevano ostacoli allo sviluppo e alla diffusione della tecnologia IA nel mercato unico dovrebbe essere evitati”.

Center for Data Innovation: regole onerose

Interessante quanto provocatoria la risposta del gruppo di ricerca ritenuto uno dei principali think tank in ambito tecnologico, che ha decisamente criticato le intenzioni espresse dalla Commissione definendole addirittura contradditorie tra di esse: “Il libro bianco afferma che l’UE dovrebbe evitare regole eccessivamente prescrittive per l’IA, incoraggiarne l’uso per rafforzare la competitività dell’UE e impegnarsi a consentire scoperte scientifiche e innovazione, ma continua a proporre misure che rallenterebbero l’innovazione e l’adozione dell’IA nell’Unione Europea”.

Misure che non manca di etichettare “onerose e controproducenti”. Più che sul principio di precauzione, l’UE dovrebbe focalizzare i propri sforzi sul principio dell’innovazione e “garantire la certezza del diritto e limitare i costi dell’utilizzo dell’IA; dare priorità al dialogo con l’industria; e coinvolgere partner dell’UE e alleati democratici nel suo processo.”

Una visione condivisa anche dalla Computer and Communications Industry Association che teme la diffusione di “lunghi processi burocratici di approvazione”, la risposta di AI Now Institute, City of Amsterdam, City of Helsinki, Mozilla Foundation e Nesta.

Il gruppo affiancato dalla società di software open source Mozilla, ha presentato una lettera alla Commissione evidenziando le preoccupazioni relative all’approvvigionamento di determinate applicazioni di intelligenza artificiale e le questioni di trasparenza relative all’uso di determinate tecnologie nelle pubbliche amministrazioni.

I ricercatori accademici: mettere l’uomo al centro

Tra i ricercatori accademici sull’intelligenza artificiale si evidenzia il riscontro reso da alcuni rappresentanti dell’Università Politecnica di Valencia, dell’Università di Copenaghen, dell’Università di Cambridge e il Leverhulme Center for the Future of Intelligence – un centro internazionale leader nell’etica dell’IA.

Le loro esortazioni evidenziano in particolare l’interesse per le tematiche incidenti sull’ecosistema di fiducia promesso dal Libro Bianco, auspicandone una rapida quanto decisa introduzione. Sollecitano la rapida introduzione di un quadro regolatorio ispirato alla tutela dei valori umani ritenuto quale elemento determinante al fine di dimostrare la leadership europea a livello globale e precondizione necessaria per la riconciliazione tra il rispetto dei diritti dei cittadini e la competitività delle imprese.

Olanda: avanti con il mercato unico

Ultima ma non meno importante la replica dei Paesi Bassi tutta incentrata sulle interconnessioni sinergiche da interpretare in chiave di valore tra i due ecosistemi alla base della strategia europea per l’IA. Il tutto nella cornice dei principi e delle norme europee, favorendo la cooperazione tra Stati membri e contrastando i fenomeni di frammentazione, anche normativa, nazionali. “L’ecosistema di eccellenza crea le condizioni per un mercato unico in crescita con opportunità economiche e prosperità a beneficio di tutti i cittadini e le imprese. L’ecosistema di fiducia crea i parametri entro i quali il mercato unico può anche crescere in modi che includono le applicazioni di IA”.

Tutti le incognite rimaste in campo

Cosa accadrà ora? In che modo la Commissione “farà tesoro” dei suggerimenti arrivati dalle tante facce della società civile e dagli altri stakeholder?

Ursula von der Leyen ha citato lo storico Yuval Noah Harari durante una delle passate conferenza stampa a Bruxelles: “Le persone sono sempre state più brave a inventare nuovi strumenti che a trattare saggiamente con loro”. Ed in effetti le criticità da gestire sono tante e diverse. E le domande senza risposta permangono.

Da quelle legate all’autonomia che caratterizza le decisioni dell’intelligenza artificiale alle problematiche in termini di responsabilità. Dalla rigidità dei quadri regolatori esistenti alle istanze di apertura ed innovazione. Dalla poca trasparenza nelle decisioni degli algoritmi alla mancanza di concrete strategie sulla governance del digitale. Dagli approcci etici richiesti nella regolamentazione della applicazioni “dell’artificiale” alla mancanza di un ambiente di fiducia e chiara definizione di responsabilità. E ancora, dalle problematiche legate al cosiddetto digital divide, il divario che viene a crearsi tra chi ha accesso alle tecnologie dell’informazione e chi ne è escluso, alle istanze di coordinamento della digitalizzazione insite nella gestione dei problemi globali, dal cambiamento climatico alla resistenza antimicrobica.

Al di là di ogni visioni distopica, costruire un’intelligenza artificiale in modo etico e avere un’intelligenza artificiale etica si sta rivelando una sfida tanto complessa quanto necessaria. Una valutazione urgente e critica sulle opportunità, i rischi e le esigenze di governance associate all’intelligenza artificiale e all’utilizzo dei dati, si impone ed appare improcrastinabile.

Possiamo dunque fare di più, meglio e più velocemente? Definire le priorità, ordinare le azioni in mandati strategici, fissare obiettivi e risorse finanziarie, soprattutto umane, selezionando le migliori menti, saranno i primi segnali che potrebbero orientare le risposte ancora attese.

360digitalskill
Autonomous & continuos learning: fornisci ai tuoi collaboratori lo strumento giusto per ripartire
Risorse Umane/Organizzazione
Smart working

@RIPRODUZIONE RISERVATA

Articolo 1 di 4