Intelligenza artificiale

Riconoscimento facciale, il quadro internazionale: norme, mercato e sfide etiche

La crescita delle tecnologie di sorveglianza basate sulla biometria è esponenziale. Allo stesso tempo sta aumentando la consapevolezza sui rischi degli usi potenzialmente dannosi dell’intelligenza artificiale, favoriti dalla perdurante assenza di un adeguato quadro regolatorio globale e condiviso. I temi sul tavolo

07 Ott 2020
Barbara Calderini

Legal Specialist - Data Protection Officer


La necessità di migliorare la resilienza digitale, specie perdurando l’emergenza epidemiologica, sta accelerando prepotentemente l’utilizzo delle tecnologie di riconoscimento facciale basate sull’intelligenza artificiale, contribuendo non poco, specie in determinati contesti, al rischio di un upgrade permanente della sorveglianza di massa.

Proprio l’equazione tra gestione dell’emergenza ed eccezione ai principi dello stato di diritto si rivela insidiosa. Particolarmente pericolosa, poiché le “relazioni emergenziali” spesso manifestano la brutta abitudine di integrarsi in modo stabile nel vissuto e nel modo di pensare comuni, favorendo lo sviluppo o il consolidamento di temibili percorsi autoritari.

Facciamo allora il punto su come i diversi Paesi stanno affrontando la questione sul versante normativo, su come si stanno evolvendo gli usi (e a volte gli abusi) della tecnologia e su quali sono gli ostacoli da superare per estirpare sul nascere ingiustizie sociali e discriminazioni legate all’intelligenza artificiale.

Lo studio Comparitech: chi usa biometria e riconoscimento facciale al mondo

Gli scopi di controllo e sicurezza pubblica non rappresentano ovviamente il solo campo d’azione delle relative applicazioni. I settori della finanza (dove una serie di app bancarie supporta Apple Face ID, Face Unlock o la cinese Smile to Pay), quello della salute, del lavoro, della cyber security, dell’istruzione, come del marketing/retail, ne supportano utilizzi altrettanto rilevanti.

Comparitech, ha analizzato 50 paesi diversi nel mondo ed ha condotto un’interessante verifica relativa alle modalità di trattamento dei dati biometrici. “A ciascun paese è stato assegnato un punteggio su 25, con punteggi alti che indicano un uso estensivo e invasivo della biometria e/o sorveglianza e un punteggio basso che dimostra migliori restrizioni e normative in materia di uso e sorveglianza biometrici.”

Lo studio merita assolutamente di essere letto ed analizzato nella sua interezza. I risultati chiave sono significativi.

Il ritmo di crescita delle tecnologie che si servono della biometria è esponenziale.

Allo stesso tempo sta aumentando il livello di consapevolezza sui rischi dell’intelligenza artificiale, man mano che gli usi dannosi o potenzialmente tali si stanno moltiplicando, favoriti o meglio non ostacolati dalla perdurante assenza di un adeguato quadro regolatorio globale e condiviso.

Preoccupano molto le sperimentazioni della tecnologia di riconoscimento facciale da parte della polizia e altre autorità specie militari.

Tra queste, una per tutte, la tecnica di apprendimento automatico in grado di produrre immagini del viso visibili tramite una scansione termica del volto di un soggetto in condizioni di scarsa illuminazione o di notte. Sono note come termocamere FLIR, Forward Looking Infrared e pare che i fornitori Ciano Systems, Inc. e Polaris Sensor Technologies staino lavorando in particolare su questa tecnologia per conto della DFBa – Defense Forensics and Biometrics Agency americana.

Il pervasivo utilizzo delle tecnologie di riconoscimento facciale ha quindi messo sotto i riflettori le normative di tutto il mondo evidenziandone limiti, carenze e contraddizioni ancora irrisolti.

Le aziende che vendono riconoscimento facciale

Alla tecnologia delle aziende americane – tra cui Microsoft, IBM, Palantir, Cisco, MorphoTrust, la sussidiaria di Idemia, Amazon Rekognition, Google con l’API Google Cloud Vision, e anche 3M, Cognitec, DataWorks Plus, Dynamic Imaging Systems, FaceFirst e NEC Global – e cinesi come Huawei, Hikvision, Dahua e ZTE, si aggiungono i fornitori giapponesi e tra questi NEC Corporation. Oltre ad altri significativi fornitori europei.

Fonte

Perché si fa riconoscimento facciale, nei diversi Paesi

In Cina le telecamere di sorveglianza con riconoscimento facciale e altre apparecchiature sono onnipresenti nelle città e nei paesi. Sniffer WiFi (software utili a localizzare rapidamente un segnale WiFi attivo) e tracker di targhe sono costantemente puntati su persone raggiungendo telefoni, negozi e case.

Wesign.it, l’associazione in difesa dei diritti umani, unendosi alle altre 44 organizzazioni che chiedono il divieto della sorveglianza di massa biometrica nel nuovo documento di EDRi, “Ban Biometric Mass Surveillance: A set of fund rights requests for the European Commission and EU Member States”, lancia la sua petizione #BanFacialRecognitionEurope auspicando il divieto permanente del riconoscimento facciale utilizzato per l’identificazione e la profilazione in tutta Europa.

Singapore, nell’alveo del programma di identità digitale SingPass, sarà il primo paese al mondo a utilizzare la verifica facciale nel proprio schema di identità nazionale al fine di agevolare l’accesso sicuro ai servizi privati e governativi.

“il requisito fondamentale è che sia fatto con il consenso e con la consapevolezza dell’individuoafferma Kwok Quek Sin, direttore senior dell’identità digitale nazionale presso GovTech Singapore.

Il Giappone, al fine di contenere il rischi di contagio epidemiologico, sta considerando l’opportunità di utilizzare il riconoscimento facciale per il tracciamento dei contatti in occasione dei grandi eventi Olimpiadi di Tokyo e le Paralimpiadi del 2021.

La Russia sta progettando la tecnologia per la rilevazione dell’aggressività forte dei copiosi finanziamenti ricevuti e delle risorse tecnologiche di NtechLab, la società russa specializzata nel riconoscimento facciale e nota per FindFace, l’app sviluppata dai due russi – di formazione statunitense – Artem Kukharenko e Alexander Kabakov, considerata sin da subito estremamente minacciosa e strumento di sorveglianza di massa.

La metropolitana di Mosca prevede inoltre di implementare circa 12.300 telecamere con riconoscimento facciale su circa 1.500 vagoni entro la fine del 2020: i viaggiatori potrebbero essere addirittura in grado di pagare tramite la tecnologia di riconoscimento biometrico entro la prossima primavera.

Italia, Francia, Germania

Le applicazioni biometriche di intelligenza artificiale imperversano in Francia dove la polizia utilizza il riconoscimento del volto negli spazi pubblici e Alicem è l’ambizioso sistema di riconoscimento facciale favorito da Macron e osteggiato dall’organizzazione La Quadrature du Net, legato all’identificazione delle persone; idem nelle stazioni ferroviarie in Germania o durante il blocco in Polonia, e anche in Italia dove dal 2009, la legge 23 aprile 2009, n. 38 in materia di sicurezza pubblica attribuisce ai Comuni la facoltà di installare videocamere per la tutela della “sicurezza urbana” negli spazi pubblici.

Il Comune di Como a maggio è finito nelle polemiche per essere tra i primissimi a dotarsi di videocamere (16) di sorveglianza con queste tecnologie.

Le azioni normative contro il riconoscimento facciale

Di contro e in parallelo, i detrattori del riconoscimento facciale aumentano, altri sono ansiosi di intervenire e sperimentare le “affascinanti” (si fa per dire) potenzialità di una delle tecnologie più divisive del secolo.

L’incertezza e la divisione imperversano.

Le organizzazioni come IBM, Amazon e Microsoft, tra l’incudine e il martello della questioni etiche e della mancanza di esaurienti regolamentazioni, spinte dalle forti polemiche dopo lo scandalo di Clearwiev AI fino all’uccisione di George Floyd a Minneapolis hanno sospeso la loro fornitura di software di riconoscimento facciale alle forze dell’ordine; e anche Google ha annullato la raccolta delle scansioni facciali per il Face Unlock dei Pixel 4.

Per tutta risposta le forze di polizia di Los Angeles pur non disponendo di una propria piattaforma di riconoscimento facciale, continuano ad accedere al software di riconoscimento facciale attraverso un database regionale gestito dal dipartimento dello sceriffo della medesima contea. Ciò malgrado il software di riconoscimento facciale nel corso di un esperimento pare abbia scambiato 1 legislatore californiano su 5 per criminale.

La polizia di stato del Massachusetts, si spinge oltre e sperimenta il robot Spot della Boston Dynamics “allo scopo di valutare le capacità del robot nelle applicazioni delle forze dell’ordine, in particolare l’ispezione remota di ambienti potenzialmente pericolosi che possono contenere sospetti “.

Se San Francisco e lo stato dell’Ohio sono stati i primi a vietare alla polizia e ad altre agenzie governative di utilizzare la tecnologia di riconoscimento facciale e Portland, ne segue l’esempio schierandosi fermamente a favore del divieto di utilizzo delle tecnologie di riconoscimento facciale per scopi sia pubblici che privati; dall’altra parte del mondo, in UK (dove il riconoscimento facciale è già in uso dal 2015 presso le forze di polizia London Metropolitan Police (the Met), South Wales Police e Leicestershire Police), a Gainsboroug, la polizia del Lincolnshire, approfittando dei finanziamenti ricevuti dal Ministero dell’Interno si appresta a testare un sistema di riconoscimento facciale e comportamentale, con buona pace degli ammonimenti riportati nei numerosi studi scientifici pubblicati, tra cui, molto esaustivo, quello dell’istituto di ricerca AI Now del 2019.

Il Parlamento scozzese, nel frattempo, avvia un’indagine sull’uso del riconoscimento facciale da parte della polizia.

In Italia molti dei sistemi di riconoscimento facciale implementati a livello locale sono già stati resi illegali dai provvedimenti del Garante della Privacy.

Nonostante questo telecamere potenzialmente pronte per il riconoscimento facciale sono presenti a Macerata, Firenze, Udine, Como (è noto il provvedimento del Garante del 26 febbraio 2020), Milano con l’Anagrafe Telecamere o a Piacenza e Torino, dove viene annunciato tramite social “l’inizio dei lavori per l’installazione nei giardini Madre Teresa di Calcutta di telecamere ad elevata tecnologia in grado di riconoscere i volti e direttamente collegate alla centrale delle autorità competenti.”

Non ultimo il sistema di riconoscimento facciale oggetto del provvedimento del Garante del 26 luglio 2018, utilizzato dalla polizia scientifica, il SARI Enterprise (ne esiste però anche una versione ulteriore real-time di cui si sa ben poco) destinato ad affiancare il sistema AFIS-SSA.

I quadri regolatori nel mondo sul riconoscimento facciale

Stando ai dati riportati dal Privacy Laws & Business International Report (PLBIR), nel 2017-18, “il numero di paesi nel mondo che hanno emanato leggi sulla privacy dei dati è passato da 120 a 132; altre dieci leggi sono state emanate nel 2019 e Includono sei dall’Africa, tre dall’Asia centrale e uno dai Caraibi; almeno 18 paesi hanno progetti di legge ufficiali in varie fasi di avanzamento. Molti altri, sulla scia del GDPR e della “modernizzazione” della Convenzione 108, stanno aggiornando o sostituendo le leggi esistenti”.

Ne deriva un sistema patchwork globale di leggi, regolamenti, quadri etici e linee guida di autoregolamentazione spesso sovrapposti o contraddittori con evidenti implicazioni, non solo giuridiche, in un contesto sociale senza confini fisici e dove lo spazio diviene digitale.

Europa

Tra gli stati europei, nonostante le leggi esistenti – in modo particolare la EU General Data Protection Regulation (GDPR) e le due Direttive (UE), 2016/680 e 2016/681 del Parlamento europeo e del Consiglio (relative ai trattamenti di dati personali anche biometrici svolti nelle attività di indagine per il perseguimento dei reati), oltre ovviamente alla Carta dei Diritti fondamentali dell’UE – la necessità di ulteriori orientamenti e di un quadro normativo adeguato a presidio di un uso corretto dell’IA rimangono preminenze evidenti quanto ancora insoddisfatte malgrado la Strategia digitale dell’UE rappresenti una delle sei priorità della Commissione per il 2019-2024.

Tanto sta attirando l’attenzione anche delle autorità di protezione dei dati dell’UE, schierate in prima linea a difesa dei “diritti-negati o mal interpretati” dalle organizzazioni sia pubbliche che private. Sin dal 2011, dopo i due provvedimenti del 2004 e del 2010 sulla videosorveglianza il Garante italiano è intervenuto – in ambito bancario – nei confronti dei sistemi di videosorveglianza dotati di un software “anticamuffamento”, in grado di permettere l’individuazione di eventuali rapinatori senza dover ricorrere a strumenti comportanti la rilevazione di impronte digitali. Ed è recente il provvedimento del 22 febbraio 2018 “Indicazioni preliminari di cui in motivazione volte a favorire la corretta applicazione delle disposizioni del Regolamento (UE) 2016/679” cui auspicabilmente dovrebbe far seguito quanto prima il provvedimento del Garante di cui all’art.2-septies del d. lgs. n. 101 del 10 agosto 2018.

Stesso livello di attenzione hanno dimostrato il Comitato europeo per la protezione dei dati – EDPB (proseguendo il lavoro del Gruppo di lavoro articolo 29 nell“Opinion 3/2012 on developments in biometric technologies”) e il Garante francese (CNIL) e svedese (tra gli altri), tutti portatori di autorevoli contributi e pronunciamenti.

Di fatto, la crisi di fiducia verso le istituzioni si porta a limiti preoccupanti, i diritti fondamentali sono costantemente esposti alla minaccia di una loro compromissione, la tecnologia senza garanzie legali mina i valori democratici; senza trasparenza, condiziona la società e quest’ultima si adatta apoditticamente ad essa.

Il Regno Unito, in piena Brexit, affiancando la propria Legge sulla protezione dei dati (che ha già ottenuto il Royal Assent) al GDPR, prevede specifiche disposizioni relative ai dati biometrici in alcuni ambiti determinati tra cui i settori dell’immigrazione e della sicurezza nazionale con ciò confermando la propria “passione” la tecnologia biometrica.

E mentre il progresso tecnologico e la crisi sanitaria globale in essere favoriscono la trasformazione digitale delle nostre società e delle nostre economie e fungono da acceleratori e abilitatori delle corrispondenti applicazioni, l’Europa, malgrado gli ambiziosi progetti resi noti da Ursula von der Leyen e Margrethe Vestager, manifesta le proprie debolezze ed i propri ritardi nel consolidamento del proprio ruolo di superpotenza normativa nella governance mondiale e nella creazione dell’ambito ecosistema di eccellenza e fiducia al centro del Libro Bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia.

Al momento sembrerebbe che la Commissione europea non abbia escluso il prossimo divieto del riconoscimento facciale nei luoghi pubblici.

“Abbiamo già in Europa una forte legislazione sul riconoscimento facciale che non dovrebbe essere trascurata. È consentito solo secondo i criteri del GDPR”, ha recentemente affermato Kilian Gross, capo unità “Tecnologie e sistemi per la digitalizzazione dell’industria” della Commissione, aggiungendo che “la stessa esaminerà se dovessimo avere bisogno di ulteriori garanzie fino al punto di non poter consentire il riconoscimento facciale in alcuni casi, alcuni aree o anche temporaneamente. Quindi, nulla è escluso”.

Non è una novità, intanto, che la polizia europea abbia da tempo accesso alle impronte digitali e ai database del DNA in tutti i paesi dell’Unione europea e, a certe condizioni, anche di altri Stati. E non è passato molto tempo da quando The Intercept – la testata che ha diffuso i documenti segreti forniti da Edward Snowden sulla National Security Agency americana – ha svelato come le forze di polizia nazionale di 10 stati membri dell’Ue, in vista sia di un auspicato ampliamento dell’attuale sistema Prüm, sia di possibili accordi bilaterali con gli USA ai sensi del corrispondente Cloud Act, stiano sfacendo pressione per ottenere una rete paneuropea di banche dati di riconoscimento facciale. Un percorso questo che sembrerebbe sposarsi perfettamente anche con la nascita del nuovo Intelligence College in Europe (Ice), una piattaforma di collaborazione operativa fra 23 comunità d’intelligence europee che, sebbene non intenda porsi (per ora) come una sorta di Cia americana, nasce al di fuori dell’alveo Nato e Ue: una struttura intergovernativa non comunitaria (stante che i Trattati Ue delineano chiaramente l’intelligence come materia di competenza degli Stati membri) eppure “operativamente collaborativa”.

Topnetwork Webinar 27.10.20_Le nuove frontiere dell’IA e gli impatti sul mondo del lavoro

Cina

In Cinadove peraltro la legge sulla sicurezza informatica del 2018 stabilisce il principio della sovranità nel cyberspazio – grazie alla grande trasformazione tecnologica del paese, lo stato di sorveglianza assume i contorni di un panopticon orientato dalla cibernetica e dal sistema di credito sociale (sfruttando tutto quanto messo a disposizione dall’Intelligenza artificiale e dai Big Data).

La corsa all’intelligenza artificiale diviene culminante e rappresenta l’esigenza ineludibile a garanzia della propria egemonia globale e del benessere della nazione: “Xue Liang” (Occhi di Falco) è il sistema di sorveglianza e controllo a tappeto che incorpora la tecnologia di riconoscimento facciale, compreso quello emozionale, voluto e regolamentato direttamente dal governo di Pechino e diretto dal presidente Xi Jinping. Un sistema di controllo pervasivo ed onnisciente.

“Sì, il riconoscimento facciale può violare la privacy personale in una certa misura, ma porta anche un vantaggio collettivo, quindi è una questione di come bilanciare i benefici individuali e sociali” afferma Xue Lan, decano dello Schwarzman College della Tsinghua University, nonché membro del Comitato di esperti sulla governance dell’IA istituito nel febbraio 2019 con esperti del mondo accademico e del settore dell’IA.

Poco rassicuranti appaiono in tal senso le dichiarazioni emerse durante la recente riunione annuale del parlamento cinese, dove l’Assemblea nazionale del popolo ha annunciato l’ambiziosa introduzione di un vasto pacchetto di leggi in materia di protezione e tutela dei dati personali dei cittadini: più che altro un tentativo di compromesso nei confronti dei vivaci contestatori di Hong Kong, messi provvisoriamente a tacere dalla travolgente crisi sanitaria.

Africa

In Africa, sempre Pechino intende tracciare il percorso verso la digitalizzazione, assumendo il ruolo di driver dell’industrializzazione alla guida della trasformazione tecnologica del Paese e così consolidare la propria alleanza strategica con il continente africano, garantendosi vantaggi non solo in termini economici bensì anche di know how e “miglior addestramento degli algortimi”. Pechino sta da tempo sperimentando su larga scala le proprie tecnologie di «riconoscimento facciale» in Zimbabwe ampliando di volti africani il suo, già vasto, database.

Usa

Nel resto del mondo, negli USA come in Europa, in assenza di adeguate cornici normative e di linee politiche efficacemente condivise, malgrado i quadri regolatori già menzionati, molto spesso le città e gli stati, in via autonoma, assurgono al ruolo di leader nella concreta implementazione del riconoscimento facciale.

Washington, dopo l’Illinois con Illinois Biometric Protection Act (BIPA) del 2008 e il Texas, ha approvato una legge sulla privacy biometrica nel 2017. La California, con Il California Consumer Privacy Act (CCPA), la legge statale sulla protezione dei dati, si pone come un potenziale modello per una legge sulla privacy dei dati degli Stati Uniti .

Una legge dello Stato di New York chiamata Stop Hacks and Improve Electronic Data Security (SHIELDS) è entrata in vigore il 21 marzo 2020.

Anche lo stato del Massachusetts sta avanzando nell’introduzione della propria legge sulla protezione dei dati.

E anche i politici statunitensi, malgrado le diverse vedute della Casa Bianca – che ha da tempo messo in guardia le agenzie federali contro l’eccessiva regolamentazione che si sta muovendo attorno all’Intelligenza artificiale e ha predisposto una serie di linee guida pensate per dare una governance chiara alle tecnologie di prossima generazione – nelle varie audizioni dimostrano particolare attenzione verso l’uso dei dati biometrici e stanno lavorando a un progetto di legge per limitare l’uso del riconoscimento facciale.

“È necessario”, afferma Trump “tenere in considerazione la non discriminazione, la trasparenza, la sicurezza delle tecnologie senza però spingersi troppo avanti e danneggiare la crescita e l’innovazione dell’Intelligenza artificiale”.

India

In India, mentre la Law Commission ha già inoltrato un disegno di legge sulla profilazione del DNA umano, la Corte Suprema con due sentenze storiche nel 2017 e 2018 ha stabilito che la privacy è un “diritto fondamentale” e il governo indiano sta rendendo disponibile l’autenticazione biometrica di Aadhaar (il programma del governo che raccoglie dettagli personali e dati biometrici per identificare i beneficiari cui spetterebbe l’accesso ai benefici sociali e al regime di welfare) per rendere più facile alle aziende la registrazione da remoto per procedere ai pagamenti delle imposte sui beni e servizi (GST).

Il rapporto del NIST: quanto è accurato il riconoscimento facciale

Il programma FRVT 2019 (Face Recognition Vendor Testing Program) del NIST istituito sin dal 2000 per fornire valutazioni indipendenti sia dei prototipi che degli algoritmi di riconoscimento facciale disponibili in commercio, ha valutato le capacità dei principali e più diffusi algoritmi di riconoscimento facciale, sia per l’identificazione uno-a-molti e la verifica uno-a-uno, sia per gruppi demografici definiti da sesso, età o paese di nascita (esattamente il NIST ha condotto test per quantificare le differenze demografiche per 189 algoritmi di riconoscimento facciale di 99 sviluppatori, utilizzando quattro raccolte di fotografie con 18,27 milioni di immagini di 8,49 milioni di persone provenienti per lo più da foto segnaletiche delle forze dell’ordine, ma includono anche foto provenienti da Wikimedia e immagini a bassa risoluzione da webcam).

Il relativo rapporto intitolato NIST Interagency 8280, pubblicato il 19 dicembre 2019, pur evidenziando elementi di maggiore accuratezza rispetto al passato (il tasso di errore per il riconoscimento facciale si dimezza ogni due anni, secondo il NIST) ha riportato “prove empiriche” sul fatto che la maggior parte degli algoritmi di riconoscimento facciale presentano ancora “differenziali demografici” che possono peggiorare la loro precisione in base all’età di una persona, genere o razza e ha rilevato chiaramente quanto ancora permanga significativa nella maggior parte degli algoritmi, compresi quelli sviluppati in Europa e negli Stati Uniti la percentuale di falsi positivi (minore ma pur sempre rilevante la percentuale di falsi negativi), peraltro considerevolmente alta nelle persone dell’Africa occidentale e orientale e dell’Asia orientale, con un fattore di 100 falsi positivi in più tra paesi. Gli algoritmi sviluppati in Cina mostrano lo stesso effetto ma invertito, con bassi tassi di falsi positivi sui volti dell’Asia orientale. Negli Usa, gli algoritmi utilizzati dalle forze dell’ordine rivelano falsi positivi più alti negli indiani d’America, con tassi elevati negli individui di origine africana.

I risultati di accuratezza diventano sempre più critici e fallaci nelle donne rispetto agli uomini, negli anziani e nei bambini.

Fonte

Una panoramica del mercato del riconoscimento facciale

La dimensione del mercato globale della tecnologia biometrica evolve e si espande ad un ritmo esplosivo.

Secondo una stima del settore, la dimensione del mercato della tecnologia biometrica varrà 59,31 miliardi di dollari entro il 2025.

Secondo Global Markets Insights, il settore biometrico globale dovrebbe superare i 50 miliardi di dollari già nel 2024 .

Eppure, che gli algoritmi siano fonte di discriminazione è palesemente e scientificamente noto. Altrettanto è conosciuto il paradosso della “privatezza” di cui si fece brillante interprete Umberto Eco in una celebre Bustina di Minerva nel 2014.

E consolidato è anche il fatto per cui la scarsa cultura della protezione dei dati favorisca l’esposizione incontrollata degli individui e ne alimenta la resa come motivo di soddisfazione.

Non è un caso che Gartner abbia ritenuto di dover inserire la “IA responsabile” quale nuova categoria nel suo ciclo di hype per le tecnologie emergenti definendola come un processo teso al miglioramento della percezione del valore sociale da essa apportato, della riduzione del rischio insito nelle relative procedure, dell’incremento della fiducia e della trasparenza e alla conseguente mitigazione dei pregiudizi algoritmici.

Un concetto prezioso destinato, nella sua forma più evoluta e performante, a divenire sinonimo di IA spiegabile (XAI) e dunque strumento volto alla migliore declinazione dell’insidioso compromesso tra performance e spiegabilità.

Ma tanto non basterà.

Un algoritmo, per quanto perfetto e verificato, qualora applicato ad un processo sbagliato e non validato è comunque causa di discriminazione e disuguaglianza oltre che di irreparabile perdita di fiducia.

Agli aspetti algoritmici si aggiunge infatti la dimensione tecno-culturale; alle questioni etiche dell’intelligenza artificiale si uniscono le tematiche legate al ripensamento dei paradigmi normativi legati alle esigenze di protezione dei dati personali e della salvaguardia della dignità umana.

Conclusioni: le sfide etiche

Come suggerisce Ivana Bertoletti, autrice di An Artificial Revolution e co-fondatrice del Women Leading in AI Network, in un bell’articolo pubblicato sempre su Agendadigitale: molto di più della ricerca del fix tecnologico incide la complessità legata al fragile binomio che unisce “equità in ambito algoritmico e giustizia sociale” nell’alveo di una cornice che è prima di tutto politica, culturale e sociale.

“C’è dunque il rischio che l’automazione dei processi decisionali si traduca in quella che è stata definita di Cathy O’Neil una automazione della povertà, del sessismo e del razzismo, con strumenti legislativi che sono inadeguati per il controllo. Gli standard sono sicuramente importanti, ma la standardizzazione è profondamente diversa dal percorso normativo e, in aggiunta, soggetta a dimensioni geopolitiche globali nei fora internazionali dove questi standard vengono sviluppati.” scrive.

La discriminazione più ardua da estirpare sarà sempre quella sociopolitica causata dalla mancata comprensione dei contesti culturali in cui l’intelligenza artificiale sarà chiamata ad operare.

Cruciale sarà il tema della trasparenza, della percezione e della consapevolezza del pubblico, ma estremamente decisiva e prioritaria si rivelerà soprattutto la specifica regolamentazione dell’intelligenza artificiale declinata per settori chiave magari servendosi, laddove indicato, dei quadri normativi esistenti opportunamente aggiornati per evolversi.

Altrettanto si riveleranno preziosi i piani strategici per l’IA dei singoli Paesi (l’Italia ha pubblicato a luglio 2020 documento definitivo con le proposte per la “Strategia italiana per l’Intelligenza Artificiale”) laddove saranno però frutto di concertazioni tra comitati consultivi (la maggior di questi sono composti principalmente da persone con sede in Europa o negli Stati Uniti) e linee guida globali che siano in grado di rappresentare e tengano conto delle diversità culturali e geografiche degli utenti ai quali si rivolgono, aumentando la rappresentatività, la visibilità e la rilevanza globale delle istanze provenienti dalle minoranze e delle categorie più esposte a discriminazione.

Fonte

Come ho già avuto modo di osservare la vera sfida nel settore dell’IA, al di là delle buone intenzioni, si gioca sulla governance del digitale; ovvero sulla capacità di addivenire quanto prima a sistemi regolatori condivisi ed efficaci, frutto di approcci multistakeholder autentici, culturalmente diversificati e orientati, sin dalla progettazione, sulla riduzione dei rischi del trattamento delle informazioni non solo individuali bensì anonimizzate e aggregate che, anche alla stregua delle precedenti considerazioni, appaiono estremamente importanti quanto foriere di evidenti e non ulteriormente tollerabili discriminazioni sui gruppi e sulle minoranze.

Per la società in rapida evoluzione, la trasformazione digitale e l’implementazione delle applicazioni di intelligenza artificiale non sarà una facoltà lasciata al libero arbitrio. Sarà piuttosto un “invito indeclinabile”. La buona politica e le regole del gioco faranno la differenza.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4