Riconoscimento facciale, ecco tutte le leggi contro il rischio sorveglianza - Agenda Digitale

il quadro completo

Riconoscimento facciale, ecco tutte le leggi contro il rischio sorveglianza

Il punto sulle norme adottate nel mondo sul riconoscimento facciale, per pararne il rischio della sorveglianza di massa. Negli Stati Uniti, Cina, Europa, Italia. Partendo dal Maine che fa avanguardia recente

31 Ago 2021
Barbara Calderini

Legal Specialist - Data Protection Officer

Negli Stati Uniti, in Europa e altrove nel mondo, sono sempre più noti i rischi per i diritti e le libertà fondamentali degli individui correlati all’uso delle applicazioni di riconoscimento facciale.

Riconoscimento facciale, il quadro internazionale: norme, mercato e sfide etiche

Forse una vetta pratica in tal senso è il caso del Maine, diventato – a seguito del sostegno unanime e bipartisan dei nove membri presenti alla seduta di lavoro della Commissione Giustizia Penale e Pubblica Sicurezza del disegno di legge LD 1585, “An Act To Increase Privacy and Security by Prohibiting the Use of Facial Surveillance by Certain Government Employees and Officials” – il primo stato Usa a regolamentare in modo specifico l’uso della tecnologia di riconoscimento facciale da parte dei funzionari pubblici e la legge sul riconoscimento biometrico, specie se confrontata con il regolamento del governo federale sul riconoscimento facciale (o, più precisamente, con la relativa mancanza di regolamentazione) rappresenta l’esempio più rigoroso presente in tutto il territorio degli USA.

Il disegno di legge è diventato legge senza azione da parte del governatore Janet Mills ed entrerà in vigore il 1° ottobre 2021.

Cosa prevede la legge del Maine su riconoscimento facciale

LD 1585, sponsorizzato dal rappresentante Grayson Lookner (Portland), vieta ai dipartimenti, ai dipendenti e ai funzionari statali, di contea e municipali di utilizzare o possedere la tecnologia di riconoscimento facciale o di stipulare un accordo con terzi per ottenere, accedere o utilizzare la tecnologia di riconoscimento facciale nella maggior parte delle aree pubbliche, comprese le scuole, e per scopi di sorveglianza. Prevede, inoltre, un severo quadro regolatorio quanto alle modalità specifiche in cui le forze dell’ordine possono sfruttare la relativa tecnologia per la repressione e le indagini sui crimini.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy

L’efficacia del provvedimento si estende alle agenzie statali, di contea e municipali presenti nel Maine, ad esclusione delle agenzie federali con sede operativa nello stato.

Nello specifico il “carve-out” per le forze dell’ordine viene previsto con una serie di condizioni e protezioni. Oltre a doversi rivolgere a una delle due fonti esterne autorizzate per eventuali perquisizioni gestite rispettivamente dal Bureau of Motor Vehicles o dal Federal Bureau of Investigation.

Inoltre, il caso da cui potrebbe scaturire l’esigenza di un possibile coinvolgimento delle tecniche di riconoscimento biometrico dovrà soddisfare i criteri di “reato grave” e prevedere l’impossibilità di rivolgersi ad altri mezzi di indagine ai fini dell’identificazione dei sospettati.

Ogni richiesta sarà obbligatoriamente tracciata: appositi registri pubblici gestiti dalla polizia di Stato del Maine e dalla BMV conterranno tutte le richieste di perquisizione “ricevute ed eseguite”. Tutti i dati ottenuti illegalmente dovranno essere tempestivamente cancellati.

Le disposizioni normative stabiliscono chiaramente che i risultati di un’indagine basati sull’uso delle tecnologie di riconoscimento facciale non costituiranno di per sé motivo automaticamente sufficiente per procedere con le pertinenti misure restrittive quali l’arresto o la perquisizione del sospettato da parte delle forze dell’ordine.

La legge del Maine include anche un diritto di azione privato: il che significa che gli individui possono intentare una causa se ritengono che un’agenzia o un funzionario governativo abbiano violato la legge.

“Questa è un’enorme vittoria per i diritti legati alla protezione della privacy e delle libertà civili nel Maine”, ha affermato il rappresentante Grayson Lookner. “È anche una vittoria per il bipartitismo e la cooperazione. Spero che il Maine possa fornire un esempio ad altri stati che vogliono tenere a freno la capacità del governo di utilizzare il riconoscimento facciale e altre tecnologie biometriche invasive”. “Sono orgoglioso di questo disegno di legge e del processo che ha attraversato, che ha incluso il coinvolgimento dei partner delle forze dell’ordine”.

Ed è dello stesso parere l’associazione per i diritti umani ACLU – American Civil Liberties Union, tra i maggiori sostenitori del disegno di legge: “Le tecnologie di riconoscimento facciale offrono agli attori del governo l’opportunità di sorvegliarci costantemente e senza sospetti, violando i diritti fondamentali di privacy, associazione ed espressione”, dichiara Michael Kebede, consulente politico per l’ACLU del Maine. “Questo disegno di legge è un passo importante per mantenere il controllo democratico sulla tecnologia, invece di lasciare che la tecnologia e il suo uso non regolamentato calpestino i nostri diritti”.

Analoga approvazione per il tenore della nuova normativa hanno espresso EPIC – Electronic Privacy Information Center e Shoshana Zuboff: “La capacità di un individuo di controllare l’accesso alla propria identità e alle informazioni personali, compreso determinare quando, come e per quale scopo queste vengono rivelate, è un aspetto essenziale della sicurezza personale e della privacy garantite dalla Carta dei diritti”. “L’uso della tecnologia di riconoscimento facciale erode questa capacità”.

È invece diverso il piglio della Maine Sheriffs Association, che non lesina critiche all’atto normativo: “Guardando al futuro, vietare alle forze dell’ordine di utilizzare strumenti che potrebbero svolgere un ruolo nella protezione dei cittadini del Maine non è un approccio responsabile e di mentalità aperta”, ha affermato lo sceriffo della contea di Penobscot Troy Morton, presidente dell’associazione. “Vent’anni fa, i terroristi di al-Qaeda sono passati attraverso il Portland Jetport prima di provocare una serie di attacchi che hanno ucciso quasi 3.000 persone. Il riconoscimento facciale non era ancora stato sviluppato nel 2001, ma la domanda che sorge spontanea è: quante vite avrebbe potuto salvare se lo fosse stato?”

Lo Stato delle leggi sul riconoscimento facciale nel resto degli USA

La legge del Maine si pone in linea con il percorso aperto dalla precedente decisione del Consiglio comunale di Portland, a seguito della proposta del consigliere comunale Pious Ali nell’agosto 2020, che aveva, infatti, già optato per il divieto dell’uso della sorveglianza facciale da parte della polizia in quella che è la più grande città dello stato. E certo prosegue anche nella stessa scia tracciata dalle richieste sostenute a gran voce dal movimento Black Lives Matter di Portland in risposta alle proteste a livello nazionale contro la ritenuta brutalità delle forze di polizia americane, resa ancora più severe a seguito della morte di George Floyd, a maggio 2020, dopo che un ufficiale di polizia “bianco” si era inginocchiato sul suo collo per più di otto minuti, impedendogli in tal modo di respirare.

Negli ultimi anni altre città statunitensi hanno vietato l’uso della tecnologia di identificazione biometrica da parte della polizia: oltre a Portland anche Boston, San Francisco, Minneapolis, Oakland, California. Mentre una minima parte di stati americani ne ha solo debolmente limitato l’uso da parte del governo o ha previsto specifiche moratorie: tra questi New York – dove peraltro una recente nuova ordinanza ha inteso imporre ulteriori limiti a ciò che le aziende, non solo pubbliche bensì anche private, possono fare con i dati biometrici, richiedendo alle stesse di informare in modo ben visibile tramite avvisi e cartelli come i dati personali verranno raccolti – il New Hampshire, il Texas, l’Oregon, il Massachusetts, la Virginia e l’Illinois con il Biometric Information Privacy Act, la legge che garantisce ai residenti il diritto di azione privato esercitabile in caso di utilizzo dei propri dati biometrici senza consenso.

Fa invece eccezione, per la sua aurea permissiva, la legge approvata da Washington nel 2020 che, forte dell’appoggio della Microsoft (con sede a Washington), ha scelto di consentire alla polizia in tutto lo stato di poter utilizzare le tecnologia di riconoscimento facciale. Sebbene il provvedimento in questione offra una serie di protezioni, alcuni gruppi in difesa dei diritti civili, tra cui la stessa ACLU, non hanno tardato ad esprimere severe preoccupazioni su come un tale approccio mostri il fianco a pericolose forme di sorveglianza di massa e discriminazione. Se da una parte, in un comunicato stampa ufficiale, l’associazione in difesa dei diritti umani si era detta “estremamente delusa” poiché il disegno di legge “si rivelava ben lungi dal fornire adeguate protezioni per le comunità di colore, gli immigrati e le minoranze religiose, storicamente danneggiate dalla sorveglianza del governo” e aveva chiesto un dibattito più ampio sull’opportunità o meno di autorizzare l’uso della tecnologia di riconoscimento facciale, dall’altra Microsoft non ha mancato di esprimere pieno assenso ai legislatori di Washington: “Questa legislazione rappresenta una svolta significativa”, riporta il post sul blog pubblicato dal gigante della tecnologia. “Questo approccio equilibrato garantisce che il riconoscimento facciale possa essere utilizzato come strumento per proteggere il pubblico, ma solo in modi che rispettino i diritti fondamentali e servano l’interesse pubblico”.

Nel frattempo, sempre negli USA, a livello federale continuano a non evidenziarsi evoluzioni normative degne di nota, sebbene il Congresso da metà giugno sia impegnato nello studio del disegno di legge (sponsorizzato da una coalizione di eminenti democratici, tra cui i senatori Bernie Sanders ed Elizabeth Warren), sulla moratoria del riconoscimento facciale e della tecnologia biometrica da parte delle forze dell’ordine federali – oltre che nell’analisi dell’iniziativa sostenuta dalle rappresentanti democratiche al Congresso Ayana Pressley, D-Mass., Yvette Clarke, DN.Y. e Rashida Tlaib, D-Mich. (che il 7 luglio scorso hanno nuovamente sottoposto alla Camera la proposta di legge – inizialmente presentata nel nel luglio 2019) nota come “No Biometric Barriers Housing Act del 2021” il cui intento è vietare la tecnologia di riconoscimento biometrico nelle unità abitative pubbliche e assistite finanziate dal Dipartimento per gli alloggi e lo sviluppo urbano (HUD) .

La governance delle nuove tecnologie, e in primis il riconoscimento facciale, restano ancora prive di quadri regolatori adeguati e dunque in balia della mancanza di restrizioni e pertanto fuori controllo.

Il report del Government Accountability Office

Per comprendere il livello di inconsapevolezza delle agenzie federali su come i loro dipendenti stiano utilizzando sistemi esterni per le tecnologie di riconoscimento facciale è certamente significativo il report del GAO – U.S. Government Accountability Office – del giugno 2021, che ha esaminato l’uso della tecnologia di riconoscimento facciale da parte delle agenzie federali. Delle 42 agenzie esaminate, secondo il Government Accountability Office, venti agenzie, inclusi dipartimenti generalmente non associati alle forze dell’ordine, come il servizio postale degli Stati Uniti, il Fish and Wildlife Service e la NASA, hanno utilizzato tecnologie di riconoscimento facciale. Alcune agenzie hanno dichiarato di aver utilizzato i propri database, ma la maggior parte riferisce di utilizzare fornitori privati come Clearview AI e Rekognition di Amazon. Molte di loro non hanno invece neppure cognizione di quali sistemi stiano utilizzando.

“Tredici agenzie federali non sono consapevoli di quali sistemi non federali con tecnologia di riconoscimento facciale vengono utilizzati dai dipendenti”, afferma il rapporto. “Queste agenzie non hanno quindi valutato appieno i potenziali rischi dell’utilizzo di questi sistemi, come i rischi legati alla privacy e all’accuratezza”.

Il servizio di ispezione postale degli Stati Uniti ha dichiarato al GAO di aver utilizzato il software di Clearview AI (ovvero l’archivio contenente 3 miliardi di immagini “raschiate e identificate” da Facebook, LinkedIn, YouTube e Instagram, accessibili a qualsiasi agenzia di polizia tramite un abbonamento), per tentare di rintracciare le persone sospettate di crimini, come il furto e l’apertura della posta e il furto dagli edifici del servizio postale e per condurre le sue indagini sull’attacco del 6 gennaio al Campidoglio. Anche Customs and Border Protection e il Dipartimento di Stato hanno affermato di aver eseguito ricerche sui rivoltosi del Campidoglio sui propri database su richiesta di altre agenzie federali.

Sempre secondo il rapporto, dieci agenzie hanno utilizzato Clearview AI tra aprile 2018 e marzo 2020, tra cui l’FBI, i servizi segreti e la DEA. E, addirittura, secondo una diversa indagine condotta da BuzzFeed News – che ha intervistato 1.803 entità finanziate dai contribuenti statunitensi, tra cui la polizia del Campidoglio degli Stati Uniti, l’IRS, vari uffici di libertà vigilata degli Stati Uniti, PFPA e TSA, per chiedere se i loro dipendenti utilizzassero Clearview AI – il numero delle organizzazioni governative federali, statali e cittadine che, a partire da febbraio 2020, avrebbero utilizzato il software di riconoscimento facciale prodotto da Hoan Ton-That sarebbe sensibilmente superiore rispetto all’audit del GAO: tra di esse la Pentagon Force Protection Agency e la Divisione investigativa criminale dell’IRS.

Tornando ai dati del GAO, sei agenzie, tra cui la US Park Police e l’FBI, hanno affermato di aver utilizzato il riconoscimento facciale su persone che hanno partecipato alle proteste dopo l’uccisione di George Floyd da parte di un ufficiale di polizia di Minneapolis nel maggio 2020.

L’Immigration and Customs Enforcement degli Stati Uniti ha dichiarato al GAO come alla fine del 2020 stava definendo un elenco di tecnologie di riconoscimento facciale approvate per l’uso da parte dei propri dipendenti.

Non sono mancate le dichiarazioni che confermavano come il riconoscimento facciale fosse stato utilizzato anche per ragioni non legate alle violazioni di legge. La stessa Autorità per la sicurezza dei trasporti sta testando l’utilizzo del riconoscimento facciale per verificare l’identità dei viaggiatori negli aeroporti. E anche gli ufficiali del tribunale federale hanno ammesso di averlo usato per verificare l’identità delle persone sotto la supervisione del tribunale e per evitare il rischio di contagio da COVID-19.

Il riconoscimento facciale nel mondo: lo studio di SurfShark e Comparitech

L’equazione tra gestione dell’emergenza ed eccezione ai principi dello stato di diritto si rivela insidiosa. Particolarmente pericolosa, poiché le “relazioni emergenziali” spesso manifestano la brutta abitudine di integrarsi in modo stabile nel vissuto e nel modo di pensare comuni, favorendo lo sviluppo o il consolidamento di temibili percorsi autoritari.

Eppure nel bilanciamento tra preoccupazioni e benefici, tra le significative sfide legali ed etiche che la tecnologia continua a sollevare e la sempre maggiore diffusione delle applicazioni di riconoscimento facciale automatizzato (AFR) in tutti gli ambiti (per identificare le persone in mezzo alla folla, analizzare le emozioni e rilevare sesso, età, razza, orientamento sessuale, caratteristiche facciali; impiegati nel reclutamento, nell’autorizzazione dei pagamenti, nella sicurezza, nella sorveglianza e nello sblocco dei dispositivi mobile) e in tutto il mondo, pare che l’ingiustizia sistemica abbia ancora la meglio rispetto alle misure compensative messe in atto tramite quello che potremmo definire un patchwork globale di leggi, regolamenti, quadri etici e linee guida di autoregolamentazione, spesso sovrapposti o contraddittori con evidenti implicazioni, non solo giuridiche in un contesto sociale senza confini fisici e dove lo spazio è appunto digitale.

Lo studio di SurfShark ha classificato almeno 109 paesi che utilizzano o hanno approvato l’uso della tecnologia di riconoscimento facciale per scopi di sorveglianza. Hanno raccolto dati sullo stato della tecnologia di riconoscimento facciale in 194 paesi in tutto il mondo attribuendo a ciascuno di essi uno livello di implementazione: in use, approved for use (not implemented), considering technology, banned, or no evidence of use.

Ne è derivato uno scenario globale in cui la tecnologia di riconoscimento facciale è già stata approvata dalla maggior parte dei quadri legali nazionali e in uso quasi ovunque.

Non solo in Usa, dove proseguono le sperimentazioni della tecnologia di riconoscimento facciale da parte della polizia e altre autorità specie militari. E tra queste, una tra le più insidiose, la tecnica di apprendimento automatico in grado di produrre immagini del viso visibili tramite una scansione termica del volto di un soggetto in condizioni di scarsa illuminazione o di notte: sono note come termocamere FLIR, Forward Looking Infrared e pare che i fornitori Ciano Systems, Inc. e Polaris Sensor Technologies stiano da tempo lavorando per conto della DFBa – Defense Forensics and Biometrics Agency americana.

Non solo in Cina, dove le telecamere di sorveglianza con riconoscimento facciale e altre apparecchiature sono onnipresenti nelle città e nei paesi. Sniffer WiFi (software utili a localizzare rapidamente un segnale WiFi attivo) e tracker di targhe sono costantemente puntati su persone raggiungendo telefoni, negozi e case. “Xue Liang” (Occhi di Falco) è il sistema di sorveglianza e controllo a tappeto che incorpora la tecnologia di riconoscimento facciale, compreso quello emozionale, voluto e regolamentato direttamente dal governo di Pechino e diretto dal presidente Xi Jinping.

Ma anche Singapore, nell’alveo del programma di identità digitale SingPass, sarà il primo paese al mondo a utilizzare il riconoscimento facciale nel proprio schema di identità nazionale al fine di agevolare l’accesso sicuro ai servizi privati e governativi.

La Russia sta progettando la tecnologia per la rilevazione delle emozioni – considerata sin da subito estremamente minacciosa e strumento di sorveglianza di massa – favorita dai copiosi finanziamenti ricevuti e dalle risorse tecnologiche di NtechLab, la società russa specializzata nel riconoscimento facciale e nota per FindFace, l’app sviluppata dai due russi – di formazione statunitense – Artem Kukharenko e Alexander Kabakov.

Le applicazioni biometriche di intelligenza artificiale imperversano anche in Francia e Gran Bretagna (dove il riconoscimento facciale è già in uso dal 2015 presso le forze di polizia London Metropolitan Police (the Met), South Wales Police e Leicestershire Police). Idem nelle stazioni ferroviarie in Germania o in Polonia.

Italia e Europa

E anche in Italia dove, sebbene non ci siano ancora utilizzi massivi con videocamere di sorveglianza, non mancano applicazioni specifiche e mirate a opera delle forze dell’ordine. È nota l’inchiesta di Raffaele Angius e Riccardo Coluccini, pubblicata su Wired, che ha tentato di ricostruire la nebulosa storia di Sari, il sistema automatico di riconoscimento delle immagini in dotazione alla polizia di Stato (Sari ha 16 milioni di record e 10 milioni di foto, 9 milioni di profili – da fonti ufficiali del ministero dell’Interno aggiornate a fine 2018 – di cui all’80 per cento di stranieri. Non c’è chiarezza su cosa siano esattamente questi record, né come siano alimentati. Tra le ipotesi: passaporti, sistema dattiloscopico europeo Eurodac, foto scattate durante le manifestazioni e cortei). Mentre presso il Liceo scientifico “Grigoletti” di Pordenone sembrerebbe in funzione da tempo un meccanismo di riconoscimento facciale degli studenti.

SARI, il riconoscimento facciale nella pubblica sicurezza: servono regole e trasparenza

E non è certo una novità neppure il fatto che la polizia europea ha da tempo accesso alle impronte digitali e ai database del DNA in tutti i paesi dell’Unione europea e, a certe condizioni, anche di altri Stati. Non è passato molto tempo da quando The Intercept – la testata che ha diffuso i documenti segreti forniti da Edward Snowden sulla National Security Agency americana – ha svelato come le forze di polizia nazionale di 10 stati membri dell’Ue, in vista sia di un auspicato ampliamento dell’attuale sistema Prüm, sia di possibili accordi bilaterali con gli USA ai sensi del corrispondente Cloud Act, stessero facendo pressione per ottenere una rete paneuropea di banche dati di riconoscimento facciale. Un percorso questo che sembrerebbe sposarsi perfettamente anche con la nascita del nuovo Intelligence College in Europe (Ice), una piattaforma di collaborazione operativa fra 23 comunità d’intelligence europee che, sebbene non intenda porsi (per ora) come una sorta di Cia americana, nasce al di fuori dell’alveo Nato e Ue: una struttura intergovernativa non comunitaria (stante che i Trattati Ue delineano chiaramente l’intelligence come materia di competenza degli Stati membri) eppure “operativamente collaborativa”.

Inoltre, se il Belgio è stato il primo paese a rendere illegale la tecnologia nel 2019, nel resto d’Europa il dibattito è aperto con la Commissione Europea che si è impegnata con la bozza di regolamento su AI a delimitare il campo d’azione dell’intelligenza artificiale (AI) proponendosi di mettere al centro la tutela dei diritti fondamentali e dei valori Ue, e a vari livelli anche i governi (Bulgaria, Cipro, Cecoslovacchia, Danimarca, Estonia, Finlandia, Francia, Germania, Ungheria, Lettonia, Lituania, Lussemburgo, Malta, Olanda, Portogallo, Slovacchia, Svezia, Spagna e Polonia, oltre alla Norvegia) si adoperano per monitorare l’utilizzo del riconoscimento facciale; di contro, la metà dei paesi del Nord America utilizza attualmente la sorveglianza con riconoscimento facciale e oltre il 50% degli americani è attualmente nei database della polizia con il Dipartimento della sicurezza interna degli Stati Uniti che prevede di condurre scansioni di riconoscimento facciale sul 97% di tutti i viaggiatori aerei entro il 2023. La tecnologia di riconoscimento facciale è attualmente in uso nel 92% dei paesi sudamericani e le applicazioni di riconoscimento facciale sono operative nel 76% dei paesi del Medio Oriente e dell’Asia centrale.

La Cina

La Cina continua a rivestire il ruolo di leader mondiale nel consumo e nella distribuzione della tecnologia. Le aziende cinesi hanno già implementato la tecnologia in sedici paesi al di fuori del sud-est asiatico (tra cui Venezuela, Zimbabwe, Germania ed Ecuador) con ulteriori previsioni di crescita entro il 2023 tali da consentirgli la quota di mercato globale del riconoscimento facciale più rilevante rispetto a tutti gli altri Paesi. Pechino continua a tracciare il percorso verso la digitalizzazione, assumendo il ruolo di driver dell’industrializzazione alla guida della trasformazione tecnologica del Paese al fine di consolidare la propria alleanza strategica specie con il continente africano, garantendosi in tal modo vantaggi non solo in termini economici bensì anche di know how e “miglior addestramento degli algoritmi”.

“Il gigante tecnologico cinese Cloudwalk ha accettato di esportare la tecnologia di riconoscimento facciale nello Zimbabwe in cambio di dati biometrici che aiuteranno ad addestrare il software verso tonalità della pelle più scure. Secondo un recente rapporto del Carnegie Endowment for International Peace, almeno 12 paesi africani sono attualmente in possesso di tecnologia di sorveglianza cinese” riporta lo studio SurfShark.

Lo studio Comparitech ha analizzato come gli scopi di controllo e sicurezza pubblica non rappresentino il solo campo d’azione delle tecnologie di riconoscimento biometrico. I settori della finanza (dove una serie di app bancarie supporta Apple Face ID, Face Unlock o la cinese Smile to Pay), quello della salute, del lavoro, della cyber security, dell’istruzione, come del marketing/retail, ne supportano utilizzi altrettanto rilevanti.

Nello specifico Comparitech, ha analizzato 96 paesi diversi nel mondo ed ha condotto un’interessante verifica relativa alle modalità di trattamento dei dati biometrici. Ogni paese è stato valutato in base ad una scala di valori che arriva a 31 punti: i punteggi bassi identificano un uso estensivo e invasivo della biometria e/o della sorveglianza, quelli alti riportano invece gli standard con migliori restrizioni in materia di uso e sorveglianza biometrici.

Ad ogni Paese è stato detratto un punto per ogni area in cui la biometria è stata implementata come misura di controllo di emergenza (sei aree in totale).

Le risultanze sono significative e non smentiscono il fatto che la Cina si confermi in cima alla lista con un punteggio pari a 2/31.

Gli studi sulla fallacia degli algoritmi di riconoscimento facciale

L’ottimismo sulla possibilità che l’umanità riesca a rendere “responsabile” ed “etica” l’AI è messo a dura prova dall’intensa dialettica che prende le mosse dal dibattito scientifico sulle analisi di affidabilità e robustezza, al momento poco rassicuranti, relative allo sviluppo delle applicazioni di riconoscimento facciale, ben dettagliate nei più autorevoli studi di settore.

Tra questi, il Rapporto di Ai Now Institute e del Symposium 2019 delle fondatrici Kate Crawford e Meredith Whittaker tenutosi il 02 ottobre 2019 presso lo Skirball Theatre della New York University che ha comprovato come il campo delle attuali applicazioni sia “costruito su basi marcatamente instabili”.

E lo studio del National Institute of Standards and Technology – NIST, pubblicato il 19 dicembre 2019, il quale, confermando precedenti analisi di ricercatori giunte alle medesime conclusioni (il tasso di errore per il riconoscimento facciale si dimezza ogni due anni, secondo il NIST), ha esaminato algoritmi che provenivano da una serie di importanti aziende tecnologiche e appaltatori di sorveglianza, tra cui Idemia (sviluppatore del sistema di Pinellas), Intel, Microsoft, Panasonic, SenseTime e Vigilant Solutions (assente dalla lista Amazon che sviluppa il Rekognition), riportando “prove empiriche” sul fatto che la maggior parte degli algoritmi di riconoscimento facciale presentino “differenziali demografici” in grado di influire direttamente nella precisione delle identificazioni in base all’età di una persona, genere o razza.

Asiatici e afroamericani avevano fino a cento volte più probabilità di essere identificati erroneamente rispetto agli uomini bianchi, a seconda del particolare algoritmo e del tipo di ricerca. I nativi americani avevano il più alto tasso di falsi positivi di tutte le etnie, secondo lo studio del NIST. In modo particolare gli algoritmi hanno rivelato alti tassi di errore nelle ricerche “one-to-one” (utilizzate per sbloccare un telefono o la verifica di un passaporto) ma non ne erano immuni neppure quelle “one-to-many”, utilizzate per scopi di sorveglianza o dalla polizia nelle indagini sui possibili sospettati di crimini a partire dal set delle foto presenti nella patente di guida di asiatici, afroamericani, nativi americani e isole del Pacifico.

Anche gli algoritmi sviluppati in Cina hanno riportato margini di errori simili ma ad effetto invertito, ovvero con bassi tassi di falsi positivi sui volti dell’Asia orientale rispetto alle fisionomie occidentali.

Inoltre i risultati di accuratezza hanno manifestato valori sempre più critici e fallaci in termini di gender gap nelle donne rispetto agli uomini ma anche negli anziani e nei bambini.

E’ esemplare in tal senso lo studio Gender Shades di Joy Buolamwini e Timnit Gebru il quale, unitamente al film documentario al quale ha partecipato sempre Joy Buolamwini e diretto da Shalini Kantayy, “Coded Bias” (che intreccia il viaggio di Buolamwini nella creazione della Algorithmic Justice League: un’organizzazione in difesa dei diritti umani legati all’abuso di sistemi dei riconoscimento facciale distribuiti in tutto il mondo – dalle strade di Londra, ai progetti abitativi a Brooklyn e in generale in tutta la Cina), rivelano con estrema chiarezza e accuratezza espositiva come i sistemi di IA commerciali delle principali società tecnologiche “siano particolarmente discriminatori” in modo significativo verso le donne e gli individui dalla pelle scura.

“Da una prospettiva ottica, le facce nere riflettono la luce a lunghezze d’onda molto diverse rispetto alle facce bianche e cercare di scrivere un algoritmo, sospetto fortemente, sarà, probabilmente, una sfida fondamentale.” Così si è espresso l’esperto di fama internazionale Toby Walsh, professore di Intelligenza artificiale di Scientia all’Università del Nuovo Galles del Sud e vincitore del prestigioso premio per la ricerca Humboldt a Fact Check.

Non ultimo è assolutamente significativo lo studio di Harvard, “Racial Discrimination in Face Recognition Technology”, che conferma come la tecnologia abbia una minore precisione nell’analisi delle immagini di persone di colore, di sesso femminile e di età compresa tra i 18 e i 30 anni.

Eppure, sebbene il fatto che gli algoritmi siano fonte di discriminazione è ormai noto e altrettanto sia ben sedimentato e conosciuto il paradosso della “privatezza” di cui si fece brillante interprete anche Umberto Eco in una celebre “Bustina di Minerva” nel 2014, la dimensione del mercato della tecnologia biometrica continua a crescere a ritmi esponenziali e stando alle stime più recenti varrà 59,31 miliardi di dollari entro il 2025.

Secondo Global Markets Insights, il settore biometrico globale valutato oltre 3 miliardi di dollari nel 2019 è addirittura destinato a crescere ad un tasso CAGR – Compounded Average Growth Rate – del 18% tra il 2020 e il 2026.

Gli algoritmi non sono neutrali

Gli algoritmi non sono neutrali, imparziali e oggettivi e molto difficilmente le loro implementazioni potranno tradursi in mere scelte amministrative, di ordine pubblico e sicurezza nazionale o di business. Il rischio che tanto incida negativamente sui diritti fondamentali è molto concreto.

Già nel giugno 2020, Amazon, Microsoft e IBM tra l’incudine e il martello delle questioni etiche e della mancanza di esaurienti regolamentazioni, specie dopo lo scandalo di Clearwiev e l’uccisione di George Floyd a Minneapolis, hanno annunciato la moratoria delle vendite di tecnologie di riconoscimento facciale al governo federale, almeno fino a quando il Congresso non avesse approvato la legislazione per regolamentare la tecnologia.

Come riporta la Thomson Reuters Foundation, il riconoscimento facciale “razzista” sta suscitando preoccupazioni etiche in Russia.

Nel Regno Unito i membri della Camera dei Lord stanno esaminando il ruolo che le tecnologie come l’intelligenza artificiale e il riconoscimento facciale rivestono nei moderni metodi di polizia e nelle forze dell’ordine.

Nel resto d’Europa aumentano i detrattori del riconoscimento facciale, a maggior ragione dopo che la pubblicazione del nuovo rapporto indipendente della rete EDRi dell’Edinburgh International Justice Initiative (EIJI), “The Rise and Rise of Biometric Mass Surveillance in the EU“, che segue la precedente petizione “Ban Biometric Mass Surveillance: A set of fund rights requests for the European Commission and EU Member States” #BanFacialRecognitionEurope, ha reso note prove piuttosto convincenti sulle pratiche di riconoscimento facciale abusivo e altre forme di sorveglianza di massa perpetrate in tutta l’Unione Europea e in modo particolare in Germania, Paesi Bassi e Polonia.

Fonte

Le istituzioni europee sono impegnate a discutere della proposta di Regolamento sull’Intelligenza Artificiale – “Regulation on a European approach for Artificial intelligence“ e il Garante europeo della protezione dei dati (EDPS) e il Comitato europeo per la protezione dei dati (EDPB), evidenziano la necessità di stabilire per tutta l’UE il divieto di riconoscimento biometrico negli spazi accessibili al pubblico.

Più di 175 gruppi per i diritti civili, attivisti e ricercatori di tutto il mondo, tra cui Amnesty International, Access Now, European Digital Rights, Human Rights Watch, Instituto Brasileiro de Defesa do Consumidor e Internet Freedom Foundation, in una lettera aperta“Open letter calling for a global ban on biometric recognition technologies that enable mass and discriminatory surveillance” hanno chiesto il divieto globale del riconoscimento facciale e dei sistemi biometrici remoti, oltre allo stop a tutti gli investimenti pubblici nell’uso delle relative tecnologie, poiché fonte di inaccettabili violazioni dei diritti umani in paesi come Cina, Russia, Myanmar, Argentina, Brasile e Stati Uniti.

Altri invece sono ansiosi di intervenire e sperimentare le “affascinanti” potenzialità di una delle tecnologie più divisive del secolo, anche perché, malgrado tutto l’opinione pubblica continua a fidarsi supinamente della tecnologia.

Non a caso il sondaggio del Pew Research Center condotto dal 3 al 17 giugno 2019 evidenzia come malgrado gli studi pubblicati, la maggioranza degli americani (56%) si fidi delle forze dell’ordine e del conseguente utilizzo delle tecnologie di riconoscimento facciale. Una percentuale simile (59%) afferma addirittura che il rischio di errore possa ritenersi accettabile in vista della miglior tutela dalle minacce alla sicurezza negli spazi pubblici.

Conclusioni

È forse questo l’inizio di una società distopica in cui non vogliamo vivere? Saranno le regole del gioco a fare la differenza? La nostra società da grande cosa vuole essere? Qual è il nostro progetto sociale? Sono i bias, i “pregiudizi” che un algoritmo tende a rafforzare, l’unico problema legato all’uso delle applicazioni di intelligenza artificiale compreso il riconoscimento facciale? O forse la vera sfida non è l’innovazione digitale e lo sviluppo delle nuove tecnologie bensì la governance delle stesse?

Il futuro non è certo predeterminato e anzi, a seconda degli esiti delle decisioni in corso in tutto il mondo, nelle aree istituzionali, discusse sui giornali, nelle piazze, comprese quelle digitali, come nelle scuole, si potranno ancora apprezzare enormi potenziali benefici per l’umanità e per il pianeta, oppure subire i pesanti rischi di sfruttamento e manipolazione senza precedenti.

WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4