il punto

Riconoscimento facciale, perché è ancora rischio di sorveglianza globale

A puntare il dito contro il riconoscimento facciale non sono solo gli attivisti o i cultori della materia, ma anche le Autorità di controllo e le istituzioni, sia nazionali che sovranazionali. Nessuno vuole fermare il progresso tecnologico. L’importante è non ledere gli altri diritti fondamentali. I paletti

05 Apr 2022
Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Zakaria Sichi

Studio Legale Martorana

Le notizie recenti in materia di riconoscimento facciale parlano di un fenomeno in netta crescita, nonostante le norme tese ad arginarlo.

Gli attivisti denunciano l’aumento dei sistemi di sorveglianza e l’incremento degli archivi, e nel frattempo Italia e UE cercano di arginarne l’utilizzo. A che punto siamo, e cosa potrebbe accadere?

Perché il Parlamento Ue ha messo al bando il riconoscimento facciale (e non solo)

Riconoscimento facciale: sicurezza o violazione della privacy?

Il riconoscimento facciale è un metodo che consente di identificare o confermare l’identità di una persona a partire dal suo viso. In particolare, ciò può avvenire tramite le foto, i video ma anche in tempo reale. Quest’ultimo è il metodo che allarma maggiormente gli attivisti per i diritti umani digitali.
Il riconoscimento facciale è stato infatti acquisito tra le tecnologie di sicurezza utilizzate allo scopo di tutela dell’ordine pubblico e della sicurezza pubblica da parte delle autorità, le quali le sfruttano per la prevenzione e la repressione dei reati.

WHITEPAPER
Canale ICT: 5 misure di successo automatizzare il business
Sicurezza
Software

A tal proposito è famoso il cosiddetto Caso Loomis del 2016, spesso citato dai detrattori del riconoscimento facciale.

Si tratta della vicenda di un cittadino afroamericano che era stato giudicato anche sulla base di uno strumento di valutazione improntato sul riconoscimento biometrico, chiamato COMPAS. Si trattava cioè di un software concepito, da un lato, per prevedere il rischio di recidiva, dall’altro, per identificare i bisogni dell’individuo in aree quali occupazione, disponibilità di alloggio ed abuso di sostanze stupefacenti. L’algoritmo elaborava poi i dati ottenuti dal fascicolo dell’imputato e dalle risposte fornite nel colloquio con lo stesso. Ebbene, anche sulla base dei risultati della valutazione, la Corte Suprema del Wisconsin decise di negare a Loomis la libertà vigilata in favore della carcerazione immediata, rilavando un pericolo alto di recidiva.

Si potrebbero citare altri esempi, non solo in ambito giudiziario, ciascuno dei quali ha contribuito ad accendere il dibattito – che dura da diversi anni – sugli aspetti etici del riconoscimento facciale, benché sorretti dalla causa giustificativa della tutela della sicurezza pubblica.

Anche di recente molti attivisti e associazioni per i diritti umani hanno denunciato una crescita esponenziale del fenomeno, con l’aumento delle telecamere nelle grandi città e l’arricchimento degli archivi di immagini delle principali aziende del settore. Intanto, ci anche alcuni Paesi hanno aumentato la soglia di attenzione con iniziative volte ad arginare la diffusione del riconoscimento facciale, a partire dall’Unione europea e dall’Italia.

Riconoscimento facciale a New York: la denuncia di Amnesty International

Nel febbraio scorso è stata pubblicata una nuova ricerca da parte di Amnesty International nell’ambito della campagna Ban the scan. Quest’ultima iniziativa, avviata circa un anno fa, aveva ed ha come obiettivo il divieto assoluto dell’uso, dello sviluppo, della produzione e della vendita di tecnologia di riconoscimento facciale a scopo di sorveglianza di massa da parte delle forze di polizia e di altre agenzie. La nuova ricerca è stata resa possibile grazie al supporto di moltissimi volontari del progetto Decode Surveillance NYC che hanno mappato oltre 25.500 telecamere a circuito chiuso installate a New York; dopodiché, i dati sono stati incrociati con le statistiche sulle perquisizioni e con informazioni demografiche.

L’esito ha rivelato che, gli abitanti di New York che vivono in quartieri dove sono più frequenti le perquisizioni, sono al contempo più esposti alle tecnologie di sorveglianza basate sul riconoscimento facciale. In particolare, nei quartieri come Bronx, Brooklyn e Queens, dove è più alta la percentuale di abitanti non bianchi (di cui circa il 50% sono solo afroamericani), è maggiore anche la concentrazione di telecamere a circuito chiuso, nonché la frequenza di utilizzo. Secondo Amnesty, ciò rafforzerebbe gli atteggiamenti discriminatori nella città, ridurrebbe la libertà di spostamento dei cittadini ma, soprattutto, violerebbe il diritto fondamentale alla riservatezza.
Stando ad altri dati raccolti dagli attivisti, dal 2016 al 2019, la polizia di New York ha usato la tecnologia di riconoscimento facciale in almeno 22.000 occasioni. Inoltre, nel 2021 Amnesty International ha citato in giudizio il dipartimento di polizia di New York per aver rifiutato di rendere pubbliche le informazioni sull’acquisizione di dati derivanti dalla tecnologia di riconoscimento facciale e da altri strumenti di sorveglianza.
Oltre alla pubblicazione della ricerca, Amnesty ha anche lanciato un nuovo sito web contenente una sorta di mappatura delle telecamere di riconoscimento facciale della città, consentendo alle persone di conoscere la loro esposizione a tale tecnologia in base al percorso che devono fare per andare da un luogo all’altro. A tal fine, i cittadini posso partecipare attivamente tramite segnalazioni che permettano di arricchire la mappa.

Intanto, mentre alcune grandi città americane come San Francisco e Boston hanno vietato l’uso della facial recognition technology da parte delle forze dell’ordine, il Dipartimento di Polizia di New York continua a farne uso e, anzi, starebbe pensando di implementare, sviluppare ed espandere il sistema di sorveglianza.

Il caso Clearview AI

Clearview AI è una società statunitense che opera nel settore dell’Intelligenza Artificiale e che fornisce software di riconoscimento facciale usati da migliaia di agenzie e forze dell’ordine in tutto il mondo nel corso di operazioni, indagini, investigazioni e altre attività, e consente di confrontare le immagini con quelle del database dell’azienda.

Recentemente, la società ha stipulato un accordo da circa 50mila dollari con l’Aeronautica degli Stati Uniti per la ricerca su occhiali per la realtà aumentata in grado di scansionare i volti delle persone per utilizzarli nella protezione di aeroporti e basi militari. Il progetto nasce per accelerare i controlli e far risparmiare tempo al personale aeroportuale, oltre che aumentare il livello di sicurezza. Ad ogni modo, il funzionamento degli occhiali non dovrebbe essere diverso dai sistemi già presenti: riconoscimento del volto e confronto con i volti presenti nel database.
Ciò che ha suscitato scandalo è però il futuro della società. Infatti, come riportato in primis dal Washington Post, la Clearview – che già detiene il database di immagini più grande del mondo – ha annunciato di essere alla ricerca di ulteriori investimenti per raggiungere l’obiettivo di 100 miliardi di foto di visi nel suo archivio entro un anno; in questo modo, la società avrebbe in media 14 immagini per ciascun essere umano sulla Terra.
Un altro progetto in cantiere porterebbe invece allo sviluppo di ulteriori tecnologie, come quelle per il riconoscimento delle persone in base a come si muovono o un sistema per rilevare il luogo dove si trovano i soggetti analizzando lo sfondo delle foto.
Secondo alcuni, però, i finanziamenti servirebbero anche a espandere il reparto vendite internazionale e influenzare le attività dei legislatori affinché promuovano nuove regole più elastiche in materia di privacy. Questo perché l’immenso archivio di immagini custodite da Clearview AI è basato sulle foto condivise via social, che verrebbero poi scaricate in massa tramite sistemi automatizzati, una pratica, peraltro, non consentita. Questo ha infatti suscitato le reazioni di alcuni Paesi.
Pochi mesi fa la Commission Nationale de l’Informatique et des Libertés (CNIL) – il Garante privacy francese – ha ordinato a Clearview AI di cancellare tutti i dati raccolti sui cittadini francesi per violazione delle regole del GDPR. Non è però la prima ingiunzione contro la società, che già due anni fa fece scalpore per aver elaborato un sistema di identificazione rimpinguato tramite la raccolta di 10 miliardi di selfie per venderlo alle forze dell’ordine, attirando l’attenzione di Regno Unito, Canada e Australia, le quali hanno invocato diverse violazioni delle leggi locali sulla privacy.
Ciononostante, Clearview AI ha finora contestato tutte le ingiunzioni ribadendo – a detta loro – la piena legalità delle loro attività, e la nobiltà dei loro obiettivi che per la società non sono la sorveglianza di massa e la violazione della privacy, bensì la lotta al crimine e la tutela della sicurezza pubblica. Nel frattempo, i sistemi di Clearview AI sono sempre più diffusi tra le forze dell’ordine americane e, come visto, mira ad una grossa espansione.

Riconoscimento facciale: i provvedimenti di Italia e UE

Il forte incremento dell’applicazione della facial recognition technology ha condotto anche a diversi interventi istituzionali finalizzati a limitarli.

Nell’ottobre scorso, il Parlamento europeo ha preso per la prima volta una posizione ufficiale contro l’uso dei sistemi di riconoscimento facciale al fine di tutelare il rispetto della privacy, della dignità umana ed evitare pratiche discriminatorie. La risoluzione, approvata con 377 voti favorevoli, mirava in particolare a chiedere alla Commissione europea di vietare il riconoscimento biometrico negli spazi pubblici e l’uso di banche dati private, proprio come il sistema Clearview AI.
La risoluzione chiedeva anche di interrompere qualunque finanziamento diretto alla “ricerca e allo sviluppo di tecnologie biometriche o di programmi che possano portare alla sorveglianza di massa indiscriminata degli spazi pubblici.
Inoltre, i deputati si sono opposti anche a qualunque altro sistema di sorveglianza predittiva, come quelli che analizzano i comportamenti delle persone, i sistemi di punteggio sociale o altri strumenti biometrici di identificazione.

Su una linea analoga si è collocata anche l’Italia, che nella L. n. 205/21 ha inserito una moratoria sui sistemi di riconoscimento facciale nei luoghi pubblici fino al 2023, diventando il primo Paese dell’Unione europea ad adoperarsi in tal senso.

Riconoscimento facciale vietato in Italia: ma solo per ora e con eccezioni

In particolare, i soggetti privati non potranno utilizzare sistemi di videosorveglianza con riconoscimento facciale, mentre invece è esclusa dalla moratoria l’autorità giudiziaria, sollevando i dubbi di alcune associazioni per i diritti umani. Nella legge si precisa infatti che il divieto non si applica “ai trattamenti effettuati dalle autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali di cui al decreto legislativo 18 maggio 2018, n. 51, in presenza, salvo che si tratti di trattamenti effettuati dall’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero, di parere favorevole del Garante reso ai sensi dell’articolo 24, comma 1, lettera b), del medesimo decreto legislativo n. 51 del 2018″. Pertanto, pur avendo escluso tali trattamenti dalla moratoria, prima di attuarli sarà necessario ricevere un parere favorevole dell’Autorità di controllo.
Proprio quest’ultimo ha avuto modo di pronunciarsi più volte sul tema. Si pensi, ad esempio, al Provvedimento n. 127 del 25 marzo 2021 recante il parere su Sari Real Time, ossia un sistema adibito al trattamento automatizzato dei dati biometrici per il riconoscimento facciale a fini di sicurezza. Il Gaarnte lo ha ritenuto n conforme alla normativa in materia di privacy, poiché privo di una base giuridica e idoneo a realizzare, per come è progettato, una forma di sorveglianza indiscriminata.

Conclusioni

Il riconoscimento facciale avanza, e sembra farlo molto velocemente. Si tratta del principale argomento di discussione nell’ambito dell’Intelligenza Artificiale, poiché è al contempo quello maggiormente applicato nella vita quotidiana. Soprattutto, però, può essere ineludibile dalla gente comune che percorra semplici vie di un contesto urbano. Riprendendo infatti l’esempio eclatante di New York, la “city” per eccellenza, l’unico modo per evitare le videocamere che mettono in pratica la facial recognition technology sarebbe non uscire di casa. Ora, in certi casi si tende a dire che, se una persona non ha niente da nascondere, non dovrebbe preoccuparsene.

Tuttavia, come ha affermato a suo tempo Edward Snowden, che di sorveglianza di massa ha lungamente parlato, “affermare che non si è interessati al diritto alla privacy perché non si ha nulla da nascondere è come dire che non si è interessati alla libertà di parola perché non si ha nulla da dire”. Ed effettivamente è vero. Oltretutto, come ampiamente precisato, il riconoscimento facciale spesso non si limita alla materiale presenza nelle strade pubbliche o ad aiutare le autorità nella tutela della sicurezza pubblica. Talvolta, infatti, si arriva alla creazione di situazioni profondamente discriminatorie che non fanno altro che ridurre la fiducia nei confronti della tecnologia. Ed il punto, infatti, è questo.

Nessuno vuole cancellare il progresso tecnologico, né arrestare quello proiettato al futuro, così come è innegabile l’importanza della sicurezza pubblica e della prevenzione dei reati. Ciò che è importante tenere presente, però, è che l’impegno deve essere il raggiungimento degli obiettivi senza schiacciare ciò che c’è intorno, a partire dai diritti fondamentali dell’essere umano. Soprattutto, quando a detenere i dati di miliardi di persone sono aziende private che esulano dalla dimensione statale e che possono avere interessi di altro tipo, le circostanze diventano molto pericolose. E a dirlo, oramai, non sono solo gli attivisti o i cultori della materia, ma anche le Autorità di controllo e le istituzioni, sia nazionali che sovranazionali.

WEBINAR
25 Maggio 2022 - 14:30
Cybersecurity 360Summit: nuove strategie, nuove minacce e nuove difese!
Sicurezza
Sicurezza dei dati
@RIPRODUZIONE RISERVATA

Articolo 1 di 2