SARI, il riconoscimento facciale nella pubblica sicurezza: servono regole e trasparenza - Agenda Digitale

privacy

SARI, il riconoscimento facciale nella pubblica sicurezza: servono regole e trasparenza

Anche l’Italia ha sistemi di riconoscimento facciale: il sistema, già in uso alla Polizia Scientifica Italiana, è il SARI. Ma pochi lo sanno. Non c’è stato un processo pubblico di regolamentazione, a differenza degli USA. Come funziona, le criticità del sistema, cosa succede nel resto del mondo

23 Mar 2021
Marina Rita Carbone

Consulente privacy

Negli ultimi anni, si è parlato molto di come il riconoscimento facciale possa rappresentare una svolta nell’arresto dei criminali. Cina e Russia hanno sdoganato del tutto tale sistema di controllo (con quel che ovviamente ne consegue, in termini di rischio per la libertà personale, nei confronti di tutti i cittadini), e gli Stati Uniti muovono alcuni importanti passi verso il processo di regolamentazione degli algoritmi di riconoscimento facciale nel settore della pubblica sicurezza.

L’Italia invece non sta seguendo questa strada virtuosa. Ha mosso i passi verso sistemi di riconoscimento facciale per le indagini, ma in un clima poco trasparente e senza alcun dibattito pubblico.

Già in uso da anni alla Polizia Scientifica italiana è il SARI (acronimo di Sistema Automatico di Riconoscimento Immagini). Originariamente utilizzato per contrastare il terrorismo, il SARI è divenuto uno strumento utile anche per l’arresto di alcuni criminali.

Nonostante l’utilizzo di tale sistema possa portare indubbi benefici nelle tempistiche di individuazione dei criminali, il suo funzionamento è ancora oggetto di forti critiche, anche in virtù della scarsa trasparenza che ne ha caratterizzato l’intero processo di sviluppo.

Solo una recente interrogazione parlamentare a firma M5S cerca di rompere questo velo di opacità.

SARI: cos’è e come funziona

Vediamo cosa sappiamo finora.

Il SARI è un sistema di riconoscimento facciale di proprietà dell’azienda leccese Parsec 3.26, in uso alla Polizia dal 2017, che permette di comparare le immagini riprese dalle videocamere di sorveglianza con le immagini contenute nella Banca Dati A.F.I.S. (acronimo di Automated Fingerprint Identification System, o Sistema Automatizzato di Identificazione delle Impronte). AFIS consente di codificare le cosiddette “minutiae”, i punti caratteristici delle impronte digitali di ognuno, e di confrontare con le informazioni contenute nel Casellario Centrale d’Identità della Polizia Criminale, nel quale sono archiviati tutti i cartellini foto-segnaletici redatti dalle forze di Polizia italiane e straniere; all’interno dell’archivio sono memorizzate sia le immagini delle impronte digitali, sia le fotografie e i dati anagrafici e biometrici di tutti i soggetti che vengono sottoposti a rilievi. Nel capitolato tecnico, le immagini “date in pasto” all’intelligenza artificiale sono circa 10 milioni.

WEBINAR
27 Settembre 2021 - 18:00
360ON Tv - Via al nuovo “Gdpr” cinese: quali impatti sul business delle aziende italiane?
Legal
Sicurezza

Normalmente, le forze di Polizia inseriscono manualmente dei parametri di ricerca all’interno delle banche dati biometriche per poter individuare delle corrispondenze (ad esempio: colore degli occhi e dei capelli, carnagione, presenza di tatuaggi e altro). I risultati vengono poi verificati manualmente dagli operatori.

È proprio al fine di velocizzare la fase di identificazione dei sospetti che si è deciso di utilizzare il SARI. Stando a quanto contenuto nel provvedimento del Garante Privacy di autorizzazione all’utilizzo di “SARI Enterprise” (doc. web. n. 9040256), il sistema non effettua elaborazioni aggiuntive rispetto a quelle precedente svolte col sistema AFIS, ma si limita ad “automatizzare alcune operazioni che prima richiedevano l’inserimento manuale di connotati identificativi, consentendo le operazioni di ricerca nel data base dei soggetti foto segnalati attraverso l’inserimento di un’immagine fotografica, che sarà elaborata automaticamente al fine di fornire l’elenco di foto segnaletiche somiglianti, ottenute attraverso un algoritmo decisionale che ne specifica la priorità”.

Pertanto, si ritiene che il SARI, nella sua versione “Enterprise”, non rappresenti un nuovo trattamento, ma soltanto una nuova modalità di trattamento, un “mero ausilio all’agire umano, avente lo scopo di velocizzare l’identificazione, da parte dell’operatore di polizia, di un soggetto ricercato della cui immagine facciale si disponga, ferma restando l’esigenza dell’intervento dell’operatore per verificare l’attendibilità dei risultati prodotti dal sistema automatizzato”.

La funzione “Real-Time”

Il sistema SARI, tuttavia, è dotato anche di una funzione “Real-Time” che confronta in tempo reale i volti dei soggetti ripresi dalle videocamere e li confronta con una cosiddetta watch-list contenente, da capitolato tecnico, circa 10mila immagini). All’avvenuto rilevamento di una corrispondenza, il sistema genera un alert. Tale funzione dovrebbe consentire, nel corso di eventi e manifestazioni, di potenziare il sistema di controllo del territorio.

Intelligenza artificiale, gli usi pubblici in Italia: polizia, giustizia, sanità, fisco

Le criticità del sistema SARI

L’utilizzo maggiormente diffuso del sistema SARI, specialmente nella sua versione Real-Time, ha fatto emergere non poche criticità in merito al suo funzionamento ed alle possibili conseguenze che l’utilizzo su larga scala di tale sistema può comportare nei confronti dei cittadini, i cui diritti costituzionali devono essere sempre garantiti, anche quando si agisce a tutela della sicurezza e dell’ordine pubblico.

Con riferimento al sistema SARI – Enterprise, ciò che lascia perplessi è il numero di immagini contenute nel database AFIS (e, dunque, utilizzate per l’analisi automatizzata dei dati biometrici). Mentre nel capitolato tecnico, come anticipato, è stato indicato un numero pari a circa 10 milioni di immagini, le dichiarazioni pervenute dalla Polizia, a seguito dell’avvenuto arresto di due criminali grazie proprio al SARI, sono assai differenti: AFIS, infatti, conterrebbe ben oltre 16 milioni di immagini, le cui modalità di trattamento (raccolta, elaborazione e conservazione) non sono del tutto note, se non a grandi linee.

Una delle possibili ipotesi avanzate per spiegare il divario tra i dati dichiarati in capitolato e i dati espressi dalle forze dell’ordine, è che il SARI attinga parzialmente ai dati contenuti nel database EURODAC (acronimo di European Asylum Dactyloscopy), contenente le impronte digitali dei richiedenti asilo e degli stranieri irregolari che vengono segnalati sul territorio europeo. Era stata, infatti, avanzata, in sede europea, una proposta per includere all’interno di tale database i dati biometrici dei migranti, al fine di gestire la recente crisi migratoria.

Ma, come detto, questa è solo una delle varie ipotesi al vaglio degli esperti: il divario tra i dati reali e quelli dichiarati potrebbe dipendere dall’acquisizione massiva di immagini online (come accaduto, ad esempio, negli Stati Uniti, che hanno acquisito milioni di immagini dai social o dai siti web), o dall’inserimento, nel database, dei dati del Sistema di Gestione dell’accoglienza (SGA), utilizzato al fine di identificare i migranti.

Tale ultima eventualità era stata duramente bocciata da uno studio condotto nel 2019 dall’Agenzia europea per i diritti fondamentali (FRA), nel quale si evidenziavano i rischi connessi all’utilizzo del riconoscimento facciale per che ha evidenziato come l’utilizzo del riconoscimento facciale sia contrario ai diritti fondamentali dell’uomo, specialmente se utilizzato in tempo reale su ignari migranti.

Con riferimento al sistema SARI – Real Time, le criticità sono ancora maggiori, specialmente alla luce della totale assenza di trasparenza da parte del Ministero dell’Interno sulle specifiche tecniche e sulle concrete finalità del sistema. Ad oggi, neppure l’Autorità Garante è stata messa nella posizione di poter valutare se tale trattamento sia coerente con i principi di tutela della privacy e dei diritti costituzionali degli interessati (manca, infatti, qualsiasi provvedimento che valuti l’adeguatezza del SARI Real-Time alle disposizioni vigenti).

Neppure sono state rese pubbliche le risultanze (ove realmente condotte) della DPIA condotta sui sistemi, grazie alla quale i cittadini potrebbero quantomeno essere rassicurati sull’effettiva “sicurezza” di un sistema il cui scopo dovrebbe essere proprio quello di proteggerli e tutelarli.

A nulla rileva che il sistema, nella sua forma Real-Time, sia ancora in una fase di “test”, in quanto tali adempimenti sono, ai sensi di legge, preliminari rispetto a qualsiasi suo utilizzo, specie nel caso in cui vi siano pesanti conseguenze per i diritti degli interessati (si pensi, appunto, all’applicazione di misure restrittive della libertà personale come il fermo o l’arresto, che comprimono fortemente i diritti dei soggetti coinvolti).

Anche se sembra che l’Europa, infatti, si sia arrestata di fronte all’implementazione di misure di riconoscimento facciale intensive nei confronti dei migranti, non si può dire lo stesso per l’Italia, che appare determinata a far diventare il SARI Real-Time uno strumento ordinario di controllo: secondo l’inchiesta condotta da IrpiMedia tramite una richiesta FOIA, nel novembre 2020 il Ministero dell’Interno avrebbe chiuso un bando di gara per individuare uno strumento di riconoscimento facciale che sia efficace, in tempo reale, nei confronti dei migranti, che abbia ridotte dimensioni (abbastanza piccolo da essere inserito in uno zaino) e permetta di «effettuare installazioni strategiche in luoghi difficilmente accessibili con le apparecchiature in dotazione». Il tutto sarebbe stato finanziato dal Fondo Sicurezza Interna (FSI) 2014-2020, istituito dalla Commissione Europea al fine di promuovere l’attuazione della strategia di sicurezza interna, la cooperazione tra le forze dell’ordine e la gestione delle frontiere esterne dell’Unione.

Lo scopo sarebbe quello di utilizzare il SARI Enterprise per verificare che le foto contenute nei documenti di riconoscimento siano autentiche, ed il SARI Real-Time per “monitorare le operazioni di sbarco e tutte le varie tipologie di attività̀ illegali correlate, video riprenderle ed identificare i soggetti coinvolti”.

Dinanzi a tali circostanze, il pericolo connesso all’adozione di siffatte tecnologie appare evidente, e lo scenario che ci si propone dinanzi sembra quasi quello di un film distopico. Se il SARI non costituisce un rischio per gli interessati, non si comprende per quali motivazioni il Ministero dovrebbe impedire all’Autorità Garante di svolgere le dovute verifiche e di fornire il proprio supporto nella progettazione di un trattamento altamente invasivo dei diritti personali e che potrebbe facilmente essere considerato illegale in sede giudiziaria.

I sistemi di riconoscimento facciale attualmente utilizzati a livello mondiale non garantiscono, infatti, percentuali di precisione sufficienti a giustificarne l’implementazione su larga scala, specialmente ove utilizzati in tempo reale; e nulla si conosce in merito alle percentuali di precisione del sistema SARI.

Come rilevato da uno studio condotto dal MIT nel 2018, gli algoritmi che regolano il funzionamento dei sistemi di riconoscimento facciale hanno percentuali di precisione fortemente variabili: mentre nel caso di uomini di carnagione chiara si registra una precisione del 99%, quando si analizzano i volti di donne o di persone di colore, le percentuali di precisione scendono drasticamente, arrivando ad una precisione di solo il 35% per le donne di pelle scura. La causa sarebbe da ricercare nei dataset utilizzati per alimentare le intelligenze artificiali, comporte per l’80% da soggetti bianchi e per il 75% da uomini.

Ne deriva una forte difficoltà, da parte dei sistemi di riconoscimento facciale, di riconoscere con un sufficiente grado di accuratezza persone che differiscano dal caso “standard” (uomini bianchi), con rischi di discriminazione elevatissimi per gli interessati.

I risultati del MIT sono stati poi confermati da un’analisi condotta dal NIST (National Institute of Standards and Technologies) sugli algoritmi: asiatici ed afroamericani avrebbero, oggi, una probabilità da 10 a 100 volte più elevata di essere identificati erroneamente.

Le conseguenze sul piano pratico sono già state oggetto di giurisprudenza, sia in America (dove l’uso di sistemi di riconoscimento facciale ha portato all’arresto di due cittadini afroamericani che non avevano alcun elemento in comune con i sospetti) che in Inghilterra, dove la Corte d’Appello di Inghilterra e Galles ha accolto il ricorso di un cittadino avverso il sistema di riconoscimento facciale real-time, riconoscendo che tale tecnologia viola il diritto alla privacy ai sensi di quanto disposto dall’art. 9 della Convenzione Europea dei diritti dell’Uomo. In quest’ultimo caso, la Corte d’Appello aveva anche riscontrato forti carenze nella DPIA, nella quale non erano stati valutati correttamente i rischi per i diritti e le libertà degli interessati.

Riconoscimento facciale, piovono divieti a Occidente: lo scenario globale

SARI: un problema da affrontare

L’argomento in esame è stato recentemente oggetto di una specifica interrogazione parlamentare da parte di Federico D’Incà, esponente del M5S, nella quale si chiedeva al Ministro dell’Interno di rispondere ad una serie di domande tecnico-giuridiche che potessero aiutare a comprendere come funziona il SARI, in assenza di una DPIA ufficiale:

  • Se il sistema, originariamente finalizzato all’attività di contrasto del terrorismo, sia stato utilizzato all’interno del Sistema di gestione dell’accoglienza (SGA) del Ministero dell’Interno per identificare i migranti;
  • Quali sono i database cui il SARI attinge, oltre all’AFIS, per il confronto delle immagini e dei live-feed ottenuti e se tra questi database figura l’EURODAC;
  • Quanti cittadini sono inclusi nell’insieme dei database analizzati dal SARI (soggetti foto-segnalati, «altri database» e «watch-list»);
  • Quali test sono stati sottoposti al sistema in merito all’effettiva capacità di riconoscimento dei volti analizzati;
  • Qual è la curva ROC (Receiver Operating Charateristic, una curva che rappresenta il rapporto tra i valori True Positive ed i valori False Positive di un sistema) del SARI, quali siano i tassi di falsi positivi, di falsi negativi, quale la capacità di discernimento del segnale e quale la capacità di reiezione del rumore;
  • Qual è la soglia minima di probabilità di corrispondenza di un’immagine a un soggetto necessaria per far scattare la funzione di alert;
  • Com’è stata effettuata la validazione del sistema (dimensione del campione di test, funzione di sampling, procedura di test per misurare l’accuratezza di predizione di volti);
  • Se i test sono stati effettuati con riprese video di telecamere di videosorveglianza, di eventi, o di manifestazioni pubbliche;
  • Se il sistema consente di tracciare il volto di un soggetto in movimento e ricostruire i suoi spostamenti, se vengono utilizzate informazioni geolocalizzate e, in caso affermativo, per quanto tempo sono conservate;
  • Quale tipo di controllo è stato svolto sugli accessi al sistema di riconoscimento, se esiste un registro delle operazioni effettuate, come e per quanto tale registro viene conservato, e se è in uso un sistema di autenticazione a due fattori;
  • Quali test di sicurezza informatica sono stati condotti sulla soluzione realizzata, con quali risultati ed eventuali criticità;
  • Quali considerazioni e criticità sono emerse dai mesi di “formazione” per l’utilizzo del sistema;
  • Quali valutazioni sono state condotte in merito alla tutela della riservatezza e della proprietà dei dati trattati, con particolare riferimento al rispetto del GDPR e del D.lgs. 51/2018, sul trattamento dei dati personali a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali.

Il riconoscimento facciale nel mondo

Anche nel resto del mondo, le tecnologie di riconoscimento facciale sono oggetto di molte discussioni, principalmente legate, per l’appunto, ai rischi che derivano dalle altissime percentuali di errore dei sistemi:

  • Negli Stati Uniti, ad esempio, il Massachusetts è uno dei pochissimi stati nei quali si sta elaborando un disegno di legge che regoli attentamente l’utilizzo di tale nuova tecnologia, consentendo, da un lato, alle autorità di beneficiare dei vantaggi derivanti dalla rapidità proprie dei sistemi di intelligenza artificiale, dall’altro lato, di prevenire le conseguenze negative che possono derivare da un falso arresto. In primo luogo, si prevede che la polizia debba ottenere il permesso di un giudice per poter effettuare una ricerca tramite i sistemi di riconoscimento facciale; in secondo luogo, si prevede l’istituzione di una commissione tecnica ad hoc che si occupi di studiare le policies che regolano i sistemi di riconoscimento facciale e di elaborare delle raccomandazioni, all’interno delle quali, ad esempio, si identifichino i casi in cui si rende obbligatorio comunicare, al fine di preservare il diritto di difesa dell’indagato, che l’identificazione è stata effettuata tramite tali sistemi.
  • In India, gli esperti di diritti digitali stanno muovendo aspre critiche nei confronti dei sistemi di riconoscimento facciale installati massivamente all’interno di dozzine di scuole, in quanto estremamente lesive dei diritti dei bambini. Tali sistemi di videosorveglianza, infatti, sarebbero stati installati in assenza di una legge che ne specifichi le modalità di funzionamento e che preveda, in particolare, i tempi di conservazione e l’utilizzo dei dati raccolti. La sproporzione tra i benefici del riconoscimento facciale ed i rischi per gli interessati sarebbe, in casi come questi, ingiustificata, con durissimi impatti per i bambini nel caso in cui vi sia un data breach;
  • Da ultimo, anche in Cina stanno nascendo numerose critiche in merito alle scelte compiute dai sistemi di riconoscimento facciale: sembrerebbe, infatti, che tali sistemi siano fondati su degli stereotipi legati alla razza ed all’etnia che comporterebbero fortissime implicazioni per la tutela dei diritti umani, della privacy e della libertà di espressione, con assegnazione di fattori di rischio del tutto discriminatori. Gli algoritmi utilizzati sarebbero perfino in grado di determinare quale emozione sta provando il soggetto esaminato, assegnando fattori di rischio maggiormente elevati nei confronti di tutti coloro che rispecchiano determinati requisiti pseudo-scientifici, al fine di predire l’attuazione di comportamenti pericolosi. Al momento, stando a quanto riportato dal Guardian, i sistemi di riconoscimento facciali basati sulle emozioni sarebbero stati installati in prigioni, scuole, case di cura per anziani e perfino centri commerciali e parcheggi.

In conclusione

Alla luce di tali sviluppi, è evidente che si rende necessario prevenire eventuali fenomeni di abuso tramite l’adozione di specifiche leggi e regolamenti che impongano, anche nei confronti delle autorità di polizia, il rispetto dei diritti fondamentali dell’uomo, fra cui anche il diritto alla riservatezza e a non essere ingiustamente accusato sulla base di sistemi fallaci o discriminatori.

E tale intervento non può tardare.

Videosorveglianza biometrica degli enti pubblici: cosa ne pensano Garanti privacy e cittadini

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4