Siamo uomini o codici a barre? Ecco perché bisogna bandire la sorveglianza biometrica in Ue | Agenda Digitale

riprenditi la faccia

Siamo uomini o codici a barre? Ecco perché bisogna bandire la sorveglianza biometrica in Ue

I cittadini europei si trovano di fronte a un momento storico cruciale: fermare la sorveglianza biometrica di massa prima che diventi talmente pervasiva da essere normalizzata nelle nostre società. Ha questo obiettivo la campagna “Riprenditi la faccia”, che chiede il ban del riconoscimento facciale negli spazi pubblici

25 Mar 2021
Laura Carrer

Research & Advocacy Hermes Center for Transparency and Digital Human Rights

Riccardo Coluccini

ricercatore presso il Centro Hermes per la trasparenza e i diritti umani digitali

Thanks to Tobias Tullius for sharing their work on Unsplash

Tecnologie come il riconoscimento facciale e gli algoritmi di intelligenza artificiale che esaminano le nostre espressioni e comportamenti sono sempre più diffuse: più della metà dei paesi dell’UE stanno già usando strumenti simili spesso in violazione dei diritti umani fondamentali.

Per questo, lo scorso 17 febbraio 40 associazioni della società civile hanno lanciato l’Iniziativa dei Cittadini Europei (ECI) all’interno della campagna Reclaim Your Face per chiedere di vietare definitivamente la sorveglianza biometrica di massa in Europa.

Perché il riconoscimento facciale è pericoloso

Le tecnologie biometriche raccolgono dati unici relativi ai nostri corpi (come ad esempio il nostro volto) e ai nostri comportamenti (ad esempio l’andatura) e promettono di riuscire a identificarci, monitorare i nostri spostamenti, o persino catalogarci in base alle emozioni che il computer crede di poter attribuire alle nostre espressioni.

WEBINAR
16 Settembre 2021 - 11:00
Quanto contano per te User Experience e Device Management? Partecipa al Webinar!
Mobility
Personal Computing

Queste tecnologie promuovono un’idea di futuro in cui le persone potranno essere facilmente discriminate sulla base del proprio aspetto, religione, sessualità, disabilità, e altri fattori che costituiscono le nostre diverse identità. Le nostre città diventerebbero uno spazio di discriminazione automatizzata di massa: una passeggiata al parco potrebbe farci finire in una lista di sospetti solamente perché siamo rimasti troppo a lungo a camminare intorno a un albero mentre siamo al telefono.

Nonostante siano promosse come una facile soluzione al crimine, la realtà è che queste tecnologie invasive poggiano spesso su basi non scientifiche, discriminatorie e giustificate dalla percezione di insicurezza dei cittadini più che dal riscontro oggettivo della delittuosità. Normalizzando la videosorveglianza e le tecnologie biometriche, i nostri governi stanno creando le condizioni perfette per strutturare una sorveglianza di massa antidemocratica. L’Iniziativa dei Cittadini Europei vuole però spingere la Commissione Europea a vietare gli usi dannosi di queste tecnologie.

Riconoscimento facciale, piovono divieti a Occidente: lo scenario globale

L’Iniziativa dei Cittadini Europei

L’Iniziativa dei Cittadini Europei (ECI) non è una normale petizione ma uno strumento ufficiale messo a disposizione dalla Commissione Europea per organizzare e chiedere tutti insieme nuovi quadri legislativi. È per questo che le firme devono essere verificate ufficialmente dalle autorità nazionali sulla base di regole specifiche per ogni paese dell’Unione Europea ed è necessario fornire anche gli estremi di un documento d’identità.

L’obiettivo dell’ECI, portata avanti in Italia dal Centro Hermes con il supporto di Associazione Luca Coscioni, Certi Diritti, CILD, Eumans, info.nodes, Privacy Network e StraLi, è raccogliere complessivamente 1 milione di firme in almeno 7 paesi dell’UE nell’arco di un anno. Se avremo successo la Commissione Europea sarà obbligata a rispondere alla nostra richiesta formale per una nuova legge e aprire un dibattito con gli Stati Membri e il Parlamento Europeo. Lo scopo è far sì che la Commissione vieti esplicitamente e specificamente la sorveglianza biometrica di massa negli spazi pubblici.

I nostri corpi come codici a barre ambulanti?

Per sorveglianza di massa si intende la raccolta di dati in luoghi accessibili al pubblico come parchi, strade o stazioni ferroviarie, fatta in modo tale da prendere di mira chiunque indiscriminatamente—ma può colpire anche particolari gruppi e categorie di persone.

Quando la sorveglianza di massa sfrutta i dati biometrici, i nostri corpi si trasformano in codici a barre ambulanti: ogni nostro spostamento viene misurato dagli algoritmi e i nostri corpi diventano dati digitali senza vita.

Studi accademici hanno dimostrato l’intrinseca discriminazione strutturale incorporata nei sistemi biometrici. La ricerca mostra che gli algoritmi di analisi facciale giudicano i volti di persone nere più arrabbiati e minacciosi di quelli di persone bianche. Sappiamo anche che i sistemi biometrici sono progettati tenendo a mente un volto e un corpo presumibilmente “neutri” il che può escludere le persone con disabilità e chiunque non sia conforme a una definizione di neutri che in realtà sottende una definizione di normalità totalmente arbitraria.

I cittadini europei si trovano di fronte a un momento storico cruciale: fermare la sorveglianza biometrica di massa prima che diventi talmente pervasiva da essere normalizzata nelle nostre società. Questa campagna è ancora più importante perché in Europa queste tecnologie non sono solamente le ombre dei sistemi introdotti negli Stati Uniti e in Cina, di cui sentiamo parlare quotidianamente. I sistemi di sorveglianza biometrica sono attivi anche in Europa.

In Italia: SARI e i casi di Torino e Como

In Italia l’impiego di tecnologie di riconoscimento biometrico e facciale è già ampiamente diffuso su due diversi livelli, uno nazionale e uno locale. Il sistema SARI gestito dalla polizia scientifica si è dimostrato da subito controverso e coperto da un velo di segretezza estrema: interrogazioni parlamentari sull’accuratezza del sistema non hanno trovato risposta e la mancanza di informazioni sui 9 milioni di volti delle persone incluse nel database hanno trasformato il sistema SARI in un buco nero.

Inoltre, il Ministero dell’Interno ha da poco acquistato un potenziamento per il sistema SARI nella sua versione in tempo reale con lo scopo di monitorare le attività di sbarco, riprendendo quindi migranti e richiedenti asilo. Questa scelta ha chiaramente destato preoccupazione, anche perché al momento il sistema SARI Real-Time è ancora al centro di un’istruttoria aperta dall’Autorità garante per la protezione dei dati personali nel 2017. In una recente risposta a un’interrogazione parlamentare, la Ministra dell’Interno Luciana Lamorgese ha affermato che il sistema non è attualmente in uso sui migranti ma allo stesso tempo ha confermato che una volta entrato a regime sarà usato “in modo indifferenziato, a supporto delle attività investigative.”

Intelligenza artificiale, gli usi pubblici in Italia: polizia, giustizia, sanità, fisco

A livello locale, invece, l’esperimento distopico della città di Como è stato subito stroncato da un provvedimento del Garante privacy grazie anche ad una tempestiva inchiesta giornalistica che ha sottolineato l’importanza di maggiore trasparenza sui processi decisionali che si trovano dietro all’installazione di tecnologie di riconoscimento biometrico. Eppure altre città hanno già annunciato l’installazione di tecnologie simili, come Torino e Udine, ma del tema si discute anche all’interno degli stadi di calcio.

Nel caso di Torino, la giunta comunale ha avviato il progetto ARGO, il sistema sarà in grado di utilizzare algoritmi per estrarre in tempo reale informazioni dai video. In particolare il sistema sarebbe in grado di effettuare una distinzione “tra uomo/donna; colore di abbigliamento e scarpe; presenza di oggetti come borse, zaini, cappelli ecc.”

Con questo tipo di informazioni sarebbe possibile identificare e pedinare le persone riprese in tempo reale: un cappello, una borsa rossa o una semplice maglietta con un logo, combinati con le informazioni sul genere della persona, permettono di seguirne gli spostamenti all’interno della città. Questo sistema è stato già oggetto di una segnalazione al Garante privacy: al momento non c’è infatti una base legale per il trattamento di dati biometrici—quei dati che ricadono nell’articolo 9 del GDPR—da parte della polizia locale in Italia.

I casi in Europa

I bias degli algoritmi e i rischi per i diritti umani che sono connaturati a queste tecnologie sono noti e stanno già portando a divieti di utilizzo in diverse città e Stati degli USA, eppure l’introduzione della sorveglianza biometrica, e in particolare il riconoscimento facciale, sta travolgendo tutta Europa.

In Francia, la società civile guidata dall’associazione La Quadrature du Net ha sottoposto all’attenzione del Tribunale Amministrativo di Marsiglia l’impiego della sorveglianza biometrica di massa nelle scuole: il tribunale ha bloccato il sistema perché viola il Regolamento generale sulla protezione dei dati (GDPR) in quanto tali sistemi si basano sul consenso ma gli studenti non possono dare il consenso liberamente, considerando il rapporto che li lega all’amministrazione scolastica.

E sempre in Francia, un sistema di riconoscimento facciale simile al sistema SARI Enterprise italiano è al centro di un reclamo presentato al Consiglio di Stato da parte degli attivisti di La Quadrature du Net. Il codice di procedura penale francese autorizza l’uso del riconoscimento facciale per identificare le persone registrate in un archivio di polizia giudiziaria, questo database contiene 19 milioni di file e più di 8 milioni di immagini di persone. Grazie a questa banca dati, la polizia francese usa abitualmente il riconoscimento facciale nelle strade da molti anni, senza alcuna giustificazione sull’effettiva necessità del sistema.

In Serbia, le autorità della città di Belgrado hanno installato migliaia di videocamere che potranno essere munite di sistemi di riconoscimento facciale per sorvegliare la popolazione, come svelato dall’associazione Share Foundation e dai cittadini locali.

In Grecia, le autorità nazionali stanno indagando sull’uso della sorveglianza biometrica da parte della polizia durante le attività di controllo in strada. Come ricostruisce un articolo di AlgorithmWatch, entro l’estate del 2021 la polizia greca dovrebbe ricevere migliaia di dispositivi che permettono il riconoscimento facciale in tempo reale e l’identificazione delle impronte digitali. Il progetto prende il nome di “Smart Policing” e nel marzo 2020 l’associazione greca Homo Digitalis ha presentato una richiesta all’Autorità greca per la protezione dei dati esprimendo le sue preoccupazioni sulla base giuridica del progetto.

Nei Paesi Bassi, l’autorità nazionale per la protezione dei dati ha criticato la sorveglianza biometrica di massa nei supermercati e ha sottolineato in maniera inequivocabile i pericoli di queste tecnologie: “il riconoscimento facciale ci rende tutti codici a barre ambulanti, la tua faccia viene scansionata ogni volta che entri in un negozio, uno stadio o un’arena che utilizza questa tecnologia. E viene fatto senza il tuo consenso. Mettendo la tua faccia in un motore di ricerca, c’è la possibilità che la tua faccia possa essere collegata al tuo nome e ad altri dati personali. Questo potrebbe essere fatto incrociando la tua faccia con il tuo profilo sui social media, per esempio,” ha dichiarato in un comunicato Monique Verdier, vicepresidente e membro del consiglio dell’Autorità olandese.

A gennaio 2020, due giorni dopo che il New York Times ha rivelato l’esistenza della società Clearview AI che offre un sistema di riconoscimento facciale basato su 3 miliardi di immagini rubate da internet, Matthias Marx, un membro della comunità di hacker-attivisti Chaos Computer Club, ha inviato una richiesta di accesso ai dati a Clearview AI. In questo modo ha scoperto che l’azienda stava trattando i suoi dati biometrici e ha presentato un reclamo all’autorità di protezione dei dati di Amburgo (DPA). Come risultato, l’Autorità di Amburgo ha stabilito che il database di foto biometriche di Clearview AI è illegale nell’UE e costretto l’azienda a cancellare i valori alfanumerici calcolati dagli algoritmi sulle immagini del volto di Marx.

Siamo esseri umani non dati

Autorità locali e nazionali spendono ingenti somme di denaro pubblico in tecnologie biometriche con la convinzione che possano essere una facile scorciatoia per problemi sociali complessi. Lo fanno spesso con poca trasparenza, senza coinvolgere i cittadini in un dibattito informato e lasciando purtroppo da parte altre soluzioni quali investire nell’educazione, nel welfare o nel creare fiducia e dialogo con le comunità.

Equipaggiare le nostre strade, supermercati e parchi con queste tecnologie amplificherà la discriminazione esistente contro le persone di colore, le persone con disabilità e altri gruppi emarginati. Invece di essere al centro di un sano dibattito pubblico, queste pratiche saranno nascoste sotto un velo di falsa autorità scientifica e di deliberata opacità. La polizia di Londra, per esempio, sostiene che il riconoscimento facciale non venga mai usato per prendere decisioni senza la supervisione di un essere umano. Eppure in alcuni casi le persone sono psicologicamente scoraggiate dal contestare le decisioni basate sull’AI e non mancano episodi in cui, malgrado la supervisione degli agenti, la polizia abbia arrestato la persona sbagliata perchè indicata dal software—anche quando le differenze del volto erano palesi.

I governi stanno stravolgendo il nostro spazio pubblico, introducendo un controllo che si estende non solo a tutto ciò che facciamo, ma anche ai nostri pensieri più intimi, e applicandolo a contesti in cui la nostra innocenza o colpevolezza è predetta sulla base dei nostri dati biometrici. Questi strumenti e pratiche sono il sogno di ogni stato di polizia per eccellenza e l’antitesi dello stato di diritto; ma abbiamo l’opportunità di fermarli prima che diventino pervasivi nelle nostre società.

L’UE ha il potere di diventare un esempio globale nella regolamentazione dell’IA, assicurando il divieto di utilizzo delle tecnologie per la sorveglianza biometrica di massa. I principi europei devono proteggere un futuro in cui siamo liberi dal giudizio delle macchine che ci spogliano della nostra dignità, violano la nostra integrità corporea e psicologica, e minacciano le nostre libertà democratiche.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4