Dati biometrici, il nodo del rapporto tra AI e libertà: quali regole in Europa - Agenda Digitale

L'approfondimento

Dati biometrici, il nodo del rapporto tra AI e libertà: quali regole in Europa

L’introduzione dei sistemi di intelligenza artificiale volti al trattamento dei dati biometrici pone questioni fondamentali relative alla libertà fondamentale, tema al centro delle regolamentazioni in divenire dell’UE: vediamo lo stato dell’arte delle regole nei diversi Paesi membri

04 Giu 2021
Luca Giacobbe

Avvocato

Nella vita quotidiana, il trattamento di dati biometrici degli individui ricorre con frequenza passando per attività banali come lo sblocco di uno smartphone ad attività più strutturate come la profilazione o la sorveglianza da remoto in tempo reale. Proprio la sorveglianza applicata al riconoscimento facciale per fini di prevenzione e repressione di reati ha catturato l’attenzione del Consiglio d’Europa che nelle proprie linee guida ha segnalato l’intrusività che essa comporta per il diritto alla vita privata e alla dignità delle persone, unitamente al rischio di ripercussioni negative su altri diritti umani e sulle libertà fondamentali.

Proprio il tema dei sistemi di riconoscimento attraverso dati biometrici in tempo reale collocati negli spazi accessibili al pubblico è al centro di un ampio spazio nella proposta di Regolamento presentata il 21 aprile scorso dalla Commissione Europea sull’armonizzazione delle norme sull’Intelligenza Artificiale all’interno degli Stati membri.

Una panoramica sullo stato dell’arte dei sistemi di video sorveglianza e sul tema del riconoscimento facciale nelle esperienze italiana e di alcuni tra i paesi UE può aiutarci a comprendere come la proposta di Regolamento sull’IA sia al contempo lo strumento più idoneo per dare certezza e uniformità a questo fenomeno ma come le prime risposte contenute nella bozza necessitino di integrazioni e miglioramenti.

Perché puntare a un regolamento comune sull’intelligenza artificiale

Lo scopo della Commissione è di affrontare il tema dell’IA dotandosi di un corpus normativo sull’Intelligenza Artificiale uniforme per tutti gli Stati membri sulla scia di quanto già fatto con il GDPR ed in un contesto geopolitico in cui l’Europa intende proporsi come polo guida sull’IA rispetto ai competitor USA e Cina per coniugare investimenti, ricerca e innovazione da una parte e i diritti, l’affidabilità e la sicurezza per i cittadini dall’altra.

WHITEPAPER
I 5 errori che caratterizzano la gestione delle Risorse Umane nel Manufacturing
Risorse Umane/Organizzazione
Smart working

A fare da apripista della proposta è stato il Libro Bianco sull’Intelligenza artificiale presentato nel febbraio 2020 dalla Commissione nelle cui premesse si dava proprio l’obiettivo di sfruttare le opportunità e affrontare le sfide derivanti dall’IA in una prospettiva in cui “l’UE deve parlare con un’unica voce e definire il suo modo di promuovere lo sviluppo e la diffusione dell’IA basandosi sui valori europei”.

Commissione UE: “Ecco la vera forza del Regolamento AI”

Per comprendere appieno i motivi che hanno spinto la Commissione ad imprimere un’accelerazione alla proposta di regolamentazione sull’IA – che dovrà essere vagliata dagli Stati membri ed approvata dal Parlamento Europeo – e di voler approdare ad un sistema chiaro e condiviso di regole sui sistemi di IA, è sufficiente riportare alcune criticità che i paesi membri e le rispettive autorità per le protezione dei dati personali hanno dovuto affrontare confrontandosi con le tecnologie di video sorveglianza che utilizzano dispositivi di riconoscimento facciale sulle quali il ricorso all’impianto complessivo del GDPR non sembra sufficiente.

Dati biometrici, cosa dice il GDPR

Il GDPR definisce i dati biometrici (iride dell’occhio, impronta digitale, immagine facciale) quali dati personali ottenuti da un trattamento tecnico specifico, relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica e che ne consentono o confermano l’identificazione univoca e ne vieta il loro trattamento a causa dell’elevato rischio di pregiudizi ai diritti e alle libertà delle persone fisiche prevedendo deroghe tassative che vanno dal consenso esplicito dell’interessato, alla sussistenza di un interesse vitale dell’interessato o di un’altra persona fisica oppure per esigenze di pubblico interesse.

Al riguardo, le linee guida EDPB 3/2019 evidenziano come il ricorso a tali tecnologie deve avvenire sempre nel dovuto rispetto dei principi di liceità, necessità, proporzionalità e minimizzazione dei dati sanciti nel RGPD. Sebbene l’uso di queste tecnologie possa essere percepito come particolarmente efficace, i titolari del trattamento dovrebbero in primo luogo valutare l’impatto sui diritti e sulle libertà fondamentali e considerare mezzi meno intrusivi per raggiungere il legittimo scopo del rispettivo trattamento

Le linee guida richiamano i legislatori e quanti hanno responsabilità di adottare decisioni a stabilire norme specifiche per il trattamento di dati biometrici mediante tecnologie di riconoscimento facciale a fini di contrasto, per garantire che il loro impiego sia strettamente necessario e proporzionato alle finalità e siano prescritte le necessarie garanzie.

Il parere del Garante privacy italiano e la proposta di moratoria

L’utilizzo di dispositivi di video sorveglianza tramite riconoscimento biometrico in tempo reale adottati dagli enti locali è stato vietato dall’Autorità Garante per la protezione dati personali nel parere adottato nei confronti del Comune di Como in data 26 febbraio 2020 che ha avuto un notevole risalto mediatico trattandosi della prima amministrazione che intendeva fare ricorso a questa tipologia di sistema di IA. Secondo l’Autorità, la raccolta di dati biometrici – funzionale in particolare all’identificazione dei soggetti interessati nei soli casi nei quali emergano specifiche esigenze investigative, segnatamente ai sensi dell’art. 349 c.p.p. – può effettuarsi solo in presenza di un’idonea previsione normativa ai sensi dell’art. 7 d.lgs. n. 51/2018, che al momento non pare rinvenibile. La risposta è stata piuttosto netta e si può affermare che è stata senza margine di dubbio una guida per altre amministrazioni locali potenzialmente interessate a dotarsi di questi impianti.

Il caso di SARI

Discorso diverso invece vale per i due sistemi adottati dall’autorità di pubblica sicurezza e nello specifico dal Ministero dell’Interno noti come SARI (Sistema Automatico di Riconoscimento Immagini) nella versione Enterprise che ha ricevuto parere positivo in data 26 luglio 2018 e nella versione Real Time che ha invece avuto sorte diversa ricevendo il diniego al suo utilizzo.

SARI Enterprise è un sistema automatico di ricerca dell’identità di un volto presente in un’immagine all’interno di una banca dati ideato per affiancarsi al sistema AFIS-SSA, per fornire all’operatore un efficiente supporto informatico che ne agevoli l’attività di indagine. Il data base AFIS ed il sistema AFIS-SSA sono previsti nel decreto del Ministro dell’interno 24 maggio 2017, recante l’individuazione dei trattamenti di dati personali effettuati dal Centro elaborazione dati del Dipartimento della pubblica sicurezza o da Forze di polizia sui dati destinati a confluirvi, ovvero da organi di pubblica sicurezza o altri soggetti pubblici nell’esercizio delle attribuzioni conferite da disposizioni di legge o di regolamento, effettuati con strumenti elettronici e i relativi titolari, in attuazione dell’art. 53, comma 3, del decreto legislativo 30 giugno 2003, n. 196, la cui scheda 19 contiene la descrizione del sistema e indica le numerose fonti normative di riferimento, di rango legislativo e regolamentare.

Il sistema SARI Enterprise non effettua elaborazioni aggiuntive rispetto al AFIS-SSA, ma si limita ad automatizzare alcune operazioni che prima richiedevano l’inserimento manuale di connotati identificativi, consentendo le operazioni di ricerca nel data base dei soggetti foto segnalati attraverso l’inserimento di una immagine fotografica, che sarà elaborata automaticamente al fine di fornire l’elenco di foto segnaletiche somiglianti, ottenute attraverso un algoritmo decisionale che ne specifica la priorità.

Per il Garante, il trattamento costituisce, infatti, un mero ausilio all’agire umano, avente lo scopo di velocizzare l’identificazione, da parte dell’operatore di polizia, di un soggetto ricercato della cui immagine facciale si disponga, ferma restando l’esigenza dell’intervento dell’operatore per verificare l’attendibilità dei risultati prodotti dal sistema automatizzato. Per tali ragioni, il trattamento in esame non può ritenersi riconducibile alle disposizioni di cui al citato articolo 8 e pertanto, anche sotto tale profilo, non si ravvisano elementi ostativi.

Scorza: “Sulle regole AI l’Europa pone la prima pietra, ma sarà sfida enorme: ecco perché”

SARI Real Time consente, invece, attraverso una serie di telecamere installate in un’area geografica predeterminata e delimitata, di analizzare in tempo reale i volti dei soggetti ivi ripresi, confrontandoli con una banca dati predefinita per lo specifico servizio (denominata “watch-list”), la cui grandezza è di massimo 10.000 volti ed ove venga riscontrata, attraverso un algoritmo di riconoscimento facciale, una corrispondenza tra un volto presente nella watch-list ed un volto ripreso da una delle telecamere, il sistema è in grado di generare un alert che richiama l’attenzione degli operatori.

Il parere negativo reso dal Garante, che richiama il precedente del Comune di Como, si concentra essenzialmente sull’assenza di una base giuridica idonea a consentire il trattamento dei dati biometrici e che comunque qualora vi fosse, in esito alla ponderazione di tutti i diritti e le libertà coinvolti, essa dovrà, tra l’altro, rendere adeguatamente prevedibile l’uso di tali sistemi, senza conferire una discrezionalità così ampia che il suo utilizzo dipenda in pratica da coloro che saranno chiamati a disporlo, anziché dalla emananda previsione normativa.

L’intervento della politica

Ciò vale anche per quanto riguarda alcuni aspetti fondamentali dell’impiego della tecnica di riconoscimento facciale in argomento, come, a titolo di mero esempio, i criteri di individuazione dei soggetti che possano essere inseriti nella watch-list o quelli per determinare i casi in cui può essere utilizzato il sistema. Dovranno essere considerati, altresì, i limiti delle tecniche in argomento, notoriamente basate su stime statistiche della corrispondenza tra gli elementi confrontati e, quindi, intrinsecamente fallibili, stimando le eventuali conseguenze per gli interessati in caso di falsi positivi.

Queste valutazioni hanno poi portato di recente gli On.li del PD Borghi (membro Copasir), Madia e Sensi a proporre un DDL avente ad oggetto la moratoria di un anno sull’utilizzo delle tecnologie di riconoscimento facciale nei luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche o di soggetti privati con la previsione di sanzioni amministrative pecuniarie, salvo che il fatto costituisca reato, “in caso di installazione o utilizzo dei sistemi di cui all’articolo 1, durante il periodo intercorrente dalla data di entrata in vigore della presente legge fino al 31 dicembre 2021, di cui agli articoli 166, comma 1, del codice in materia di protezione dei dati personali di cui al decreto legislativo 30 giugno 2003, n. 196 e successive modificazioni, ovvero 42, comma 1, del decreto legislativo 18 maggio 2018, n. 51, in ragione del rispettivo ambito di applicazione”.

La situazione della Spagna

In Spagna l’AEPD ha tratteggiato nel parere N/REF: 010308/2019 i limiti dei trattamenti legati all’utilizzo di tecniche di riconoscimento facciale. Secondo il Garante iberico “l’esistenza di un interesse pubblico non legittima alcun tipo di trattamento dati personali, ma devono essere, prima di tutto, presidiati da una norma di legge in combinato con i principi di limitazione delle finalità e minimizzazione dei dati.

L’utilizzo di sistemi elettronici per la raccolta dei dati biometrici in termini generali (cioè: dati relativi alle caratteristiche fisiche, fisiologiche o comportamentali, appartenenti ad una persona fisica per esempio) è stato introdotto innanzitutto nella PP.AA, sempre ai fini della tutela della pubblica sicurezza dopo l’11 M (11 marzo ndr) tramite l’installazione di telecamere nelle stazioni di treni e pullman, semafori ed alcuni punti strategici delle città. Spesso queste telecamere sono in grado di catturare le caratteristiche facciali cioè dati di categoria speciale, ai sensi del 9.1 GDPR, “che consentono di identificare in modo univoco una persona”.

Il fatto che questa tipologia di dati non rientri nella macrocategoria di dati personali (Considerando 51 GDRP) ma ad una categoria speciale, comporta la loro esclusione del quadro normativo attualmente vigente a livello nazionale cioè, il trattamento dei dati biometrici tramite videosorveglianza non è regolamentato dalla LOPDGDD nè dalla LSP ( Legge 5/2014, di 4 aprile 2014, di Sicurezza Privata).

Di conseguenza il trattamento di queste particolari categorie di dati è oggetto di riserva di legge. Sará possibile soltanto installare sistemi di riconoscimento facciale (dato biometrico di categoria speciale) se c’è una disposizione di legge in tal senso (art. 9 della LOPDGDD) nonchè quando il trattamento sia necessario per motivi di pubblico interesse e/o motivi sanitari.

Al giorno d’oggi non è stata emanata alcuna normativa specifica sebbene sia possibile trovare fondamenti normativi, nei termini sopra menzionati, in alcune leggi come per esempio la Legge 8/2011, del 28 aprile 2011, per la protezione di infrastrutture pubbliche di servizi di prima necessità. Inoltre, queste attività svolte dalle PP.AA si fondano soltanto sull’obbligo costituzionale di tutela della pubblica sicurezza, dell’ordine pubblico. Tuttavia, come concluso nella Relazione dell’Ufficio Giuridico dell’AEPD n. 010308/2019, l’utilizzo non sarebbe consentito ai fini di tutela della sicurezza in ambito privato.

La normativa francese

In Francia la normativa di riferimento in materia di utilizzo di dispositivi per il riconoscimento facciale è contenuta oltre che nel GDPR, nella Legge primaria di Informatica e Libertà nonché nella direttiva di giustizia e polizia. La legge Informatica e Libertà esordisce all’art. 1 con una dichiarazione di principio piuttosto tranchant: “La tecnologia dell’informazione deve essere al servizio di ogni cittadino. […] Non deve attentare né all’identità umana, ai diritti umani, alla privacy o alle libertà individuali o pubbliche”. In questo contesto, il CNIL prende atto in via formale con un paper del 16 novembre 2019 che il riconoscimento facciale è sempre più presente nel dibattito pubblico a livello nazionale, europea e globale e solleva anzi nuove questioni relative a scelta della società.

La richiesta della CNIL

Questo è il motivo per cui la CNIL ha chiesto, nel 2018, un dibattito democratico su questo argomento, oltre che più in generale sui nuovi utilizzi del video facendosi portatrice di una interpretazione particolarmente stringente per esempio in occasione del parere reso sull’utilizzo in due scuole superiori in via sperimentale di un sistema di riconoscimento facciale degli studenti nel presupposto che gli obiettivi di garantire e razionalizzare l’ingresso in queste scuole superiori possono essere raggiunti con mezzi molto meno invadenti in termini di privacy e libertà individuali, come, ad esempio, il controllo dei badge.

Altra recente occasione di esame critico dell’uso dell’IA c’è stata, in occasione dell’approvazione del decreto 10 marzo 2021 con cui il Governo ha permesso ai gestori di mezzi pubblici di linea di dotarsi di un sistema di videosorveglianza intelligente che permette di verificare in tempo reale se i passeggeri indossano le mascherine di protezione individuale e ciò al fine di evitare il contagio da covid 19. In questo caso il CNIL ha fornito parere positivo ma nel presupposto che non ricorre alcun trattamento di dati biometrici ma il riconoscimento facciale è settato con l’unica funzionalità di verifica che i passeggeri accedano ai mezzi indossando i dispositivi di protezione.

Il contesto dei Paesi Bassi

L’Autorità garante (AP) è dovuta intervenire il 29 ottobre scorso con una nota formale a fronte dell’uso indiscriminato da parte di aziende di vendita al dettaglio, sicurezza, sport e intrattenimento, trasporti dei dispositivi di riconoscimento facciale. Poiché l’uso di strumenti invasivi come il riconoscimento facciale non è consentito, l’AP si è impegnata a fornire informazioni mirate sulle regole in quei settori.

Secondo il Garante olandese, il Regolamento generale sulla protezione dei dati (GDPR) stabilisce requisiti rigorosi per il trattamento dei dati biometrici, come le scansioni delle impronte digitali o dell’iride e il riconoscimento vocale o facciale. Secondo il GDPR, i dati biometrici sono dati personali speciali se vengono utilizzati per identificare qualcuno. In linea di  principio, è vietato trattare dati personali speciali.

L’intervento dell’autorità svedese

La DPA svedese ha esaminato il caso di una scuola comunale del Nord del paese che ha condotto un progetto pilota – limitato peraltro nel tempo – di riconoscimento facciale per tenere traccia della frequenza scolastica degli studenti irrogando una sanzione di 200.000 SEK (circa 20.000 euro). Il DPA svedese ha concluso che il test viola le norme del GDPR e ha imposto una multa al comune di circa 20.000 euro. La scuola ha elaborato dati biometrici sensibili illegalmente e non è riuscita a eseguire un’adeguata valutazione dell’impatto, compresa la consultazione preventiva con il DPA svedese.

La scuola ha basato il trattamento sul consenso, ma il DPA svedese ritiene che il consenso non fosse una base giuridica valida dato il chiaro squilibrio tra l’interessato e il responsabile del trattamento.

La valutazione d’impatto in Danimarca

Un altro paese scandinavo ha però valutato l’impatto del’IA in maniera diametralmente opposta riguardo l’utilizzo dei dispositivi di riconoscimento facciale dando il proprio via libera all’installazione di telecamere intelligenti all’interno dello stadio di cui è proprietaria la squadra di calcio professionista del Broendby che milita nella seria A del campionato danese. Si tratta di un provvedimento che ha autorizzato un “privato” a dotarsi di un sistema di IA per finalità di interesse pubblico finalizzate ad impedire l’accesso allo stadio a una lista di tifosi che avevano ricevuto in passato un provvedimento amministrativo o giudiziale di inibizione per fatti violenti.

Sebbene il parere reso dall’Autorità Garante abbia delimitato un perimetro preciso all’interno del quale è possibile effettuare il trattamento dei dati come l’obbligo di non conservare i dati biometrici di chi accede allo stadio, obbligo di cancellazione post partita di tutti i dati residuali, obbligo di segnaletica ad hoc, conservazione dei dati temporanei in un server protetto da algoritmi crittografati, autenticazione a due fattori e divieto di accesso ai server da remoto, resta il fatto che un privato ha ricevuto il via libera all’installazione di un sistema di riconoscimento facciale e ciò ha sollevato un vivace dibattito sulla stampa nazionale.

La proposta di Regolamento AI europea

La proposta di regolamento avanzata dalla Commissione Europea introduce quattro distinti livelli di rischio (inaccettabile, alto, limitato e minimo) nella valutazione dei sistemi di IA. Il livello di rischio inaccettabile è tale perché viola i valori dell’Unione e i diritti fondamentali e pertanto tutte le pratiche incluse all’interno di questa categoria sono vietate in quanto comportano la possibilità di manipolazione del comportamento umano. Tra le fattispecie valutate all’interno del livello di rischio inaccettabile previsti nell’articolo 5 c’è l’uso di sistemi di identificazione biometrica in tempo reale negli spazi pubblici riguarda i casi in cui l’IA è considerata una minaccia alla sicurezza e ai diritti fondamentali delle persone.

Nei punti da 18 a 24 delle premesse la proposta di Regolamento chiarisce che “L’uso di sistemi di intelligenza artificiale per l’identificazione biometrica remota in tempo reale di persone fisiche in spazi accessibili al pubblico evoca un sentimento di costante sorveglianza e dissuade indirettamente l’esercizio della libertà di riunione e di altri diritti fondamentali. Inoltre, l’immediatezza dell’impatto e le limitate opportunità di ulteriori controlli o correzioni in relazione all’uso di tali sistemi che operano in tempo reale comportano rischi maggiori per i diritti e le libertà delle persone interessate dalle attività di contrasto”.

Partendo da queste premesse sembrerebbe scontata la conclusione che l’utilizzo dei dispositivi di riconoscimento facciale siano bandito dalla proposta di Regolamento ma non è così. L’uso di tali sistemi ai fini dell’applicazione della legge dovrebbe essere vietato, tranne in tre situazioni elencate in modo esauriente e definite in modo restrittivo, in cui l’uso è strettamente necessario per conseguire un interesse pubblico sostanziale, la cui importanza supera i rischi. Tali situazioni eccezionali che legittimano l’utilizzo di questi dispositivi sono:

  • la ricerca di potenziali vittime di reati, compresi i bambini scomparsi;
  • determinate minacce alla vita o all’incolumità fisica di persone fisiche o di attacchi terroristici;
  • l’individuazione, la localizzazione, l’identificazione o il perseguimento di autori o sospettati dei reati di cui alla decisione quadro del Consiglio 2002/584 / GAI38 se tali reati sono punibili nello Stato membro interessato con una pena detentiva o un ordine di detenzione per un massimo periodo di almeno tre anni e secondo la definizione della legislazione di tale Stato membro.

Al fine di garantire che i sistemi siano utilizzati in modo responsabile e proporzionato, è anche importante stabilire che, in ciascuna di queste tre situazioni elencate in modo esauriente e definite in modo restrittivo, si tenga conto di alcuni elementi, in particolare per quanto riguarda la natura della situazione che ha dato origine alla richiesta e delle conseguenze dell’uso per i diritti e delle libertà di tutte le persone interessate e delle garanzie e condizioni previste dall’uso. Inoltre, l’uso di sistemi di identificazione biometrica remota “ in tempo reale ” in spazi accessibili al pubblico ai fini dell’applicazione della legge dovrebbe essere soggetto a limiti adeguati nel tempo e nello spazio, tenendo conto in particolare delle prove o delle indicazioni relative alle minacce, vittime o autori. La banca dati di riferimento delle persone dovrebbe essere appropriata per ogni caso d’uso in ciascuna delle tre situazioni sopra menzionate.

Ogni utilizzo di un sistema di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico ai fini dell’applicazione della legge dovrebbe essere soggetto a un’autorizzazione espressa e specifica da parte di un’autorità giudiziaria o di un’autorità amministrativa indipendente di uno Stato membro. Tale autorizzazione dovrebbe in linea di principio essere ottenuta prima dell’uso, salvo in situazioni di urgenza debitamente giustificate, ovvero situazioni in cui la necessità di utilizzare i sistemi in questione è tale da rendere effettivamente e oggettivamente impossibile ottenere un’autorizzazione prima di iniziare il loro uso. In tali situazioni di urgenza, l’uso dovrebbe essere limitato al minimo indispensabile ed essere soggetto a garanzie e condizioni adeguate, come stabilito dalla legislazione nazionale e specificato nel contesto di ogni singolo caso di uso urgente dalle stesse autorità di contrasto. Inoltre, in tali situazioni, l’autorità di contrasto dovrebbe cercare di ottenere un’autorizzazione il prima possibile, fornendo allo stesso tempo i motivi per non aver potuto richiederla prima.

Conclusione

In altre parole, la Commissione non intende chiudere definitivamente le porte ai trattamenti effettuati mediante dispositivi di riconoscimento facciale in tempo reale e pur considerando il loro utilizzo su un piano di rischio non accettabile lascia margini di applicazione sia pure minimi agli Stati membri.

Dal momento che la tempistica per l’approvazione finale della proposta e la sua entrata in vigore è prevedibilmente di un paio di anni e che la proposta non contiene una risposta del tutto risolutiva né tantomeno è stata avanzata una moratoria a livello europeo (soluzione auspicabile quantomeno per i dispositivi di riconoscimento facciale in tempo reale in spazi pubblici) le criticità descritte a vario livello nei Paesi membri non troveranno immediata soluzione ed è prevedibile che emergeranno con sempre maggiore frequenza ulteriori problematiche legate all’evoluzione tecnologica dei sistemi ed all’affidabilità dei principali player produttori dei sistemi.

WEBINAR
18 Novembre 2021 - 15:00
PNRR: Cybersecurity e innovazione digitale (sicura).
Sicurezza
Cybersecurity
@RIPRODUZIONE RISERVATA

Articolo 1 di 4