Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

il punto

Riconoscimento facciale: cos’è, come funziona, perché è sempre più usato

Il riconoscimento facciale è una tecnica a uso crescente e non solo a scopi di sicurezza o nei regimi dittatoriali, come le cronache recenti potrebbero indurci a credere. Sempre più diffuso nei luoghi più disparati – dai centri commerciali ai parchi – ecco come funziona, quali sono i pro e i contro e quali tutele abbiamo

01 Nov 2019
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza


La tecnica del riconoscimento facciale è oggi sempre più utilizzata non solo per scopi di sicurezza  (ad esempio al servizio delle forze dell’ordine e non solo nei regimi dittatoriali), ma anche in molti altri ambiti della nostra vita quotidiana, principalmente a fini commerciali.

Vediamo allora cos’è, come funziona, quali sono le tecnologie che ne abilitano l’operatività, i rischi e le tutele.

Cos’è il riconoscimento facciale

Il riconoscimento facciale – uno dei “protagonisti tecnologici” del nostro tempo – è una tecnica biometrica atta ad identificare in modo univoco una persona confrontando e analizzando modelli basati sui suoi “contorni facciali”.

Vi sono diverse tecniche di riconoscimento facciale, come il riconoscimento facciale “generalizzato” e il riconoscimento facciale “regionale adattativo”. La maggior parte dei sistemi di riconoscimento facciale funzionano in base ai diversi punti nodali di un volto umano. I valori misurati rispetto alla variabile associata ai punti del volto di una persona aiutano ad identificare o verificare la persona in modo univoco. Con questa tecnica, le applicazioni possono utilizzare i dati acquisiti dai volti e possono identificare accuratamente e rapidamente gli individui interessati. Le tecniche di riconoscimento facciale si stanno rapidamente evolvendo con nuovi approcci (come la tecnologia 3D), aiutando a superare i problemi presenti con le tecniche esistenti.

Vantaggi e svantaggi del riconoscimento facciale

Ci sono molti vantaggi associati al riconoscimento facciale. Rispetto ad altre tecniche biometriche, il riconoscimento facciale è di natura “non a contatto”. Le immagini del volto possono essere catturate a distanza e possono essere analizzate senza mai richiedere alcuna interazione con la persona interessata. Il riconoscimento facciale può servire come eccellente misura di sicurezza per il rilevamento del tempo e la partecipazione dell’individuo ad un dato evento o luogo. Il riconoscimento facciale è anche una tecnologia a buon mercato, in quanto l’elaborazione è meno “costosa” di altre tecniche biometriche.

Ci sono alcuni svantaggi associati al riconoscimento facciale. Infatti tale tecnica può identificare le persone solo quando le condizioni di luce sono favorevoli (buona illuminazione o messa a fuoco del volto): in altre parole, potrebbe essere meno affidabile in caso di luce insufficiente o in presenza di un viso anche parzialmente oscurato. Un altro svantaggio è che il riconoscimento facciale è meno efficace al variare delle diverse espressioni facciali umane.

Come funziona il riconoscimento facciale

È fondamentale comprendere come funziona – dal lato eminentemente tecnico – il riconoscimento facciale.

Di seguito vi sono tre applicazioni di tale tecnica, elencate dalla più “basic” alla più complessa.

  • Riconoscimento facciale “di base”: prendendo ad esempio i filtri Instagram o Snapchat, la fotocamera del dispositivo (es. smartphone) “cerca” le caratteristiche che definiscono un volto, ed in particolare gli occhi, il naso e la bocca. Una volta compiuta la sua ricerca, la fotocamera – tramite il Social – usa algoritmi per agganciare un volto e determinare in quale direzione la persona sta guardando, se la sua bocca è aperta, ecc. In questo caso siamo in presenza di un software che “ricerca volti”, e non si può parlare di riconoscimento facciale vero e proprio.
  • Sblocco del dispositivo con il volto: volendo sbloccare il dispositivo con il volto, il device scatta una foto del viso e misura la distanza tra i tratti del viso. Poi, ogni volta che si va a sbloccare il telefono, “guarda” attraverso la fotocamera per misurare e confermare l’identità del soggetto. Nota: qui la differenza tra dispositivi può essere “abissale”; basti solo pensare al livello tecnologico raggiunto dal “Face ID” di Apple.
  • Identificazione di uno sconosciuto: nell’atto dell’identificazione di un volto per scopi di sicurezza, per scopi pubblicitari o di polizia, vi è l’utilizzo di algoritmi che “pescano” in un ampio database di volti, associando di volta in volta diversi profili con quello in esame.

Le tecnologie alla base del riconoscimento facciale

La maggior parte dei software di riconoscimento facciale si basa interamente su immagini 2D. La stragrande maggioranza delle fotocamere scatta foto in 2D, e la stragrande maggioranza delle foto presenti sui Social è in 2D (es. foto profilo di Facebook). Tuttavia i volti “in 2D” non sono qualitativamente accurati, poiché si tratta di immagini piatte – o senza profondità – del viso, in che non ci porta ad avere caratteristiche di identificazione. Con un’immagine 2D, un dispositivo può misurare la distanza pupillare e la larghezza della bocca; tuttavia, non è in grado di riconoscere la lunghezza del naso o la prominenza della fronte. Inoltre, l’immagine facciale 2D si basa sulla luminosità: ciò significa che tale tecnica non funziona al buio, e può essere inaffidabile in condizione di scarsa illuminazione (con alto tasso di falsi positivi, ad esempio).

Il modo per ovviare ad alcune di queste carenze è quello di utilizzare la tecnologia 3D. Il riconoscimento facciale 3D si ottiene attraverso una tecnica chiamata “lidar”, che è simile al sonar (usato in campo marittimo). In sostanza, i dispositivi di scansione del viso (es. l’iPhone), proiettano una sorta di impulso laser sul viso; questo impulso si riflette sul viso e viene ripreso da una fotocamera IR (InfraRed) presente nel dispositivo. La fotocamera IR del telefono misura quanto tempo ci vuole perché ogni bit di luce IR rimbalzi dal viso e ritorni sul dispositivo. Naturalmente, la luce che si riflette dal naso avrà un percorso più breve della luce che si riflette dalle orecchie, e la telecamera IR utilizza queste informazioni per creare una mappa di profondità unica dell’intero viso. Se utilizzata insieme alla tecnologia 2D, la tecnologia 3D può aumentare significativamente la precisione del software di riconoscimento facciale, diminuendo al contempo la possibilità di incorrere in falsi positivi.

Per risolvere il problema del riconoscimento facciale 2D “al buio” è possibile utilizzare una termocamera. Differentemente dalla lidar, le termocamere non emettono luce IR, ma semplicemente rilevano la luce IR emessa dagli oggetti. Gli oggetti caldi emettono moltissima luce IR, mentre gli oggetti freddi ne emettono una quantità trascurabile. Le più tecnologiche termocamere sono in grado di rilevare anche sottili differenze di temperatura su una superficie, il che è l’ideale per il riconoscimento facciale. Ci sono diversi modi per identificare un volto mediante termocamera. Tutte queste tecniche sono incredibilmente complicate, ma condividono alcune somiglianze fondamentali, di seguito accennate.

  • Sono necessarie foto multiple: una termocamera scatta foto multiple del volto di un soggetto. Ogni foto si concentra su un diverso spettro di luce IR (onde lunghe, corte e medie). Tipicamente, lo spettro ad onde lunghe fornisce i maggiori dettagli.
  • Determinano la “mappatura” dei vasi sanguigni: le immagini IR possono anche essere utilizzate per estrarre la formazione di vasi sanguigni nel volto di una persona. Le mappe dei vasi sanguigni possono essere utilizzate come impronte digitali facciali uniche. Possono anche essere utilizzate per trovare la distanza tra gli organi facciali (nel caso in cui le tipiche immagini termiche producessero immagini scadenti) o per identificare contusioni e cicatrici.
  • Il soggetto può essere identificato in maniera efficace: un’immagine composita viene creata utilizzando immagini IR multiple. Questa immagine composita può quindi essere confrontata con un database facciale per identificare il soggetto.

Il riconoscimento facciale termico è di solito usato in campo militare. Inoltre, la termo immagine non funziona bene di giorno (o in ambienti generalmente ben illuminati, l’esatto opposto della tecnologia 2D che “rifugge dalla notte”), quindi non ha molte potenziali applicazioni al di fuori dell’ambito militare.

Alcuni casi e relative problematiche

Australia e riconoscimento facciale

In materia di riconoscimento facciale, l’Australia sta lentamente – ma senza sosta – procedendo verso un uso massivo di tale tecnologia. Negli ultimi anni, qualsiasi foto scattata in occasione dell’ottenimento della patente di guida ovvero in caso di rilascio/rinnovo del passaporto, è stata automaticamente trasferita verso una nuova – grande – rete nazionale che il governo di Canberra sta creando. Gli Stati australiani di Victoria e Tasmania hanno già iniziato a caricare i dati delle patenti di guida in propri database locali, i quali saranno collegati al futuro database nazionale in costituzione. Tale database nazionale è subordinato ad un disegno di legge federale in discussione in questi mesi. Nel dettaglio sarà permesso alle agenzie governative e alle imprese private “autorizzate” di utilizzare i documenti caricati nel database nazionale (anche fototessere) per procedere con lo “sfruttamento” di tali documenti ai fini del riconoscimento facciale degli interessati. D’altro canto il Dipartimento degli Affari Interni di Canberra stima che – a fronte di un costo annuale di 2,2 miliardi di dollari spesi nella lotta contro i furti d’identità – l’introduzione di un riconoscimento facciale “di stato” contribuirebbe a prevenire questo genere di reati. Tale tecnologia è già utilizzata da diverse agenzie governative e aziende, con migliaia di controlli solo nel 2017.

Ma accanto al servizio di verifica dei documenti, verrebbe introdotto un servizio di identificazione facciale per le forze dell’ordine australiane. Quasi tutti i governi territoriali australiani hanno aggiornato le loro normative sulle patenti di guida in previsione del “grande database nazionale”, mentre le persone che ottengono il passaporto firmano un modulo in cui si afferma che le loro fotografie (fototessere) saranno utilizzate a fini di corrispondenza biometrica.

Dal fronte opposto, i “sostenitori della privacy” australiani affermano che la nuova legislazione manca di proporzionalità, e che i benefici non sono tali da giustificare l’intrusione nella vita privata delle persone con tale – massivo – trattamento di dati biometrici. La “Australian Privacy Foundation” (APF) afferma che la prospettiva è altamente invasiva, perché il sistema potrebbe essere integrato in una serie di altri sistemi che raccolgono i dati del viso, compresa la videosorveglianza.

Questa sorta di “sorveglianza massiva” potrebbe sembrare una sorta di futuro lontano, ma quando nel 2018 nello stato del Queensland si sono disputati i “Commonwealth Games”, la polizia dello stato ha testato un software di riconoscimento facciale abbinato alla videosorveglianza, preordinato all’identificazione di alcuni obiettivi di alto profilo tra la grande quantità di spettatori presenti all’evento. Tuttavia, la polizia è stata in grado di trovare solo cinque persone su 268 collegate al sistema. Rimangono – infatti – i problemi connessi ai falsi positivi, che minano costantemente l’efficacia e l’affidabilità dei sistemi di riconoscimento facciale. Proprio in merito a questo problema, la “Australian Human Rights Commission” afferma che la tecnologia di riconoscimento facciale rimane inaffidabile. Se la polizia usasse informazioni imprecise mediante l’uso di questa tecnologia, potrebbero anche esserci conseguenze drastiche per la persona interessata, tra cui l’essere detenuti arbitrariamente e l’assenza di un processo equo.

Come se la questione dei falsi positivi non fosse abbastanza, il “Human Rights Law Centre” ha osservato che il “NEC Neoface”, una tecnologia di riconoscimento facciale separata utilizzata da agenzie federali e da alcune forze di polizia statale e territoriale, non è stata testata per la precisione su gruppi etnici diversi, il che significa che i tassi di identificazione errata delle minoranze etniche sono potenzialmente sproporzionati. Correndo ai ripari, il Dipartimento degli Affari Interni australiano afferma di star conducendo alcuni test per la messa a punto di software per il riconoscimento facciale che possano evitare tali problemi; inoltre i risultati della corrispondenza viso-persona saranno rivisti da esperti di riconoscimento facciale “addestrati” per prevenire i falsi positivi e le difformità su base etnica. Secondo tale Dipartimento, le decisioni che servono a identificare una persona non saranno mai prese dalla sola tecnologia, evitando il trattamento “totalmente” automatizzato. Lo schema proposto dal governo federale sarebbe – quindi – un processo a carattere “misto”: manuale ed automatizzato. Il sistema in uso presso le forze dell’ordine richiede che una persona invii manualmente l’immagine di una persona e controlli le possibili corrispondenze, evitando i falsi positivi. Tuttavia, guardando ai “contro” della tecnologia, mancherebbero risorse adeguate per “foraggiare” tale tecnica, nonché per finanziare l’assunzione ed il mantenimento di personale sufficientemente addestrato di supporto all’utilizzo del riconoscimento facciale.

Infine, secondo la “Civil Liberties Australia”, è solo una questione di tempo prima che la combinazione di servizi cloud, l’acquisizione video mobile ad alta definizione (compresi gli smartphone) e l’analisi dei Big Data renda possibile una tale sorveglianza in tempo reale, economica e allettante sul territorio australiano.

Hong Kong, proteste e riconoscimento facciale

Hong Kong, lo scorso agosto, alcuni manifestanti che protestavano a favore della democrazia sono stati ripresi nell’atto dell’abbattimento di un lampione “smart” – ossia dotato di videosorveglianza con riconoscimento facciale – mediante una sega elettrica. Si trattava (e si tratta) di una “lotta” contro la sorveglianza governativa, causata dal timore che tale tecnologia potesse essere utilizzata per l’identificazione degli attivisti da parte della Cina.

A causa della presenza di numerosi e super invasivi sistemi di controllo, il problema del riconoscimento facciale nella provincia autonoma cinese sta diventando via via più serio. Parte delle proteste, che durano da mesi, sono connesse alle preoccupazioni che tali lampioni “intelligenti” possano contenere telecamere ad alta tecnologia e software di riconoscimento facciale utilizzati direttamente dalle autorità cinesi per la sorveglianza dei cittadini di Hong Kong. Secondo uno degli organizzatori della protesta le informazioni riservate del popolo di Hong Kong sono già state estradate in Cina, il tutto affiancato da alcuni progetti che comporteranno l’installazione di 400 ulteriori lampioni intelligenti su tutto il territorio dell’ex colonia britannica.

Ironia della sorte (ma prevedibile), dall’altro “lato della barricata”, le aziende cinesi che sviluppano soluzioni di riconoscimento facciale sono in rapida crescita. Secondo la Reuters, la società Megvii di Pechino “punta a ricavi di almeno 500 milioni di dollari e potrebbe raccogliere fino a 1 miliardo di dollari” nei prossimi mesi. L’azienda è una delle principali “punte di diamante” del Dragone Rosso nel campo dell’Intelligenza Artificiale, insieme a SenseTime, Yitu e CloudWalk. Megvii fornisce la sua tecnologia di riconoscimento facciale a diversi clienti commerciali, con una tecnologia che spazia dalla sicurezza urbana a quella dei pagamenti finanziari.

La Cina, con la sua potenza tecnologica commerciale, ha dato il via ad una sorta di “Guerra Fredda” nel campo dell’Intelligenza Artificiale. A questo proposito, ci troviamo di fronte a un dilemma, poiché la Cina ha da un lato una fiorente base tecnologica, dall’altro un’assenza di vincoli circa il rispetto della vita privata delle persone. Questo significa che negli Stati Uniti ed in Europa diventerà sempre più difficile per le aziende di Intelligenza Artificiale competere tecnicamente con l’implacabile macchina di esportazione cinese. Una situazione ulteriormente esacerbata da ciò che sta accadendo nella provincia “ribelle” dello Xinjiang, dove la tecnologia cinese è ampiamente utilizzata per la sorveglianza ed il controllo della popolazione.

Stati Uniti d’America

Anche nella “patria delle libertà”, l’uso della tecnologia di riconoscimento facciale è in costante aumento. Un recente rapporto di “Fight for the Future” ha esaminato la frequenza con cui le forze dell’ordine americane utilizzano software per la scansione di milioni di foto di cittadini, spesso a loro insaputa o senza il loro consenso.

Alcuni esempi: in diversi stati, tra cui Texas, Florida e Illinois, l’FBI scansiona i database fotografici delle patenti di guida USA con tecnologia di riconoscimento facciale senza il consenso dei cittadini, trasformando i database dipartimentali dei veicoli a motore in una vera e propria infrastruttura di sorveglianza senza precedenti.[5]. In molti aeroporti statunitensi, la polizia di frontiera utilizza attualmente il riconoscimento facciale per controllare i passeggeri dei voli internazionali. E in città come Baltimora, la polizia ha utilizzato un software di riconoscimento facciale per identificare e arrestare gli individui durante alcune proteste.

Molti dipartimenti di polizia statunitensi sono “ansiosi” di utilizzare gli strumenti di riconoscimento facciale, affermando che possono aiutarli a identificare e arrestare i criminali in modo più efficiente. Lo scorso anno, la polizia del Maryland ha utilizzato tale tecnologia per aiutare ad identificare correttamente il sospetto di una sparatoria. La Homeland Security ha sostenuto che tale tecnologia può aiutare il governo a controllare più rapidamente i viaggiatori e ad effettuare controlli nel campo dell’immigrazione. Tuttavia, i critici della sorveglianza massiva temono che l’uso pervasivo della tecnologia di riconoscimento facciale potrebbe avere un effetto dannoso sulla libertà di parola, poiché la gente potrebbe sentirsi costantemente osservata. Ed il rischio di una “deriva cinese” nell’uso di tale tecnologia è dietro l’angolo.

Infine, è di pochi giorni fa la notizia dell’implementazione del riconoscimento facciale da parte della polizia di frontiera statunitense al confine col Messico. In particolare, il sistema consiste in “body cam” – ossia telecamere indossate sulla divisa – con software di cloud storage e di gestione video che dovrebbero aiutare gli agenti di frontiera nel contrasto al contrabbando ed all’immigrazione clandestina.[6]

Francia

La Francia è destinata a diventare il primo paese europeo ad utilizzare la tecnologia di riconoscimento facciale “di Stato” con l’obiettivo – a detta del governo – di fornire ai cittadini un’identità digitale sicura. Anche se la posta in gioco – in termini di protezione dei dati personali – è alta.

Il governo del presidente Emmanuel Macron sta per lanciare un programma di identificazione, chiamato Alicem, dopo una fase sperimentale durata sei mesi. Alicem è un acronimo che potrebbe essere tradotto come “autenticazione online certificata su dispositivo mobile”, e in soldoni risulta essere una’app che permetterà (a detta del governo), a chiunque deciderà di usarlo, di provare la propria identità su internet in modo sicuro. Il suo funzionamento è il seguente: l’app legge il chip presente sul passaporto elettronico dell’interessato, ed incrocia con sistema biometrico la foto con i dati dell’utente presenti sul suo dispositivo mobile, per convalidare l’identità. Una volta confermato, l’utente può accedere a una serie di servizi pubblici senza ulteriori controlli da parte delle autorità. Il governo francese ha affermato che i filmati utilizzati per il riconoscimento facciale saranno cancellati “entro pochi secondi” dalla registrazione dell’utente.

Tuttavia l’autorità privacy francese CNIL, ha già avvertito che il programma del governo viola alcune disposizioni del GDPR, poiché il sistema – così concepito – non fornisce alternative al riconoscimento facciale per accedere a determinati servizi. Avvertimenti che si sommano ai timori circa la comprovata debolezza delle app di Stato francesi. Proprio nel 2019 un hacker ha impiegato poco più di un’ora per entrare in un’app di messaggistica governativa dichiarata “sicura”.

La Francia sta seguendo una tendenza globale verso le “identità digitali” che sbloccano l’accesso sicuro a una gamma di servizi che vanno dai conti bancari alle dichiarazioni dei redditi.

Regno Unito

Discorso diverso è per il Regno Unito, dove sembra che vi sia in atto un’autentica “epidemia” circa l’uso del riconoscimento facciale: centri commerciali, musei, centri congressi, nonché indefiniti spazi privati, tutti interessati dall’uso di questa tecnologia.

Un’indagine dell’organizzazione britannica Big Brother Watch (BBW) ha scoperto che le aziende private del Regno Unito alimentano il propagarsi dell’uso del riconoscimento facciale. Il BBW ha pubblicato i risultati il giorno dopo che l’autorità privacy britannica ICO ha annunciato l’apertura di un’indagine sull’uso del riconoscimento facciale in un nuovo importante centro commerciale nel centro di Londra. Anche il sindaco di Londra Sadiq Khan ha sollevato alcuni interrogativi sulla liceità del riconoscimento facciale, principalmente nel sito privato di Granary Square (27 ettari sorvegliati), dopo che i proprietari hanno ammesso di utilizzare tale tecnologia “nell’interesse della pubblica sicurezza”. BBW ha dichiarato di aver scoperto che in molte parti del Regno Unito vi è un uso massivo del riconoscimento facciale senza l’utilizzo di idonee informazioni che avvertano gli interessati.

Altri casi riguardano il centro commerciale Meadowhall di Sheffield, che avrebbe esaminato più di 2 milioni di visitatori con un test sul riconoscimento facciale effettuato in collaborazione con la polizia; i dati sarebbero stati cancellati immediatamente dopo la fine del test. Al Trafford Centre di Manchester è stato vietato dall’ICO l’uso di un sistema di riconoscimento facciale che avrebbe potuto scansionare circa 15 milioni di visitatori. Al Museo Mondiale di Liverpool sono stati analizzati i volti dei visitatori durante una mostra sulla storia cinese (ironico!) nel 2018: il gruppo che riunisce i musei nazionali di Liverpool sta attualmente testando la fattibilità di utilizzare una tecnologia simile in futuro in maniera estesa. A Birmingham, il centro conferenze Millennium Point ha rivelato nella sua privacy policy di aver utilizzato il riconoscimento facciale su richiesta delle forze dell’ordine; l’area intorno al centro è stata teatro di manifestazioni di sindacalisti e attivisti antirazzisti. Anche in diversi casinò e centri scommesse britannici vi è l’uso della sorveglianza mediante riconoscimento facciale.

Tuttavia nel luglio del 2019, la Camera dei Comuni ha affermato che le autorità dovrebbero cessare i test connessi all’uso del riconoscimento facciale fino a quando non vi sarà un quadro giuridico in materia. Infine, in un rapporto sull’approccio del governo alla biometria, alcuni parlamentari della Camera dei Comuni hanno fatto riferimento ad un test sul riconoscimento facciale da parte della Metropolitan Police e della polizia del South Wales, rilevando seri interrogativi sull’accuratezza e sulla parzialità di tale tecnica.

Norme privacy per limitare il riconoscimento facciale: il Gdpr

Il GDPR – Regolamento UE 2016/679 – risulta essere il più grande ed importante argine normativo a quel “fiume in piena” rappresentato dall’uso del riconoscimento facciale (e dall’uso della biometria massiva in generale). Il riconoscimento facciale permette di raccogliere informazioni sulle caratteristiche facciali di una persona e sulla sua classificazione sotto forma di dati (particolari) biometrici.

L’Art. 9.1 GDPR elenca quelli che sono i dati particolari (“più meritevoli di tutela”, tra i quali prevalentemente “già sensibili” ai sensi del “vecchio” Codice Privacy): dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona.

L’Art. 4 n. 14) GDPR scende nel dettaglio, definendo i dati biometrici come i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici;

Infine il Considerando 51 GDPR specifica che “il trattamento di fotografie non dovrebbe costituire sistematicamente un trattamento di categorie particolari di dati personali, poiché esse rientrano nella definizione di dati biometrici soltanto quando saranno trattate attraverso un dispositivo tecnico specifico che consente l’identificazione univoca o l’autenticazione di una persona fisica”.

Per trattare correttamente (e legalmente) i dati biometrici è necessario utilizzare una delle basi giuridiche previste dall’Art. 9.2 GDPR, tra le quali “spicca” il consenso esplicito dell’interessato.

Vediamo, di seguito, i punti fondamentali per la necessaria compliance al GDPR.

Il consenso dell’interessato

Nel caso di optasse per l’utilizzo della base giuridica del consenso, questo deve soddisfare non solo i requisiti dell’Art. 9 GDPR (esplicito), ma anche dell’Art. 7 GDPR.

Secondo il punto 4 delle Linee Guida WP259, il consenso esplicito è richiesto in talune circostanze nelle quali emergono gravi rischi per la protezione dei dati e in cui si ritiene quindi appropriato un livello elevato di controllo individuale sui dati personali (il riconoscimento facciale è tra queste). In base al GDPR, prerequisito per l’ottenimento di un consenso “conforme” è una “dichiarazione o un’azione positiva inequivocabile”. Il termine esplicito si riferisce al modo in cui il consenso è espresso dall’interessato e significa che l’interessato deve fornire una dichiarazione esplicita di consenso. Un modo ovvio per assicurarsi che il consenso sia esplicito consisterebbe nel confermare espressamente il consenso in una dichiarazione scritta. Se del caso, il titolare del trattamento potrebbe assicurarsi che la dichiarazione scritta sia firmata dall’interessato, al fine di dissipare tutti i possibili dubbi e la potenziale mancanza di prove in futuro. Nel contesto digitale o online, l’interessato può acconsentire esplicitamente compilando un modulo elettronico, inviando un’e-mail, caricando un documento scansionato con la propria firma oppure utilizzando una firma elettronica e così via.

Secondo l’Art. 7 GDPR la richiesta di consenso, se prestata nel contesto di una dichiarazione scritta che riguarda anche altre questioni, è presentata in modo chiaramente distinguibile dalle altre materie, in forma comprensibile e facilmente accessibile, utilizzando un linguaggio semplice e chiaro. L’interessato ha il diritto di revocare il proprio consenso in qualsiasi momento. La revoca del consenso non pregiudica la liceità del trattamento basata sul consenso prima della revoca. Prima di esprimere il proprio consenso, l’interessato è informato di ciò (si veda il Capo 3 del GDPR). Il consenso è revocato con la stessa facilità con cui è accordato.

Una Valutazione di Impatto (DPIA) ad hoc per il riconoscimento facciale

La Valutazione di Impatto (DPIA) prevista dagli artt. 35 e 36 GDPR è fondamentale per identificare e ridurre al minimo il rischio per i dati personali nell’ambito dell’utilizzo del riconoscimento facciale. La DPIA si configura come un’autonoma valutazione che il Titolare del trattamento pone in essere per analizzare la necessità, la proporzionalità e i rischi di un determinato trattamento dati per i diritti e le libertà delle persone fisiche.

È richiesta obbligatoriamente in tre casi:

  • quando si procede ad una valutazione sistematica e globale di aspetti personali relativi a persone fisiche, basata su un trattamento automatizzato, compresa la profilazione, e sulla quale si fondano decisioni che hanno effetti giuridici o incidono in modo analogo significativamente su dette persone fisiche;
  • quando si è in presenza di un trattamento, su larga scala, di categorie particolari di dati personali di cui all’art. 9.1 GDPR (dati particolari), ovvero di dati relativi a condanne penali e a reati di cui all’art. 10 GDPR;
  • la sorveglianza sistematica su larga scala di una zona accessibile al pubblico (es. videosorveglianza su larga scala)

Secondo le Linee Guida WP248 per determinare se un trattamento è svolto su larga scala si deve far riferimento al numero degli interessati, al volume di dati e/o tipologie di dati, alla durata dell’attività di trattamento e all’ambito geografico dell’attività di trattamento.

La DPIA deve contenere:

  • una descrizione sistematica dei trattamenti previsti e delle finalità del trattamento, compreso, ove applicabile, l’interesse legittimo perseguito dal Titolare del trattamento;
  • una valutazione della necessità e proporzionalità dei trattamenti in relazione alle finalità;
  • una valutazione dei rischi per i diritti e le libertà degli interessati:
  • nonché le misure previste per affrontare i rischi, includendo le garanzie, le misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e dimostrare la conformità al GDPR, tenuto conto dei diritti e degli interessi legittimi degli interessati e delle altre persone in questione.

Anonimizzazione o pseudonimizzazione dei dati

Un metodo per proteggere i dati trattati con tecnologia a riconoscimento facciale è quello di renderli del tutto anonimi, rendendo impossibile determinare a quale interessato si riferiscano. Si può prendere in considerazione la rimozione del nominativo prima che vengano registrati in un database. Il software di anonimizzazione dei dati può essere utilizzato per creare un alto livello di sicurezza. Se l’anonimizzazione non si dimostrasse pratica è possibile procedere con la pseudonimizzazione – tecnica che consiste nel trattamento dei dati personali in modo tale che i dati personali non possano più essere attribuiti a un interessato specifico senza l’utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure tecniche e organizzative intese a garantire che tali dati personali non siano attribuiti a una persona fisica identificata o identificabile (Art. 4 n. 5 GDPR).

Garantire la sicurezza dei dati

Il GDPR richiede “misure tecniche e organizzative adeguate per garantire un livello di sicurezza adeguato al rischio” (Art. 32 GDPR). Tra le misure adottabili vi sono le seguenti.

  • Avere una strategia di Data Loss Prevention (DLP) ben ponderata.
  • Creare un piano di Disaster Recovery a prova di errore. Il GDPR richiede alle aziende “la capacità di ripristinare tempestivamente la disponibilità e l’accesso dei dati personali in caso di incidente fisico o tecnico”.
  • Avere una politica di backup dei dati conforme al GDPR: Il backup non solo è necessario per la portabilità dei dati (Art. 20 GDPR), ma anche per il diritto alla cancellazione (Art. 17 GDPR). In altre parole, il backup deve ripristinare rapidamente le informazioni, ma – se richiesto dall’interessato – sarà necessario rimuovere tutti i dati dai backup.

Gli interventi “contenitivi”: la sanzione del garante privacy svedese

L’autorità privacy svedese, lo scorso agosto è intervenuta sanzionando una scuola con l’equivalente di quasi 19.000€, la sua prima sanzione ai sensi del GDPR.

Una scuola superiore aveva implementato un sistema per la rilevazione delle presenze degli studenti con tecnologia di riconoscimento facciale. La scuola ha utilizzato un software di riconoscimento facciale tramite telecamere “intelligenti” per catturare e registrare le presenze degli studenti. Lo scopo era stato quello di semplificare ulteriormente le operazioni e automatizzare la registrazione giornaliera delle classi, un compito che generalmente richiedeva 10 minuti per classe. Tuttavia la scuola ha giustificato l’implementazione del riconoscimento facciale con un risparmio di circa 18000 euro l’anno (ironicamente, quasi quanto l’entità della sanzione in euro).

I dati biometrici sono stati catturati dalle telecamere sotto forma di fotografie dei volti degli studenti, abbinati ai loro nominativi. Le informazioni sono state memorizzate in un computer senza connessione internet; computer che è stato conservato in un armadio chiuso a chiave. Il consenso esplicito è stato raccolto dai legali rappresentanti degli studenti (poiché minorenni) ed è stato possibile non partecipare a “l’esperimento”. Tuttavia, non è stata effettuata nessuna DPIA né una consultazione preventiva presso l’autorità privacy svedese.

Secondo l’autorità privacy di Stoccolma la scuola ha – quindi – violato gli artt. 5, 9, 35 e 36 del GDPR.

Violazione dell’Art. 5 GDPR

L’art. 5.1 lett. b) GDPR stabilisce che i dati personali sono raccolti per finalità determinate, esplicite e legittime, e successivamente trattati in modo che non sia incompatibile con tali finalità (limitazione delle finalità). Inoltre, i dati personali trattati devono essere adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati (Art. 5.1 lett. c GDPR – minimizzazione dei dati).

L’autorità privacy svedese ha rilevato che, anche se pochi studenti erano preoccupati e il periodo del trattamento limitato nel tempo, l’uso del riconoscimento facciale ha rappresentato una grande intrusione nella privacy degli studenti. Inoltre, la registrazione delle presenze in classe poteva essere effettuata in modi meno invasivi: quindi l’uso del riconoscimento facciale è risultato sproporzionato rispetto allo scopo.

Violazione dell’Art. 9 GDPR

L’autorità privacy svedese ha affermato che il consenso non potesse essere utilizzato come base giuridica, in quanto lo stesso non poteva essere considerato “volontario”. Quindi mancherebbero le stesse “colonne portanti” di cui all’Art. 7 GDPR. Inoltre la scuola aveva avanzato la possibilità di utilizzo della base giuridica dell’interesse pubblico rilevante: bocciato dall’autorità.

Violazione degli Artt. 35 e 36 GDPR

La scuola aveva effettuato una sorta di “valutazione dei rischi”, in cui sosteneva la non sussistenza di rischi elevati per le persone interessate. Tuttavia, non è stata effettuata alcuna DPIA. L’autorità privacy svedese ha rilevato che la valutazione del rischio non comprendeva una valutazione dei rischi per i diritti e le libertà degli interessati, nonché un resoconto della proporzionalità del trattamento in relazione alle sue finalità. Inoltre, precisa l’autorità, la DPIA era necessaria in quanto la sorveglianza con telecamere intelligenti è una sorveglianza sistematica che include informazioni personali “sensibili”, in questo caso su bambini in un ambiente a loro riservato.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4