L’implementazione delle tecnologie di riconoscimento facciale (Facial Recognition Technology, di seguito FRT) nelle operazioni di law enforcement rappresenta uno dei punti di maggiore tensione tra l’imperativo securitario e la salvaguardia dei diritti fondamentali.
La convergenza di deep learning, computer vision e data mining ha reso possibile l’identificazione remota e automatizzata di individui mediante analisi biometrica facciale, trasformando l’infrastruttura urbana in un sistema potenzialmente pervasivo di sorveglianza algoritmica.
Esaminiamo, allora, con approccio interdisciplinare, il funzionamento tecnico delle FRT, le evidenze empiriche sui loro limiti, la casistica giurisprudenziale e il quadro normativo europeo (comprese le Linee Guida dell’EDPB), per derivarne indicazioni circa l’adeguatezza degli strumenti regolativi oggi disponibili.
Indice degli argomenti
Come funziona il riconoscimento facciale nelle indagini
Le FRT operano attraverso pipeline computazionali articolate in fasi sequenziali: detection (individuazione del volto nell’immagine), alignment (normalizzazione geometrica), feature extraction (conversione in embedding vettoriale mediante reti neurali convoluzionali) e matching (comparazione con database di riferimento). Gli algoritmi contemporanei, prevalentemente basati su architetture ResNet, VGGFace2 o ArcFace loss functions, trasformano l’immagine facciale in vettori numerici ad alta dimensionalità (512–2048 dimensioni), consentendo operazioni di similarity search in spazi metrici con elevata efficienza computazionale.
Le forze dell’ordine impiegano le FRT principalmente secondo due modalità. La prima è l’identificazione one-to-many (1:N), in cui un’immagine nota viene comparata con database contenenti milioni di identità. La seconda è la verifica one-to-one (1:1) che accerta la corrispondenza tra due immagini note. Il sistema DataWorks Plus, ampiamente diffuso nelle giurisdizioni statunitensi, integra database fotografici provenienti da archivi di mugshot, patenti di guida e, attraverso fornitori come Clearview AI, immagini estratte mediante web scraping da piattaforme social e siti pubblici. Quest’ultima pratica solleva questioni giuridiche di rilievo circa la liceità del trattamento di dati biometrici acquisiti senza consenso esplicito degli interessati.
Perché il riconoscimento facciale solleva criticità
Performance differenziale e bias algoritmico
Il National Institute of Standards and Technology (NIST) conduce dal 1993 valutazioni indipendenti degli algoritmi FRT attraverso il Face Recognition Vendor Test (FRVT). Il rapporto NIST IR 8280 del dicembre 2019 ha quantificato i differenziali demografici analizzando 189 algoritmi su 18 milioni di immagini di 8 milioni di soggetti. I risultati evidenziano una marcata eterogeneità: mentre gli algoritmi più performanti presentano differenziali demografici statisticamente non rilevabili, la maggioranza degli algoritmi testati registra tassi di false positive identification da 10 a 100 volte superiori per individui di origine africana e asiatica orientale rispetto a soggetti caucasici, con disparità ancora più accentuate per le donne di colore.
Lo studio del MIT Media Lab condotto da Buolamwini e Gebru (2018), denominato Gender Shades, ha documentato error rates del 34,7% per donne di pelle scura contro lo 0,8% per uomini di pelle chiara nei sistemi di gender classification.
Sebbene questi sistemi differiscano tecnicamente dalle FRT identificative, la ricerca ha alimentato il dibattito scientifico e politico sui bias algoritmici. Ricerche successive hanno individuato molteplici cause di questa disparità di performance: training datasets con grave sottorappresentazione di minoranze etniche, condizioni fotografiche subottimali per tonalità di pelle più scure e caratteristiche intrinseche degli algoritmi di feature extraction addestrati su dataset demograficamente sbilanciati come CASIA-WebFace o VGGFace2.
La ricerca pubblicata su arXiv nel maggio 2025 da ricercatori dell’Università del Michigan ha dimostrato che la degradazione delle condizioni di imaging (blur, variazioni di posa, riduzione di risoluzione) amplifica i bias demografici preesistenti: i false negative rates aumentano in modo sproporzionato per individui di sesso femminile e di origine africana. Tali sistemi mostrano, inoltre, sensibilità differenziale a fattori ambientali come contrasto ridotto, angolazioni non frontali e occlusioni parziali, con effetti che colpiscono asimmetricamente diverse categorie demografiche, replicando e amplificando disuguaglianze sociali preesistenti.
I fattori tecnici che amplificano i bias del riconoscimento facciale
L’analisi delle disparità di performance richiede, tuttavia, di andare oltre la tesi che attribuisce il bias esclusivamente allo sbilanciamento dei training dataset. La ricerca più recente (NIST, 2025–2026) evidenzia una causalità multifattoriale in cui la dimensione statistica si intreccia con i limiti intrinseci dell’hardware di acquisizione e con la natura dinamica del data drift. Un fattore spesso trascurato dalla dottrina giuridica risiede nella fisica dei sensori ottici: la maggior parte dei sistemi di videosorveglianza è calibrata su algoritmi di auto-esposizione ottimizzati per tonalità di pelle chiare. Le pelli a bassa riflettanza tendono a essere sottoesposte, riducendo il contrasto delle feature facciali e generando embedding vettoriali poveri di informazioni distintive. Come evidenziato dai rapporti FATE (Face Analysis Technology Evaluation) del 2026, la qualità dell’immagine non è un parametro neutro, bensì è essa stessa demograficamente stratificata e agisce come un moltiplicatore di errore.
A ciò si aggiunge il problema del feedback loop algoritmico. Quando un sistema FRT viene addestrato su dataset sbilanciati, interiorizza le correlazioni tra attributi demografici e rumore di fondo, perdendo la capacità di distinguere caratteristiche identitarie da fattori ambientali per certi gruppi. Lo studio pubblicato su arXiv nel febbraio 2025 ha dimostrato che la robustezza degli algoritmi contemporanei (ArcFace, SFace) decade in modo non lineare; mentre per i soggetti caucasici la risoluzione può essere ridotta significativamente senza perdita di accuratezza, per le donne di origine africana anche una lieve degradazione delle condizioni di imaging produce un aumento dei false non-match rates fino a tre volte superiore alla media.
L’implementazione operativa introduce, infine, la variabile del thresholding differenziale. Le organizzazioni, per mitigare i falsi positivi, innalzano le soglie di similarità; a causa della minore distinguibilità degli embedding per certi gruppi, questa scelta finisce per escludere sproporzionatamente i soggetti appartenenti alle minoranze, rendendo il sistema meno affidabile proprio per chi, in caso di errore, subisce le conseguenze più gravi. L’accountability tecnica, pertanto, non può limitarsi alla verifica della rappresentatività del dataset, ma deve estendersi allo scrutinio dell’intera pipeline: dalla calibrazione del sensore fisico alla stabilità dell’algoritmo di fronte alla degradazione ambientale.
I costi umani dell’errore algoritmico
Il caso Williams v. City of Detroit costituisce il primo precedente documentato di arresto illegittimo conseguente a misidentificazione FRT negli Stati Uniti. Nel gennaio 2020, Robert Williams fu arrestato davanti alla propria abitazione, in presenza della moglie e delle due figlie minorenni, accusato di furto di orologi presso negozio di Detroit, avvenuto nel 2018. L’indagine si era fondata pressoché esclusivamente su un match FRT tra un fotogramma di videosorveglianza di qualità degradata e la fotografia della patente di guida di Williams; l’analista DataWorks Plus lo aveva identificato come nono miglior match e una fotografia risalente a diversi anni prima era stata inserita in un photo array sottoposto a un contractor di loss prevention che non aveva assistito direttamente al furto. Williams trascorse trenta ore in detenzione prima che gli investigatori riconoscessero l’errore di identificazione.
La documentazione processuale rivela che il detective non aveva condotto alcuna verifica investigativa tradizionale; né l’accertamento dell’alibi di Williams, né interviste ai testimoni presenti al momento del furto, né analisi delle circostanze temporali e spaziali. La deposizione di Michael King, ricercatore presso il Florida Institute of Technology, ha confermato che l’immagine di sorveglianza presentava illuminazione carente, occlusione del volto e angolazione mai frontale, condizioni che compromettono sistematicamente l’affidabilità del matching biometrico. Il settlement raggiunto nel giugno 2024 ha comportato un risarcimento di 300.000 dollari e, più significativamente sul piano istituzionale, l’imposizione di policy reforms che vietano al Detroit Police Department di condurre photo lineups basati esclusivamente su risultati FRT e di richiedere mandati di arresto senza corroborazione investigativa indipendente.
Il caso di Porcha Woodruff, poi, ha evidenziato ulteriori profili problematici: una donna in stato di gravidanza avanzata fu arrestata per carjacking sulla base di un match FRT, nonostante la testimonianza originaria non menzionasse una gravidanza visibile nell’autrice del reato. Il caso illustra come la dipendenza acritica da output algoritmici induca negli investigatori un confirmation bias, per cui gli operatori attribuiscono al risultato computazionale un peso epistemico sovradimensionato rispetto all’evidenza fattuale contraddittoria. Le vittime documentate di arresti illegittimi per misidentificazione FRT sono state, in almeno sette casi negli Stati Uniti, individui afroamericani; dato che traduce in modo diretto i bias statistici del sistema in conseguenze concrete e traumatiche per persone reali.
Il quadro europeo sul riconoscimento facciale
Il Regolamento Generale sulla Protezione dei Dati classifica i dati biometrici destinati all’identificazione univoca come categorie particolari di dati personali ai sensi dell’articolo 9, assoggettandoli a divieto generale di trattamento, salvo eccezioni tassative. Il trattamento per finalità di law enforcement richiede base giuridica esplicita, proporzionalità rispetto allo scopo perseguito e conformità ai principi di accountability e data minimization. Le autorità di controllo europee hanno adottato posizioni interpretative convergenti nell’applicazione del GDPR ai sistemi FRT.
Il caso Clearview AI ha rappresentato una verifica concreta dell’applicazione extraterritoriale del GDPR. L’azienda newyorkese ha sviluppato un database contenente oltre 10 miliardi di immagini facciali estratte mediante automated scraping da social media, siti web pubblici e archivi fotografici online, offrendo servizi di identificazione a law enforcement agencies internazionali. La Dutch Data Protection Authority ha irrogato nel maggio 2024 una sanzione di 30,5 milioni di euro, accertando violazioni multiple: trattamento di dati biometrici senza base giuridica legittima (articolo 6 GDPR), violazione degli obblighi di trasparenza (articoli 12–14) e mancata risposta alle richieste di accesso (articolo 15). Sanzioni analoghe sono state comminate dalla CNIL francese (20 milioni di euro), dal Garante italiano (20 milioni di euro) e dall’autorità greca. L’autorità olandese ha dichiarato che l’utilizzo di Clearview AI costituisce pratica illecita anche per le organizzazioni acquirenti dei servizi, aprendo profili di responsabilità a carico dei deployers.
La sentenza dell’Upper Tribunal britannico (ottobre 2025) ha confermato l’applicabilità del UK GDPR a Clearview AI nonostante l’assenza di stabilimento nel Regno Unito, riconoscendo che le attività di indicizzazione e clustering di vettori facciali costituiscono behavioural monitoring ai sensi dell’articolo 3 GDPR. Il Tribunale ha respinto l’argomento difensivo secondo cui il trattamento effettuato per scopi di law enforcement o national security di clienti stranieri collochi Clearview extra materiam rispetto al GDPR, affermando che le esenzioni per sicurezza nazionale devono essere interpretate restrittivamente per preservare l’effettività della normativa di protezione dei dati.
AI Act e deroghe: i confini del riconoscimento facciale in Europa
L’Artificial Intelligence Act introduce una regolamentazione stratificata delle FRT. L’articolo 5, par. 1, lett. e) vieta categoricamente la creazione o l’espansione di database di riconoscimento facciale mediante scraping indiscriminato di immagini da internet o filmati CCTV, rendendo illecite ab origine le pratiche di Clearview AI. L’articolo 5, poi, proibisce l’utilizzo di sistemi di real-time remote biometric identification in spazi pubblicamente accessibili per finalità di law enforcement, introducendo, tuttavia, eccezioni circoscritte per
- ricerca mirata di vittime di reati specifici,
- prevenzione di minacce terroristiche imminenti e
- perseguimento di reati punibili con pena detentiva superiore a tre anni.
Queste deroghe richiedono autorizzazione preventiva da autorità giudiziaria o amministrativa indipendente, fundamental rights impact assessment ai sensi dell’articolo 27, registrazione nel database UE e limitazioni temporali, geografiche e personali rigorose.
La distinzione tra sistemi real-time e sistemi post, che operano su materiale già registrato con un delay significativo, è centrale nell’architettura dell’AI Act, ma non è esente da critiche. I sistemi post-RBI sono classificati come high-risk, ma restano leciti sotto condizioni stringenti. Tale dicotomia è stata contestata da organizzazioni come EDRi e Privacy International per la sua natura artificiosa, difatti entrambe le modalità consentono il tracciamento persistente degli individui, con impatti notevoli sui diritti fondamentali.
Sotto il profilo tecnico e giuridico, il concetto di delay significativo manca di una definizione quantitativa precisa, generando zone grigie operative. Un sistema post-RBI alimentato da un flusso video con un differenziale temporale minimo è in grado di produrre i medesimi effetti di controllo sociale delle versioni real-time. Questa asimmetria regolatoria abilita una possibile strategia di regulatory arbitrage poiché l’infrastruttura di sorveglianza potrebbe essere tecnicamente predisposta per il monitoraggio costante, con l’elaborazione algoritmica differita al solo scopo di sottrarsi al regime autorizzatorio preventivo, assai più oneroso, richiesto dall’articolo 5.
Il rischio si concretizza ulteriormente nella permanenza del dato, posto che la raccolta sistematica di flussi video in attesa di una futura elaborazione differita trasforma lo spazio pubblico in un archivio biometrico retroattivo. Ciò consente una forma di sorveglianza ex post che permette di ricostruire la vita privata, le frequentazioni e le attività politiche di qualunque cittadino, rendendo il diritto all’anonimato una prerogativa esposta a costante rischio di revoca (l’esempio ungherese è istruttivo: gli emendamenti del marzo 2025 hanno autorizzato l’uso di FRT per qualsiasi procedimento sanzionatorio amministrativo, comprese infrazioni minori, in aperta violazione dello spirito e della lettera dell’AI Act).
Diritti fondamentali e riconoscimento facciale nello spazio pubblico
L’implementazione delle FRT per finalità di pubblica sicurezza genera frizioni con molteplici diritti fondamentali tutelati dalle costituzioni degli Stati membri e dalla Carta dei Diritti Fondamentali dell’Unione Europea.
Il diritto alla protezione dei dati personali (articolo 8 CDFUE) subisce compressione strutturale quando il trattamento biometrico avviene senza consenso dell’interessato, su base di interesse legittimo o necessità investigativa unilateralmente determinata. Il diritto alla vita privata (articolo 7 CDFUE) è compromesso dalla possibilità di tracciamento ubiquo degli spostamenti individuali in spazi pubblici. Il principio di eguaglianza (articolo 21 CDFUE) è minacciato dall’accuratezza differenziale delle FRT che espone le minoranze etniche a probabilità statisticamente superiori di misidentificazione e conseguenti arresti illegittimi, configurando una forma di discriminazione algoritmica indiretta.
Sul piano epistemico, l’impiego delle FRT comporta un trasferimento di autorità decisionale dall’umano al computazionale che induce negli operatori un automation bias, gli output algoritmici vengono trattati come dotati di un’affidabilità superiore rispetto all’evidenza empirica contraddittoria. Questo processo trasforma la natura stessa dell’accertamento investigativo perché dalla costruzione induttiva di un quadro probatorio mediante raccolta e valutazione critica di indizi convergenti, si passa al modello deduttivo in cui l’output computazionale costituisce la premessa da cui derivare meccanicamente le conseguenze procedurali.
Ma, come è noto, il ragionamento deduttivo prevede che le premesse (maggiore e minore) siano vere; si è visto come questa circostanza manchi qualora l’immagine sottoposta a match non sia integra e correttamente individuata, normalizzata ed estratta.
Un ulteriore profilo problematico è quello della trasparenza algoritmica. Gli algoritmi FRT operano come black boxes, infatti la composizione delle reti neurali profonde rende opaco il processo decisionale che conduce dall’immagine di input all’embedding vettoriale e al similarity score finale. L’assenza di explainability impedisce agli investigatori di valutare criticamente l’affidabilità contestuale del match, ai giudici di scrutinare la fondatezza dell’elemento probatorio e agli imputati di esercitare efficacemente il diritto di difesa. Il diritto a una spiegazione significativa dei processi decisionali automatizzati, riconosciuto dal GDPR, rimane sostanzialmente inattuato nel contesto FRT per le intrinseche limitazioni tecniche degli algoritmi di deep learning.
Conclusioni
L’implementazione di sistemi FRT nelle attività di law enforcement pone in relazione tre esigenze in equilibrio instabile: efficacia investigativa, tutela dei diritti fondamentali ed equità distributiva dei rischi di errore. L’evidenza empirica dimostra che queste tecnologie, pur raggiungendo livelli di accuratezza elevati in condizioni controllate, presentano performance degradata e demograficamente stratificata nei contesti forensi reali, in cui qualità delle immagini, condizioni ambientali e variabilità fenotipiche producono tassi di errore differenziali significativi. La casistica documenta come questa fallibilità tecnica, combinata con l’automation bias investigativo, generi arresti illegittimi che colpiscono prevalentemente individui appartenenti a minoranze etniche, traducendo bias statistici in ingiustizie concrete.
Il regime normativo europeo, attraverso la doppietta di GDPR e AI Act, tenta di bilanciare l’utilità della sicurezza offerta dalle FRT con salvaguardie procedurali e sostanziali per i diritti fondamentali. Le proibizioni categoriche — untargeted scraping, real-time RBI salvo eccezioni tassative — e i requisiti per i sistemi ad alto rischio — impact assessment, human oversight, logging, trasparenza — delineano un perimetro entro cui il deployment di FRT potrebbe risultare compatibile con i principi costituzionali. L’efficacia di questo quadro preventivo dipende, tuttavia, dall’esecuzione rigorosa da parte delle autorità di controllo e dalla resistenza alle pressioni politiche per l’estensione delle deroghe securitarie.
Resta aperta una questione di fondo che trascende la regolamentazione tecnico-giuridica; anche ammettendo il conseguimento di un’accuratezza uniforme e di una distribuzione equa dei tassi di errore, permane la tensione tra la capacità tecnica di identificazione continua degli individui nello spazio pubblico e il principio liberale dell’anonimato come condizione di libertà. La forma delle democrazie costituzionali presuppone tradizionalmente la possibilità per i cittadini di muoversi, associarsi e partecipare alla vita pubblica senza subire tracciamento sistematico da parte dello Stato. Le FRT rendono tecnicamente obsoleta questa presupposizione, configurando uno stato di visibilità permanente.
La questione è se questo mutamento rappresenti un adattamento delle istituzioni democratiche alle nuove possibilità tecnologiche o costituisca, invece, una discontinuità che intacca le fondamenta del rapporto tra cittadini e potere pubblico. La risposta non può essere lasciata alla sola dinamica regolatoria, ma richiede una deliberazione democratica consapevole sui valori che si intendono preservare e su quelli che si è disposti a sacrificare in nome dell’efficienza securitaria.
Fonti essenziali
The Cambridge Handbook of Facial Recognition in the Modern State, a cura di Rita Matulionyte e Monika Zalnieriute, Cambridge University Press, 2024;
I sistemi automatici di riconoscimento facciale nel procedimento penale. Tra possibilità di impiego e limiti ordinamentali, Fabrizio De Martis, CEDAM, 2025;
Facial recognition and federal law enforcement: policies, privacy, and civil rights, Nova Science Publishers, 2026.











