scenario

Biometria comportamentale, quanto è affidabile e quali sono i rischi



Indirizzo copiato

L’omicidio dell’influencer Maga Charlie Kirk porta a riflettere sull’affidabilità dei sistemi basati su biometria comportamentale: ecco quali sono, i rischi connessi e cosa prevedono le normative europee

Pubblicato il 23 set 2025

Tania Orrù

Privacy Officer e Consulente Privacy Tuv Italia



ai e cinema (1); biometria comportamentale

L’omicidio di Charlie Kirk presso la Utah Valley University ha catalizzato l’attenzione dei media internazionali per la gravità dell’atto, ma anche per la singolare quantità di video e immagini che hanno documentato la sequenza dei fatti. Le telecamere del campus, quelle di abitazioni private vicine e i filmati girati da studenti hanno permesso una ricostruzione quasi in tempo reale: l’arrivo del sospettato, il cambio d’abiti, la salita sul tetto, lo sparo, la fuga improvvisata. 

Un dettaglio, rilanciato anche da alcune testate come RadarOnline, ha colpito l’opinione pubblica: nelle riprese l’autore, prima e dopo il delitto, appare camminare zoppicando (“walking with a limp”). Non è chiaro se la zoppia fosse reale o simulata, ma l’ipotesi che potesse trattarsi di un tentativo deliberato di ingannare i sistemi di riconoscimento basati sulla camminata ha aperto un dibattito affascinante.  L’episodio invita infatti a riflettere su una questione centrale: quanto sono affidabili i sistemi di biometria comportamentale e quali rischi giuridici derivano dalla loro vulnerabilità? 

Biometria comportamentale e gait analysis

La biometria non riguarda più soltanto impronte digitali e riconoscimento facciale, ma oggi si parla sempre più spesso di biometria comportamentale, che include parametri dinamici come: 

  • il modo di camminare (gait), 
  • la postura, 
  • i micro-movimenti oculari e del volto, 
  • la dinamica della digitazione su tastiera, 
  • i pattern di utilizzo di dispositivi digitali. 

La gait analysis è considerata uno strumento promettente perché, ad esempio, la camminata di ciascun individuo presenta caratteristiche uniche, difficilmente replicabili inconsapevolmente. Studi scientifici hanno dimostrato che gli algoritmi di machine learning, allenati su dataset sempre più ampi, promettono di distinguere gli individui in base a parametri come la lunghezza del passo, l’ampiezza delle spalle, l’oscillazione delle braccia, raggiungendo tassi di accuratezza molto elevati in condizioni controllate. 

Non mancano applicazioni pratiche. In ambito aeroportuale sono oggetto di studio e sperimentazione sistemi di gait recognition per intercettare persone sospette: un prototipo basato su sensori a pavimento è stato descritto dall’University of Manchester come possibile integrazione ai controlli di sicurezza. Al tempo stesso, gli scali britannici hanno avviato trial su altre forme di biometria (in particolare riconoscimento facciale), a testimonianza dell’interesse del settore aeroportuale verso soluzioni biometriche avanzate. Diversi reportage hanno documentato l’uso operativo, da parte delle forze dell’ordine cinesi, di sistemi di gait recognition (in particolare quelli sviluppati dalla società Watrix) capaci di identificare soggetti a decine di metri di distanza anche con il volto coperto e la schiena rivolta alla telecamera, sfruttando il movimento corporeo. 

Tuttavia, la ricerca evidenzia anche la fragilità di questi sistemi: cambiamenti volontari nella postura, zoppie simulate, abiti larghi che modificano la silhouette, accessori, possono ridurne drasticamente l’affidabilità. Esperimenti accademici hanno mostrato che un soggetto può ridurre fino al 40% l’accuratezza del riconoscimento, semplicemente cambiando ritmo e angolazione del passo. In altre parole, il corpo è meno “immutabile” di quanto gli algoritmi vorrebbero.

Adversarial design: come ingannare le macchine

Queste vulnerabilità si inseriscono in un fenomeno più ampio: l’adversarial design, ossia l’uso di accorgimenti intenzionali per confondere algoritmi di sorveglianza. 

Gli esempi non mancano:

  • Abiti con pattern speciali, come il progetto “Hyperface”, che generano falsi punti di interesse per le telecamere mediante pattern tessili che generano falsi volti e distraggono gli algoritmi, riducendo la fiducia nella regione vera del volto e rendendo l’individuo invisibile agli algoritmi (un esempio è la linea Manifesto Collection). 
  • Make-up adversarial, che altera proporzioni e contrasti per impedire l’identificazione (ad es. patch invisibili nell’infrarosso “NIR” che possono compromettere sistemi di riconoscimento facciale, anche con variazioni di posa e illuminazione) 
  • Camminata modificata, come zoppicare o oscillare in modo innaturale, che può ridurre la capacità dell’algoritmo di riconoscere lo schema motorio originario. 

La zoppia del sospettato assassino di Kirk, reale o simulata, diventa così un simbolo: il corpo umano può essere strumento di contro-sorveglianza. In un mondo in cui gli algoritmi pretendono di classificare ogni movimento, anche un piccolo gesto intenzionale può diventare una forma di “resistenza” tecnologica.

Un inganno (forse) tentato, ma inefficace

Se davvero la zoppia fosse stata una strategia deliberata per confondere i sistemi di riconoscimento, il caso del presunto assassino di Kirk mostra anche il limite di questo approccio. Nonostante il passo irregolare, il sospettato è stato comunque identificato e localizzato grazie alla combinazione di: 

  • telecamere istituzionali, che hanno tracciato gli spostamenti dell’uomo dentro e fuori dal campus; 
  • sistemi privati, che lo hanno ripreso nei pressi di abitazioni e strade limitrofe; 
  • citizen journalism, con i video girati dagli studenti e diffusi online; 
  • riconoscimento umano, con i familiari che hanno segnalato l’identità dopo la diffusione delle immagini. 

Il risultato è che la presunta strategia di “confondere le macchine” non ha prodotto l’effetto sperato. Questo insegna che, anche se i singoli sistemi sono fallibili, la sorveglianza multilivello (composta da macchine, cittadini e investigatori) riduce le possibilità di sfuggire. Non esiste infatti più un solo occhio che guarda, ma una rete di occhi, artificiali e umani, che si rafforzano a vicenda.

Pertanto, anche se le tecnologie sofisticate possono essere aggirate con gesti semplici, la molteplicità delle fonti di prova audiovisiva riduce la possibilità di sfuggire del tutto all’occhio della società sorvegliata.

Implicazioni giuridiche della biometria comportamentale

Il GDPR, art. 9, qualifica i dati biometrici come “categorie particolari di dati”, con divieti generali di trattamento salvo eccezioni strettissime; di tali dati fanno parte anche i dati comportamentali. Pertanto, se la camminata o altri tratti comportamentali vengono usati per identificare un individuo, siamo di fronte a trattamento biometrico e dunque ad applicazione piena delle tutele. 
La fragilità della gait analysis pone una criticità rilevante, ovverossia se sia effettivamente proporzionato trattare dati così invasivi se possono essere manipolati con facilità. 

Affidabilità probatoria nel processo penale

Il diritto processuale richiede prove certe, verificabili, ripetibili. Se un algoritmo può essere ingannato da una zoppia simulata, la sua attendibilità probatoria risulta compromessa. Alcuni studi legali hanno già sottolineato la necessità di un approccio prudente all’uso di prove biometriche comportamentali. 

Rischio di discriminazione

Esiste poi il problema dei falsi positivi. Persone con disabilità motorie reali potrebbero essere identificate erroneamente come “anomale” o persino “sospette”. Questo violerebbe non solo il GDPR, ma anche il principio di non discriminazione sancito dall’art. 21 della Carta dei Diritti Fondamentali dell’UE e la Convenzione ONU sui diritti delle persone con disabilità

AI Act e sistemi di riconoscimento

Classifica i sistemi di riconoscimento biometrico remoto come “ad alto rischio” e ne limita fortemente l’uso in spazi pubblici. La vicenda dell’omicidio di Kirk dimostra che tali restrizioni non servono solo a proteggere i cittadini da un controllo eccessivo, ma anche a riconoscere la fallibilità tecnica di sistemi che pretenderebbero di essere infallibili. 

Citizen journalism e sorveglianza distribuita

Il contrasto è evidente: da un lato, macchine sofisticate che possono essere ingannate da una zoppia simulata; dall’altro, cittadini con smartphone che documentano eventi in modo diretto ed efficace. 

Il citizen journalism è da tempo diventato una forma di sorveglianza distribuita che integra o addirittura sostituisce la tecnologia istituzionale. Nel caso Kirk, i video amatoriali hanno avuto un ruolo decisivo per la ricostruzione, mostrando che a volte le macchine falliscono dove gli umani riescono.

O meglio: se è vero che i sistemi di riconoscimento comportamentale possono essere aggirati con gesti elementari, l’intreccio tra telecamere pubbliche e private, contributi dei cittadini e indagini tradizionali rende la sorveglianza complessiva più difficile da eludere. Non si tratta più di un singolo ‘occhio elettronico’, bensì di una costellazione di sguardi eterogenei che si rafforzano a vicenda. È proprio questa natura ibrida (metà tecnologica, metà sociale) a rendere il controllo contemporaneo tanto efficace quanto giuridicamente sfuggente.

La democratizzazione della sorveglianza porta inoltre con sé nuove tensioni: violazioni della privacy, diffusione incontrollata di immagini cruente, difficoltà di verifica dell’autenticità. Una volta caricato sui social, un video diventa potenzialmente eterno, e il confine tra prova e spettacolo svanisce. La circolazione del video dell’omicidio di Kirk su X e altre piattaforme ancor prima che nei telegiornali, ha dimostrato ancora una volta la difficoltà di contenere la viralità di contenuti violenti. 

Con riferimento alle piattaforme, il Digital Services Act (DSA) prevede per le piattaforme di grandi dimensioni obblighi di trasparenza, sistemi di segnalazione rapida e procedure per la rimozione di contenuti illeciti. Tuttavia, l’esperienza dimostra che la logica della viralità rende inefficace ogni intervento ex post: un contenuto replicato e scaricato migliaia di volte non può essere cancellato definitivamente.

Il corpo come maschera digitale

Dalla vicenda della finta zoppia del presunto assassino di Kirk deduciamo che i sistemi di riconoscimento comportamentale non sono infallibili e possono essere aggirati con strategie semplici; ma anche quando si tenta di eluderli, la combinazione di videosorveglianza e citizen journalism rende quasi impossibile sparire davvero. 

Il corpo diventa una maschera digitale, capace di alterare i dati percepiti dalle macchine, ma incapace di sottrarsi completamente all’occhio diffuso della società sorvegliata.

Per il diritto, la sfida è duplice: garantire che tecnologie così invasive siano usate solo entro limiti proporzionati e controllabili; e riconoscere che la loro fallibilità tecnica ne riduce l’affidabilità probatoria e ne amplifica i rischi discriminatori.

Quindi, se può bastare una zoppia per confondere un algoritmo, ma la stessa non è sufficiente per sfuggire alla rete di telecamere e smartphone, ha davvero senso affidare a macchine (fallibili) il potere di decidere chi siamo sulla base di come ci muoviamo nello spazio pubblico?

A ben vedere, la vera libertà, oggi, consiste nel pretendere che lo sguardo delle macchine sia limitato dalla legge e guidato da principi di necessità, proporzionalità e rispetto della dignità umana.

Il diritto all’opacità

Il passo irregolare del 22enne Tyler Robinson poteva incrinare la presunta infallibilità delle macchine, ma non si è rivelato comunque sufficiente per sottrarsi alla sorveglianza distribuita di telecamere e smartphone. Questa tensione tra fallibilità tecnica e onnipresenza sociale è il vero nodo giuridico anche in Europa: le attuali regole (dal GDPR all’AI Act) cercano un bilanciamento tra esigenze di sicurezza e diritti fondamentali, ma non bastano.

Serve un principio ulteriore: un diritto all’opacità. Non si tratta di legittimare l’inganno, bensì di riconoscere che la libertà del cittadino passa anche dalla possibilità di non essere sempre decifrabile, di mantenere una quota di imprevedibilità che nessun algoritmo può classificare. Se il futuro della sorveglianza europea sarà deciso sul confine tra leggibilità totale e opacità protetta, la scelta, oltre che tecnica, è profondamente politica. Dovremmo domandarci infatti quale grado di invisibilità intendiamo difendere come parte integrante della nostra democrazia. 

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati