L’evoluzione delle tecnologie di monitoraggio ha profondamente trasformato il concetto stesso di sorveglianza. Se il modello classico era caratterizzato da una sorveglianza “solida”, localizzata, visibile e legata a spazi fisici definiti, l’attuale panorama tecnologico mostra i tratti di una sorveglianza liquida, diffusa, invisibile, pervasiva e svincolata da confini spaziali e temporali.
Indice degli argomenti
La sorveglianza liquida: invisibile, diffusa e senza confini
Entrare in un edificio, attraversare una piazza, salire su un mezzo pubblico. Gesti ordinari, apparentemente neutri. Eppure, sempre più spesso, dietro queste azioni quotidiane si cela un processo invisibile: il nostro volto viene rilevato, analizzato, confrontato con database, valutato da algoritmi. Senza che ce ne accorgiamo.
È questo il volto della sorveglianza contemporanea: non più confinata a telecamere ben visibili o a spazi chiusi, ma liquida, ubiqua, silenziosa. Un sistema che non ha bisogno di barriere fisiche né di controlli espliciti, perché si insinua nella quotidianità e la normalizza.
Il riconoscimento facciale: quando il volto diventa una chiave universale
Al centro di questo cambiamento c’è una tecnologia tanto efficace quanto controversa: il riconoscimento facciale che si configura come una delle tecnologie più invasive e simbolicamente potenti, poiché consente l’identificazione univoca dell’individuo nello spazio pubblico e privato, trasformando il volto in una vera e propria chiave di accesso universale. L’uso combinato di sistemi biometrici, intelligenza artificiale e banche dati massificate produce una sorveglianza non più reattiva, ma preventivamente predittiva, con ricadute profonde sui diritti fondamentali e sull’assetto democratico.
Dal Grande Fratello all’algoritmo: come è cambiata la sorveglianza
Per decenni la sorveglianza è stata associata a immagini forti: il “Grande Fratello”, il panopticon, l’osservazione costante esercitata da un potere centrale. Oggi quel modello è superato. Non serve più osservare tutti, sempre. È sufficiente raccogliere dati, incrociarli e classificarli.
Il riconoscimento facciale rappresenta l’apice di questa trasformazione. A differenza di badge o documenti, non richiede azioni volontarie.
Il quadro giuridico: GDPR e AI Act di fronte alla biometria
Il riconoscimento facciale rientra a pieno titolo tra i trattamenti biometrici, in quanto fondato su dati personali “particolari”, idonei a identificare in modo univoco una persona fisica. La sua pericolosità non deriva solo dalla natura del dato trattato, ma dalla automatizzabilità del trattamento stesso.
Il GDPR qualifica i dati biometrici come categorie particolari di dati personali (art. 9), vietandone il trattamento salvo eccezioni rigorose. L’identificazione biometrica automatizzata, specie nello spazio pubblico, difficilmente può dirsi conforme ai principi di necessità, proporzionalità, minimizzazione, liceità e trasparenza.
A ciò si aggiunge il nuovo AI Act, che segna un vero punto di svolta politico: il regolamento europeo sull’intelligenza artificiale vieta in linea di principio l’uso del riconoscimento facciale in tempo reale negli spazi pubblici, consentendolo solo in casi eccezionali e rigidamente circoscritti (sicurezza nazionale, gravi reati, mandato giudiziario).
Il volto diventa una password permanente, impossibile da cambiare, che ci accompagna ovunque. E proprio per questo è una tecnologia profondamente sbilanciata a favore di chi controlla.
Non è solo una questione di privacy. È una questione di potere.
Social sorting: quando l’algoritmo decide chi sei
Un primo effetto, spesso sottovalutato, dell’utilizzo del riconoscimento facciale è il cosiddetto fenomeno del social sorting, ossia la classificazione automatizzata delle persone sulla base di dati biometrici e comportamentali.
Incrociando immagini, movimenti, abitudini e contesti, i sistemi algoritmici costruiscono profili che collocano gli individui all’interno di categorie funzionali: soggetto affidabile o sospetto, cliente desiderabile o rischio potenziale, comportamento conforme o deviante. Si tratta di etichette che non descrivono semplicemente la realtà, ma contribuiscono a plasmarla.
Influenzano l’accesso a servizi, opportunità commerciali, spazi fisici e digitali. Spesso avvengono senza che l’interessato ne sia consapevole e senza possibilità di contestazione reale. Non c’è un funzionario a cui chiedere spiegazioni, né un criterio giuridico chiaramente verificabile. C’è solo un output algoritmico.
Il social sorting opera, infatti, silenziosamente, al di sotto della soglia di consapevolezza dell’interessato, sfruttando meccanismi decisionali automatizzati che sfuggono al controllo umano e al sindacato giurisdizionale. Si realizza, così, una forma di governo algoritmico che sostituisce criteri giuridici con metriche probabilistiche, normalizzando l’eccezione e cristallizzando le disuguaglianze.
Corsie invisibili: le disuguaglianze incorporate nei sistemi automatizzati
In tal modo, il social sorting realizza una forma di selezione silenziosa, che non si manifesta attraverso divieti o decisioni formali, ma attraverso meccanismi di inclusione ed esclusione progressiva. Le differenze di trattamento non vengono dichiarate né motivate, bensì incorporate nel funzionamento ordinario dei sistemi tecnologici, rendendo le disuguaglianze meno visibili e, proprio per questo, più difficili da individuare e contrastare.
Sul piano giuridico, il problema non è soltanto la possibile discriminazione, ma la sostituzione del giudizio normativo con una logica classificatoria automatizzata. Il rischio è quello di un progressivo spostamento dal diritto come insieme di regole generali e verificabili a un sistema di valutazioni dinamiche e opache, che incidono sulla sfera giuridica degli individui senza assumere la forma di atti giuridici in senso proprio.
Il rischio è evidente: la trasformazione della società in un sistema di corsie preferenziali invisibili, in cui l’inclusione o l’esclusione non passano più da decisioni politiche esplicite, ma da calcoli statistici.
Il rischio di disuguaglianze amplificate: i bias strutturali degli algoritmi
I sostenitori di queste tecnologie parlano spesso di efficienza, sicurezza, neutralità. Ma la realtà è diversa. Gli algoritmi non operano in un vuoto sociale: apprendono da dati storici, riflettono assetti di potere preesistenti e incorporano, spesso in modo non intenzionale, bias strutturali già presenti nella società.
Numerose evidenze empiriche hanno dimostrato come i sistemi di riconoscimento facciale presentino livelli di accuratezza significativamente inferiori rispetto a determinate categorie di persone, aumentando il rischio di errori, false identificazioni e trattamenti discriminatori. In tali condizioni, la tecnologia non svolge una funzione correttiva delle disuguaglianze, ma contribuisce a renderle più profonde, pervasive e difficili da rilevare.
La sorveglianza algoritmica rischia così di diventare un moltiplicatore di disuguaglianze, con un’efficacia tanto maggiore quanto minore è la sua visibilità. La combinazione di automazione, pervasività e opacità rende queste forme di discriminazione meno contestabili e più difficili da attribuire a responsabilità giuridicamente individuabili, ponendo una seria sfida ai principi di uguaglianza, non discriminazione e tutela effettiva dei diritti fondamentali.
Il chilling effect: quando la sorveglianza trasforma la libertà in autocensura
Ma il rischio forse più grave non è immediatamente misurabile. È quello che viene definito chilling effect: l’effetto di raffreddamento delle libertà. Un fenomeno che opera in modo indiretto, silenzioso e difficilmente misurabile, ma che incide in profondità sull’esercizio delle libertà fondamentali.
Sapere – o anche solo sospettare – di essere costantemente monitorati, induce gli individui a modificare il proprio comportamento, rinunciando preventivamente a esercitare diritti pienamente leciti. Non si tratta di una limitazione formale imposta dall’ordinamento, bensì di una restrizione sostanziale, interiorizzata, che svuota i diritti della loro effettività. Ci si espone di meno, si evita il dissenso, si rinuncia a partecipare a una manifestazione, a un incontro, a un’iniziativa politica. Non perché sia vietato, ma perché potrebbe essere tracciato.
È una censura preventiva, interiorizzata. Nessun divieto, nessuna sanzione diretta. Solo la percezione che ogni gesto possa essere archiviato, analizzato, riutilizzato in futuro, porta il cittadino stesso a limitarsi, adottando comportamenti conformi, prevedibili, socialmente “sicuri”.
In questo senso, il riconoscimento facciale non limita soltanto la privacy: incide sul modo in cui esercitiamo le nostre libertà fondamentali, dalla libertà di espressione a quella di riunione. Una democrazia sana presuppone cittadini attivi, critici e liberi di manifestare il proprio pensiero senza timore di conseguenze. La diffusione di sistemi di riconoscimento facciale nello spazio pubblico rischia di trasformare tale presupposto in un’illusione.
Il danno prodotto dal chilling effect è tanto più grave in quanto difficilmente contestabile sul piano giuridico. Non vi è una decisione amministrativa da impugnare, né una misura formalmente lesiva da censurare. Il pregiudizio è diffuso, cumulativo e invisibile, e proprio per questo rischia di sfuggire ai tradizionali strumenti di tutela, pur incidendo direttamente sulla sostanza dei diritti costituzionali.
Una democrazia sorvegliata è ancora una democrazia?
Il riconoscimento facciale promette sicurezza, ma pone una domanda fondamentale: una società perennemente osservata può dirsi libera?
La risposta del diritto europeo – dal GDPR all’AI Act, passando per la giurisprudenza – sembra convergere su un punto: la sorveglianza algoritmica indiscriminata è incompatibile con i valori democratici. La sorveglianza liquida non reprime apertamente, ma normalizza, abitua. Trasforma il cittadino in un soggetto prudente, prevedibile, conformista. È una trasformazione lenta, silenziosa, ma profonda.
Il paradosso è evidente: tecnologie nate per aumentare la sicurezza possono finire per svuotare la democrazia dall’interno, riducendola a una struttura formale priva di reale partecipazione.
Oltre la privacy: la posta in gioco è il futuro dei diritti
Il dibattito sul riconoscimento facciale non può essere confinato agli addetti ai lavori o ridotto a una questione tecnica. È un tema politico e costituzionale, che interroga il rapporto tra individuo, tecnologia e potere.
La sorveglianza liquida, alimentata da processi algoritmici opachi e dall’uso pervasivo di dati, rischia di trasformarsi in un paradigma di governo incompatibile con i valori democratici.
Governare queste innovazioni significa porre limiti chiari, pretendere trasparenza, garantire controllo umano, responsabilità e proporzionalità. Significa, soprattutto, riconoscere che non tutto ciò che è tecnicamente possibile è democraticamente accettabile.
Il rischio non è solo la perdita della privacy. È la normalizzazione della rinuncia alla libertà, l’abitudine al controllo, la trasformazione del cittadino in soggetto predittivo e conforme.
Il vero pericolo non è essere visti, ma smettere di agire come cittadini liberi. Perché quando la sorveglianza diventa invisibile, il rischio non è solo di perdere la privacy. È di perdere, senza accorgercene, la libertà stessa.









