Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

le tecniche

Cammineremo tutti con l’ombrello aperto, contro la nuova sorveglianza di massa

L’ombrello è diventato il simbolo delle proteste pro-democrazia in Asia. Ma non è il solo, in una società in cui la nostra privacy è sempre più moneta di scambio e la nostra identità è definita non solo da come siamo e da come ci comportiamo, ma anche da cosa decidiamo di raccontare

13 Nov 2019
Paolo Maria Innocenzi

Cybersecurity Specialist


Camminare in strada con un ombrello aperto, anche quando non piove, potrebbe essere la nuova “moda” di questo terzo millennio. Una moda, però, necessaria per proteggere la propria privacy e i propri diritti dai sempre più intrusivi sistemi di riconoscimento facciale utilizzati in un numero crescente di città e contesti quotidiani (dalla piazza in cui manifestiamo agli aeroporti e al bar), non solo a scopi di sicurezza, come si potrebbe pensare.

Una tecnologia, quella che abilità il riconoscimento dei volti, disponibile a prezzi sempre più bassi e in grado di fornire in tempo reale servizi sempre più complessi, da utilizzare insieme a watchlist, liste di persone di interesse da identificare e di funzionare anche con foto vecchie di 30 anni e/o con angolazioni di ripresa non “a favore di camera”.

Questo per far comprendere che non parliamo di scenari da un futuro distopico o dispotico, ma del nostro presente, permeato da una tecnologia le cui conseguenze sono ancora tutte da misurare.

Le proteste con l’ombrello a Hong Kong

L’utilizzo degli ombrelli contro la sorveglianza repressiva è stato evidente nel corso delle recenti marce di protesta a Tseung Kwan, una delle nove nuove città dell’area di Hong Kong da parte degli attivisti pro-democrazia, che cercavano di mettersi al riparo dalle  telecamere dotate di sistemi di Intelligenza Artificiale per il riconoscimento automatico e multiplo.

Ma non dobbiamo pensare che questo tipo di sorveglianza sia tipica dei regimi autoritari: sono sempre più numerose, infatti, le istituzioni democratiche che spingono per un riconoscimento facciale di default magari per l’accesso ai servizi pubblici, come sta pensando di fare la francia col sistema Alicem.

O ancora, in Australia, dove il governo sta pensando di inserire le foto di patenti e passaporti in un database per il riconoscimento facciale da alimentare a livello nazionale. Agenzie governative e private potranno accedere alle foto e identità dei cittadini che sono conservate da autorità locali o dal ministero degli Esteri.

Dalla chiave alla scansione della retina: da quello che ho a quello che sono

Ma come siamo arrivati al riconoscimento facciale? Come tutti sanno, per entrare in un luogo di nostra proprietà, abbiamo bisogno di una chiave, il cui possesso, però, non implica un riconoscimento del portatore: una chiave è qualcosa che si ha, che si detiene, e che pertanto può essere rubata, duplicata, smarrita. Ed è per questo che il riconoscimento di un proprietario di un bene non può avvenire soltanto da quello che il proprietario “possiede”, ma deve essere subordinato a qualcosa che solo il proprietario “sa”: come il Personal Identification Number, o PIN che oggi si accompagna a qualunque chiave per determinare qualcosa che (teoricamente) non dovrebbe essere scritto in alcun altro luogo se non memorizzato nella mente di chi lo conosce. Deve essere breve, facile da ricordare, e associato a ciò che si ha, e questo costituisce oggi una coppia vincente anche per algoritmi incrociati come le chiavi crittografate (che tecnicamente non “sappiamo” noi, ma “sanno” i nostri computer).

Oltre quindi ai rischi connessi con ciò che si ha, che potrebbe venirci estorto o banalmente copiato, anche quello che si sa, come un pin, potrebbe essere in qualche modo estratto o rivelato accidentalmente o coercitivamente e usato per sostituzione di persona, attraverso un impostore che potrebbe usare una chiave che avevamo e un pin che sapevamo solo noi, per utilizzarli in nostra vece, senza che noi siamo fisicamente lì.

Entra allora in gioco una parte riconoscibile del nostro fisico, facile da controllare, univoco, e non riproducibile/copiabile in nostra vece o senza il nostro consenso o senza che ce ne accorgiamo, come lo sono da molto tempo i nostri polpastrelli nelle loro impronte digitali. Queste, con le moderne tecniche e con i moderni materiali, sono comunque da ritenersi profanabili attraverso tecniche di “hacking” che, se non le ripropongono in toto, possono confondere i rilevatori automatici e indurli in errore di “falso positivo”.

Si è passati allora ad una impronta nascosta, una complessa e fitta rete di vasi sanguigni sulla retina, nel fondo del nostro occhio che, avvicinato semplicemente ad una telecamera, viene scansionato e comparato velocemente, con probabilità di errore accettabili come nulle. Quello che siamo “fisicamente” è così diventato univoco, e associato a quello che abbiamo (una chiave fisica, un badge ad esempio) ed un pin che sappiamo (un numero, una sigla, una password) può garantire un hardening abbastanza affidabile da fondarci l’uso di complesse apparecchiature, l’accesso alle infrastrutture critiche e l’attivazione di armi anche dagli esiti distruttivi su scala nazionale (silos nucleari, etc.)

Il nuovo riconoscimento a distanza

Le strutture dei polpastrelli e delle nostre retine, richiedono però la registrazione in loco e ed una elaborazione sequenziale da parte di strumentazioni come i campionatori di impronta retinica e di impronta digitale (o di firma digitale) particolarmente lenta. La grafometria della firma, che avviene registrando la pressione e le accelerazioni della nostra penna sul pad su cui la apponiamo, consente di riconoscere automaticamente l’autenticità umana in presenza, e delegare il riconoscimento ad un algoritmo. Si tratta di un mutuo riconoscimento, però: l’utente dovrà necessariamente accorgersi che gli viene richiesto uno scanning di alcuni suoi parametri biologici (i polpastrelli, l’occhio, il modo in cui firma, ma anche il timbro di voce, etc.) e l’operatore avrà di fronte in quel momento un utente che in presenza o remotamente fornirà volontariamente i propri parametri (lascerà una impronta, guarderà in un oculare, firmerà su una tavoletta).

Ed è a questo punto che le cose si complicano. Esistono dei marker univoci della individualità di una persona fisica, come ad esempio il modo di camminare, o il complesso andamento del battito cardiaco, o il sequenziamento del DNA, che non implicano necessariamente la presenza nello stesso tempo o nello stesso luogo della persona che deve essere riconosciuta. Il DNA ad esempio viene riconosciuto dopo molte ore dal momento del prelievo e l’elaborazione occupa risorse elaborative per gli algoritmi utilizzati oltreché di tipo chimico.

Gli strumenti diventano sempre più sensibili al punto di non aver più necessità del contatto dei polpastrelli con una superficie, o del battito cardiaco attraverso degli elettrodi, ma riescono a rilevare l’immagine del polpastrello a distanza di centimetri da una telecamera o di decine di metri attraverso rilevazioni laser dal un corpo di una persona mentre sta camminando in mezzo alla folla.

Il riconoscimento di forme specifiche quali le “impronte” facciali completano il quadro. Ecco che quello che ho (una chiave che porto con me), quello che so (un pin che porto con me), può essere ricondotto a quello che sono ma anche indipendentemente dalla mia volontà (la mia faccia), e non esplicitamente richiestomi (come chiave e pin) ma rilevato ciò prelevato a mia insaputa.

La privacy e i follower

Il punto di svolta di queste tecnologie non sono i dati forniti, o rilevati che dir si voglia, le proprie informazioni scambiate con i servizi che desideriamo sempre più velocemente, bensì le deduzioni, ovverosia i dati che non ho esplicitamente fornito, ma che sono stati dedotti dai dati che ho fornito e che pertanto sono ad essi legati indissolubilmente.

Questa particolarità è stata talmente chiara al legislatore, che il Parlamento europeo ha recentemente aggiornato le linee guida etiche: deve essere regolamentato anche il trattamento dei dati “dedotti” (o “inferiti”) dalle Intelligenze Artificiali che corredano sempre più spesso i rilevatori biometrici e le telecamere. Ed in sostanza ne scaturisce che anche i dati inferiti devono essere trattati secondo il regolamento europeo sui dati personali, e come dicevamo anch’essi criptati, conservati solo temporaneamente, soggetti a cancellazione come imposto dal diritto all’oblio sancito dai regolamenti GDPR.

La relazione tra reputazione e privacy

Il nostro Io, e la nostra identità sono definiti, insieme al resto, dal nostro modo di essere e comportarci unitamente a come decidiamo volontariamente e liberamente (per ora) di raccontarci. Decidiamo cosa raccontare ad altri riguardo alle nostre idee, riguardo ai nostri punti di vista. Ciò che decidiamo di tacere, rimane un nostro non-detto, un “segreto”, non solo per vergogna o per riserbo ma anche semplicemente per privacy: una preservazione e difesa di alcuni modi di essere e di pensare.

Fino a che punto siamo coscienti di vivere già in un siffatto mondo? Quante pubblicazioni involontarie o sconsiderate registriamo sui social network, quante di queste vengono ormai giornalmente ritrattate dai personaggi pubblici? Quante di queste danneggiano stabilmente la reputazione di nostri conoscenti, amici, famigliari, o hanno fatto triste notizia sulle pagine di cronaca nera dei quotidiani?

Ma qual è la relazione tra reputazione e privacy. Nei secoli precedenti, per disporre di una reputazione, era necessario accettare di venire etero-descritti: dai vari ordini e gradi di scuole, dallo Stato e dai suoi organi, ma anche dai mezzi di comunicazione, dai nostri conoscenti, amici, finanche dai nostri stessi famigliari. In questo millennio abbiamo appreso però che possiamo non solo essere oggetto di definizioni reputazionali, ma che possiamo anche pretendere di guidarle, di incentivarne delle caratteristiche, addirittura di modificarle o di distorcerle. Come? Attraverso atteggiamenti amplificati dai social network. Attraverso di essi, possiamo addirittura influenzare le altrui reputazioni (si pensi a tripAdvisor, o al mestiere stabile dell’influencer), come? Rinunciando alla nostra privacy, mostrando a tutti i nostri follower ciò che siamo, poi cosa desideriamo, poi cosa pensiamo, contro o a favori di cosa possiamo lottare.

C’è una dipendenza diretta tra la propria reputazione “online” e offline. E c’è ancora una dipendenza diretta tra grado di rivelazioni online e la propria reputazione online. Ed ecco fatto l’ultimo passo dunque. Più sicurezza avremo meno privacy potremo permetterci. Ma dovremo rinunciare alla nostra privacy anche per aumentare o gestire la nostra online-reputation. Per concludere ma senza voler essere esaustivi, anche per avere più libertà, dobbiamo rinunciare ad una parte di privacy.

La privacy come moneta di scambio

Ed ecco delinearsi una metrica comune, una moneta unica, per così dire, una merce di scambio con valore corrente in tutti i Paesi, transnazionale e a cui l’individuo attingerà per negoziare libertà, sicurezza e democrazia: la propria privacy. Un bene non rinnovabile, non infinito, nient’affatto perpetuo o inesaurible: altamente inflattivo. Posso involontariamente confessare di preferire una certa zona della mia città per fare acquisti? Posso involontariamente confessare di preferire un film o un vino o un cibo, e un film o un autore o un albergo o sempre più spesso una certa vacanza? Un giorno non molto lontano, nell’abitudine di confessare di preferire pubblicamente un vino, del cibo, dei film o un autore, un albergo, una vacanza, potrei trovarmi involontariamente a mostrare di preferire un credo religioso, una tendenza sessuale o un partito politico, di minoranza, stigmatizzato o anche soltanto sconveniente, in cambio di un godimento immediato di cento o mille like, dell’elezione a influencer, della perdita della mia personale individualità a vantaggio di comportamenti sempre più collettivi e standardizzati.

Il distopico, il dispotico e l’ethical hacker

Ritornando ai pericoli connessi con la tecnologia – di per sé sempre neutra – al servizio della realizzazione di società dispotiche, in molti paesi dove le dimensioni della democrazia si avvicinano ad estremi autocratici e di repressione del dissenso, tali modalità divengono vieppiù funzionali ad un apparato di controllo statale, fino a rispondere ad esigenze coercitive dei pochi a danno dei molti, dalla raccolta di informazioni fino al condizionamento del comportamento di gruppi anche molto vasti di utenti.

Dove invece ciò accade su larga scala come nel caso di intere popolazioni asiatiche, l’insorgenza di gruppi di contro-intercettazione prende forma sotto forma di autodifesa (attraverso vere e proprie azioni di collettivi fuorilegge di hacktivism presenti sul territorio e noti, paralleli ai nostri anonymous o lulzsec) e controinformazione fino alla disobbedienza civile. In alcuni casi abbiamo avuto modo di osservare, come nelle ultime reazioni della protesta cinese, azioni dirette e in taluni casi di manifestazioni anche violente attraverso azioni di deliberato contrasto sfociate purtroppo in azioni di violenza. Questa azione di contrasto può essere indiretta nei casi di democrazie moderne o cosiddette super democrazie, attraverso compensazioni legislative, a vantaggio e tutela della popolazione, dei suoi diritti, e della privacy. Ma può prendere le sembianze di una azione di contrasto invece diretta, come le reazioni inconsulte e compulsive attraverso manifestazioni violente di distruzione ad opera della popolazione di asset ritenuti “a rischio” (sono presenti online atti vandalici filmati, di distruzione di lampioni, installazioni e telecamere ritenute “di controllo”).

Nella nuova distopia dell’informazione, anche in Italia esistono città off-limits per la privacy, in cui si preferisce non usufruire di servizi “a rischio” per non venire tracciati. Se, insomma, la gestione del consenso o la difesa del sacrosanto diritto all’oblio non funzionerà come desideriamo, assisteremo (come stiamo già assistendo in modo indiretto) alla ”antropizzazione” di zone precedentemente deserte soltanto perché offrono una qualità e un comfort preferibile al tracciamento completo e continuo, in definitiva una privacy diversa e più robusta.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4