sicurezza e privacy

Riconoscimento facciale tra libertà e controllo: tutte le sfide aperte

Oggi ci affidiamo al riconoscimento facciale per comodità, ma che accadrà in un mondo dove questi sistemi coesisteranno con quelli di analisi di big data, e l’Intelligenza Artificiale e potranno essere usati a livello sistemico? Un primo assaggio ce lo darà la cina col suo sistema di credito sociale. Ecco i rischi concreti

10 Dic 2019
Rachele Cecchi

università Sant'Anna di Pisa

Alberto Pirni

università Sant'Anna di Pisa


L’ultima l’avete letta qualche giorno fa: dal 2020 in Cina per avere un cellulare bisogna sottoporsi alla scansione del viso, per alimentare un grande database di immagini su cui applicare il riconoscimento facciale. La novità non sorprenda gli osservatori attenti: è un tassello di un quadro che si sta delineando pian piano. E che vede proprio nel 2020 in Cina un punto di svolta.

Il Sistema di Credito Sociale cinese

Il riconoscimento facciale è la punta di diamante, tecnologica, di quel sistema  “della sorveglianza” che la Cina porta avanti da un po’ (anche in forme più analogiche). Il suo progetto di Sistema di Credito Sociale, sfida i confini etici e morali che il sistema di riconoscimento facciale ci ha posto sin dal suo sviluppo.

Il sistema sarà attivato entro il 2020 e, come il lettore saprà, si tratta del primo sistema di sorveglianza di massa che utilizza Intelligenza Artificiale ed analisi di big data in maniera congiunta.

Una volta completato, il sistema dividerà l’intera società tra chi è ‘degno di fiducia’ e chi invece non lo è. Appartenere ad uno status comporterà vantaggi – come agevolazioni fiscali, tempi d’attesa ridotti in ospedale, entrata gratuita nelle palestre – o porterà ad una serie di limitazioni e punizioni – tra le quali l’esclusione da determinati impieghi pubblici, l’impossibilità di prenotare voli o di ottenere prestiti bancari e il rallentamento della propria connessione internet. In generale, è anche risaputo che la sorveglianza di massa in Cina non è solamente posta nelle mani delle forze dell’ordine, ma anche e soprattutto è utilizzata a discrezione del potere politico con noncuranza riguardo alle ripercussioni sul libero arbitrio e sulle libertà della popolazione.

La Cina – utilizzando le parole tratte dal sito web ufficiale dello Human Rights Watch che introducono la situazione generale all’interno dello stato asiatico – ‘rimane uno stato monopartitico e autoritario che limita sistematicamente i diritti fondamentali’, per cui non è inaspettato che il Sistema di Credito Sociale venga implementato senza agitazioni. La popolazione è abituata ad essere monitorata: dopotutto il governo sa già tutto di tutti.

I problemi etici che sono sollevati da questo tipo di tecnologia spaziano dal mettere in discussione l’effettività del libero arbitrio, alle violazioni in termini di privacy e arrivano a toccare la possibilità di predire comportamenti futuri, causando preoccupazioni riguardo la presunzione di innocenza. Ma procediamo con ordine.

Ridefinizione del libero arbitrio

Prima di tutto, è opportuno chiedersi in che termini verrà ridefinito il libero arbitrio se ogni singola azione sarà giudicata alla luce di linee guide asettiche che non accettano la molteplicità di pensiero, idee e pulsioni. Il Sistema di Credito Sociale sfida in maniera sottile una delle caratteristiche che ci rende più esseri umani in assoluto ovvero la capacità di scelta. Nel momento in cui ogni individuo sarà in grado di calcolare matematicamente il costo/beneficio delle sue azioni, egli verrà privato dell’incertezza che rende qualsiasi scelta fatta una scelta dettata da un’analisi intima. L’esempio cinese rende palese come il Partito stia mantenendo ed addirittura rinforzando un disincentivo all’adozione di qualsiasi comportamento indipendente, raggiungendo capacità di controllo molto rilevanti in quanto, per pura necessità di sopravvivenza, si inizieranno a sopprimere tutte le ‘devianze’ che rendono ogni persona unica. I sistemi di riconoscimento facciale hanno portato ad un nuovo livello l’eterna lotta tra libertà e sicurezza perché per la prima volta nella storia dell’uomo, oggi, si possiedono i mezzi che rendono questa domanda non più teorica, bensì pratica. Ma, per quanto sia vero che sicurezza e libertà si trovano ad essere spesso in misura inversamente proporzionale, la sicurezza non potrà mai essere assoluta per definizione, visto che la devianza – anche quella criminale – fa parte di una società libera.

Le minacce alla privacy

Se, da un lato, il Sistema di Credito Sociale Cinese riesce scaltramente ad inibire e influenzare i comportamenti e le idee dei suoi cittadini attraverso un meccanismo di premi e punizioni, dall’altro si possono riconoscere a prima vista tutte le problematiche legate alla privacy che l’apparato – a prescindere dalla struttura di credito – comporta. In un mondo dove i sistemi di riconoscimento facciale, i sistemi di analisi di big data, e l’Intelligenza Artificiale coesistono e possono essere utilizzati a livello sistemico, tutti possono trovarsi potenzialmente dentro una cella del Panopticon focaultiano ‘dove non si è mai oggetto di comunicazione ma si è oggetto di informazione’.

WEBINAR - 3 NOVEMBRE
CISO as a Service: perché la tua azienda ha bisogno di un esperto di Cyber Security?
Sicurezza
Cybersecurity

Questo nuovo sistema di controllo ci pone di fronte ad un assottigliamento della linea che divide la vita pubblica da quella privata, e di qui le minacce alla privacy. I dati sensibili e personali della popolazione, infatti, sono sfruttati non solo nel breve periodo per vantaggi commerciali e pubblicitari, ma anche nel lungo periodo, poiché, se si è in grado di raccogliere abbastanza dati, diventa possibile prevedere un comportamento futuro. Rimane da chiedersi fino a che punto sarà possibile accettare una tale condizione. Se il riconoscimento facciale fosse installato in posti differenti e distanti tra loro ma pur sempre entro un’area definita, sarebbe potenzialmente possibile monitorare le attività giornaliere di tutti, indipendentemente dalla fedina penale e da una reale necessità di sorveglianza. Dare un’etichetta al sorvegliato perciò, diventerebbe una necessità pratica per cercare di discernere dal principio quali sono i soggetti ai quali prestare attenzione. Il passaggio poi da un’etichetta a un’identità in aspettativa, è davvero scontato.

Un’altra questione etica che inizia a delinearsi è quindi quella legata al quanto ancora la casualità rimarrà definita nel modo in cui la concepiamo oggi. In quanto esseri umani, con capacità oggettive e fisiche decisamente limitate, siamo incapaci di cogliere tutti i dettagli che ci circondano. Nel momento in cui però si uniscono all’equazione tutte le tecnologie di cui stiamo trattando, potremmo azzardarci a pensare che queste abbiano effettivamente le ‘capacità’ di cogliere tutto quello che a un umano sfugge, riuscendo per cui a prevedere quello che succederà perché gli eventi sono riconducibili a rapporti di causa-effetto. Tutto risiede nell’analisi delle probabilità ma se l’irrazionalità stessa sarà inserita negli algoritmi, i cigni neri che non siamo mai pronti ad incontrare, potrebbero non spaventarci più.

Una possibile minaccia alla sicurezza degli Stati

Inoltre, legislazioni come il Regolamento Generale sulla Protezione dei Dati (GDPR) iniziano a sensibilizzare sia i governi che l’opinione pubblica, ma il rischio proveniente da terze parti continua ad essere sottovalutato. I sistemi di riconoscimento facciale sono software installabili su telecamere a circuito chiuso e accedere a tali telecamere non rappresenta una sfida insormontabile per gli hacker più esperti. Servizi trasversali, come enti non statali o enti statali di un paese straniero, potrebbero sfruttare sia la disseminazione di telecamere a circuito chiuso sia l’attivazione di un software di riconoscimento facciale per poter tracciare gli spostamenti di soggetti d’interesse. Questa possibilità unirebbe le violazioni etiche alla privacy dell’individuo al venir meno del controllo di uno Stato sul suo territorio, scatenando problematiche che vanno oltre i confini etici per raggiungere quelli giuridici. I sistemi di riconoscimento facciale si sono sviluppati con l’idea di potenziare la sicurezza in tutto il mondo e se all’inizio erano destinati ad essere solamente di supporto alle forze dell’ordine nazionali, oggi rappresentano essi stessi una minaccia alla sicurezza dello stato quando si considera questa possibilità.

Oggi, ci affidiamo alla tecnologia per comodità. Questi sistemi sono stati adattati e adottati in modo da soddisfare molteplici ambienti: aeroporti, università, chiese e negozi; anche compagnie telefoniche e imprese private ne fanno uso. Il sistema è comodo, immediato, quasi infallibile e la sua versatilità è possibile perché, rispetto ad altre tecnologie biometriche, non è invasivo. Ciononostante, il sonno della ragione genera mostri e il fatto che si utilizzino certi sistemi di sicurezza per proteggerci da minacce conosciute, non vuol dire che questi non scatenino altre preoccupazioni. L’avanzamento tecnologico odierno ci forza a cambiare il nostro approccio all’idea stessa di progresso. In altre parole, siamo arrivati ad un punto della storia dove gli sviluppatori non devono più chiedersi se saranno o meno capaci di costruire un qualcosa di nuovo, perché molto probabilmente lo sono già. Prima di sfidare il mondo che ci circonda, è giunto il momento di porre un serio accento sulle ripercussioni etiche e morali che un nuovo tipo di tecnologia scatena.

____________________________________________________________________

Bibliografia e Sitografia

Bowyer K. W., Face recognition technology: Security versus Privacy, Technology and Society Magazine, Vol. 4, 2004. Pp 9-20.

Carney M., Exposing China’s Digital Dystopian Dictatorship, Foreign Correspondent, ABC News Australia, Youtube, 2018. Url: https://www.youtube.com/watch?v=eViswN602_k&t=14s

Connor N., Facial Recognition used to catch fugitive among 60,000 concert-goers in China, The Telegraph, 2018. Url: https://www.telegraph.co.uk/news/2018/04/12/facial-recognition-used-catch-fugitive-among- 60000-concert-goers/

Human Rights Watch, China and Tibet, 2019. Url: https://www.hrw.org/asia/china-and-tibet Foucault M., Sorvegliare e punire – Nascita della prigione, Einaudi Editore, Torino, 2014. Pp. 218.

Mozur P., Inside China’s Dystopian Dreams: A.I., Shame and Lots of Cameras, The New York Times, 2018. Url: https://www.nytimes.com/2018/07/08/business/china-surveillance-technology.html

Santevecchi G., Riconoscimento facciale obbligatorio in Cina: cellulari e web senza privacy, Corriere della Sera, 1 Dicembre 2019. Url: https://www.corriere.it/opinioni/19_dicembre_01/cina-high-techcellulari-websenza-privacy-f8feecb2-1472-11ea-9463-2153cf12a84f.shtml?refresh_ce

Shen X., ‘Skynet’, China’s massive video surveillance network, Abacus, 2018. Url: https://www.abacusnews.com/who-what/skynet-chinas-massive-video-surveillance-network/article/2166938

Soldavini P., La startup cinese del riconoscimento facciale sfida la protesta: pronta all’IPO a Hong Kong, Il Sole 24 Ore, 26 Agosto 2019. Url: https://www.ilsole24ore.com/art/la-startup-cinese-riconoscimento-facciale-sfida-protesta- pronta-all-ipo-hong-kong-ACYXuGg

Taleb N. N., Il Cigno nero – come l’improbabile governa la nostra vita, Il Saggiatore, 2007.

Technopedia.com, What it Facial Recognition?, 2019. Url: https://www.techopedia.com/definition/32071/facial- recognition.

WHITEPAPER
Come semplificare il sistema di gestione delle identità digitali?
Sicurezza
IAM

US Norton, How does facial recognition work?, Security Center, Internet of Things, 2019. Url: https://us.norton.com/internetsecurity-iot-how-facial-recognition-software-works.html.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4