Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

scenari

L’intelligenza artificiale ci sorveglierà tutti: è bene o un male?

Le democrazie avanzate stanno adottando molte tecnologie di Ai surveillance, dice un report Carnegie, per rendere le città sicure attraverso sistemi di riconoscimento facciale. Non implica necessariamente un abuso. Ma le eccezioni ci sono e devono spingerci a riflettere sulle conseguenze di un uso estensivo della tecnologia

04 Ott 2019

Paolo Maria Innocenzi

Cybersecurity Specialist


La diffusione della videosorveglianza attraverso intelligenze artificiali (AI Surveillance, o AIS) è in forte aumento, come rilevato dal recente rapporto di Carnegie. E molto di come è usata ancora ci sfugge, a quanto è intuibile dei numeri: ben 75 Paesi su 176 adottano queste tecnologie e la maggior parte – sorpresa – non sono dittatoriali ma democrazie liberali (51).

Il campanello di allarme, sulle questioni etiche legate all’uso sempre più esteso dell’AI, sta suonando già da un bel po’ e non certo perché viene usata per reprimere l’accesso alle ZTL in centro città, o per riconoscere volti al momento degli imbarchi nei porti e aeroporti: gli esperti esprimono preoccupazione per i tassi di errore di riconoscimento facciale o per la questione dei “bias“, i pregiudizi algoritmici che causano discriminazioni sociali.

Persino applicazioni benigne – come i dispositivi di assistenza (Alexa, Cortana, Google Assistant, Siri, Bixby, etc.) o serrature keyless ad attivazione a distanza, o il display di un cruscotto automobilistico intelligente – aprono vie preoccupanti per la AIS. La sperimentazione diretta di determinate tipologie di tecnologie di sorveglianza che gli Stati stanno testando sui loro confini, come a esempio il riconoscimento emotivo delle microespressioni attraverso il sistema “iBorderCtrl”, ha preso piede e si è diffusa nonostante le critiche che vengono mosse si basino sui difetti che l’Intelligenza Artificiale sta mostrando, e sulla destituzione di fondamento degli assunti su cui questi meccanismi si basano.

L’impatto globale e finale di tali eccezioni, invita ad una pausa per rispondere alle domande inquietanti che stanno emergendo per quanto riguarda l’accuratezza, correttezza, coerenza metodologica, e l’impatto pregiudiziale delle tecnologie di sorveglianza avanzate.

I governi hanno l’obbligo di fornire le risposte migliori e una più piena trasparenza su come intendono usare e su come svilupperanno gli usi futuri di questi strumenti invasivi della privacy e del libero arbitrio.

Le tendenze emergenti dell’intelligenza artificiale

Proviamo dunque ad evidenziare le tendenze emergenti di una tecnologia il cui impatto non è ancora ben compreso e dalla quale la vita moderna sarà sempre più influenzata. La buona notizia è che non c’è tempo sufficiente per avviare un dibattito tanto necessario quanto aperto e pubblico circa il corretto equilibrio tra tecnologia AI, sorveglianza centralizzata da parte dei governi, e il diritto alla privacy dei cittadini. Ma quanto più queste tecnologie diventano integrate nella governance e nella politica, tanto più la finestra per il regolamentare e agire dei cambiamenti sarà ristretta.

Ovviamente non stiamo parlando di tecnologia: se volessimo parlarne indicheremmo i nuovi strumenti algoritmici e ci innamoreremmo ancora una volta delle loro infinite possibilità. No: quello che stiamo indirizzando è il seguente dilemma: più vuoi essere sicuro, meno privacy puoi avere, più privacy desideri, meno puoi richiedere di essere sorvegliato e garantito e dunque meno sicurezza avrai.

Se fosse finita qui, avremmo risolto con una decisione individuale. Ma esiste un terzo asse: la sicurezza nazionale, in nome della quale esistono forze dell’ordine, ed eserciti, coordinati da governi.

Ed esiste anche un quarto asse: i governi che comprano queste tecnologie, le acquistano all’interno del paese che governano da aziende interne, o da aziende che producono in altri paesi?

Vediamo la mappa di Carnegie.

Appare evidente che la tecnologia Usa di sorveglianza artificiale è diffusa certamente negli Stati Uniti, mentre la tecnologia sino-americana è diffusa in molti luoghi compresa la Cina stessa. E’ interessante notare presso quali governi sono più in uso tecnologie mediorientali o miste.

I motivi dell’adozione virale di queste tecnologie

A quanto risulta dal rapporto Carnegie, il ritmo di diffusione di questi sistemi sta superando quello che era stato previsto dagli esperti. Almeno 75 di 176 paesi in tutto il mondo utilizzano attivamente tecnologie AI per la sorveglianza della popolazione. Di queste per:

  • piattaforme Smart City / Città Sicura (56 paesi)
  • sistemi di riconoscimento facciale (64 paesi)
  • polizia intelligente (52 paesi).

I Paesi fornitori e le loro società

  • La Cina è uno dei principali motori di sorveglianza AI in tutto il mondo: attraverso Huawei, Hikvision, Dahua, e ZTE copre la fornitura di 63 paesi, trentasei dei quali hanno firmato l’accordo Belt and Road Initiative (BRI) cinese. Huawei è l’unico fornitore di tecnologia di sorveglianza AI ad almeno 50 paesi in tutto il mondo. L’altro unico fornitore non cinese di sorveglianza AI-Tech è la giapponese NEC Corporation (14 paesi).
  • Ovviamente anche aziende statunitensi sono attive in questo settore con tecnologie AI-surveillance e riforniscono 32 paesi con società significative quali IBM (11 paesi), Palantir (9 paesi), e Cisco (6 paesi).
  • Occorre poi considerare che anche altre società nelle democrazie liberali – Francia, Germania, Israele, Giappone – stanno giocando un ruolo importante nella proliferazione di questa tecnologia.

Prestiti agevolati per tecnologie repressive, a governi repressivi

L’offerta di prodotti cinesi è spesso accompagnata da prestiti agevolati per incoraggiare paesi economicamente deboli (ma anche i loro governi) ad acquistare le loro attrezzature. Purtroppo debolezza economica e democrazia non vanno sempre a braccetto, anzi queste tattiche alla fine sono particolarmente rilevanti soprattutto in paesi già repressivi che vogliono acquistare tecnologie ulteriormente repressive e che altrimenti non potrebbero accedervi come il Kenya, Laos, Mongolia, Uganda e Uzbekistan.

Poiché dunque abbiamo precedentemente sottolineato la predominanza del governo cinese sul mercato, ad un primo approccio sorgono problemi etici circa la misura in cui il governo cinese stia di fatto promulgando, promuovendo e agevolando attraverso questo genere di sovvenzioni l’acquisto di tecnologia avanzata repressiva.

Perché le democrazie adottano l’AI-Surveillance

Detto questo, è bene ricordare che anche le democrazie liberali figurano tra i principali utilizzatori di sorveglianza AI.

Beninteso: il fatto che i governi delle democrazie avanzate stiano implementando una serie di tecnologie sulle loro piattaforme per le città sicure attraverso le telecamere di riconoscimento facciale, non significa necessariamente che le democrazie stiano abusando questi sistemi.

Per capire invece la qualità della loro governance, ovverosia se tali governi implementino questa tecnologia a fini repressivi, occorre tenere d’occhio quale sia il fattore discriminante dell’adozione.

Ricordando che tutti i contesti politici corrono il rischio di violazione di legge sfruttando la tecnologia di sorveglianza AI per ottenere determinati obiettivi politici, vediamo i vari approcci.

Livello di autocrazia dei Governi

Sono più inclini ad abusare di sorveglianza AI dei governi nelle democrazie liberali. Alcuni governi autocratici-per esempio, la Cina, la Russia, l’Arabia Saudita- stanno sfruttando la tecnologia AI a fini di sorveglianza di massa.

Altri governi detentori di un triste record in termini di violazione dei diritti umani stanno sfruttando la sorveglianza AI in modi più circoscritti al rafforzamento della repressione.

Sostenibilità della spesa militare

Si connota una forte relazione tra spese militari di un paese e l’uso del governo di quel paese di AIS: questo accade in 40 dei 50 paesi nel mondo che dedicano ingenti somme economiche alla copertura delle spese militari (calcolate cumulativamente).

Il reportdi Carnegie ha individuato come 18 su 65 paesi hanno utilizzato tecnologie di sorveglianza AI sviluppate da produttori cinesi. Ma subito nel 2019 il numero di tali paesi se è salito a 47/65.

Essi comprendono maggiori economie come Francia, Germania, Giappone, e Corea del Sud, e gli stati più poveri come il Pakistan e l’Oman. Questo risultato ci giunge del tutto inaspettato; Paesi con consistenti investimenti nelle loro forze armate tendono ad avere le capacità economiche e tecnologiche più elevate così come una crescente preoccupazione per specifiche minacce.

Se il governo di un paese prende la sua sicurezza sul serio ed è disposto a investire ingenti risorse nel mantenimento di robusti asset di sicurezza militare, dovrebbe sorprenderci molto meno che quel governo adotterà i più nuovi ritrovati di intelligenza artificiale.

Il fatto che le motivazioni per cui le democrazie europee acquisiscono AIS (controllare la migrazione, il monitoraggio di minacce terroristiche) possono differire da quelle dell’Egitto o dagli interessi del Kazakistan (come ad esempio a porre un coperchio sulla pentola del dissenso interno, o a dare un giro di vite sui movimenti degli attivisti prima che raggiungano la massa critica), non dovrebbe farci perdere di vista che gli strumenti sono notevolmente simili.

Sarebbe interessante svolgere una ricerca esaminando i dati reali di sicurezza interna a livello di Paese e confrontarle con i livelli di sorveglianza AIs adottati e calcolarne lo scarto.

Occorre però sottolineare che le informazioni evidenziate dai rapporti pubblicamente disponibili sono fortemente falsate dal fatto che è quasi impossibile definire per un determinato anno quali ​​piattaforme o sistemi AIS siano realmente in uso, e che dunque le relative conclusioni sono astratte da fonti di segnalazione open source e da una attenta analisi dei dati a disposizione e non ulteriormente indagabili.

Bisogna inoltre segnalare che, mentre alcune aziende hanno scelto di minimizzare la loro associazione con tecnologie di sorveglianza e hanno volutamente mantenuto i documenti di pubblico dominio, altre società che operano in particolari paesi, come la cinese Huawei, hanno comunque un interesse a mettere in evidenza nuove capacità in questo campo e dunque a rivelare il loro operato, e altre aziende possono avere delle limitazioni politico-economico-finanziarie o militari a pubblicizzare il loro operato in questo campo.

Legittimità e illegalità dell’adozione della sorveglianza AI

La sorveglianza AI è una tecnologia e come tale di per sé è neutra.

La sorveglianza generica come azione da parte di uno Stato all’interno del suo perimetro, non è di per sé illegale. I governi hanno motivi legittimi per attuare la sorveglianza che non sono radicati necessariamente in un desiderio di far rispettare la politica attraverso la repressione o di limitare le libertà individuali. Ne sono esempi la prevenzione del terrorismo o il semplice scoraggiamento di azioni ostili o la risoluzione di casi problematici, e il monitoraggio di minacce critiche ai sensi dell’applicazione della legge o per le indagini di sicurezza nazionale.

La scelta dell’oggetto da monitorare

Internet mette a disposizione “metadati” disponibili su persone, messaggi di posta elettronica inviati e ricevuti, l’identificazione posizione, web-tracking, e altre attività online. La memorizzazione di queste informazioni la loro ricerca e l’accesso, l’autorizzazione alla divulgazione e l’utilizzo da parte dello Stato sono in gran parte non regolamentati. E tali intrusioni influenzano profondamente il diritto di un individuo alla privacy, a non essere sottoposto a quello che l’Ufficio dell’Alto Commissario delle Nazioni Unite per i Diritti Umani (OHCHR) chiama “interferenze arbitrarie o illegali nella sua vita privata, famiglia, casa o corrispondenza.”

Gli impatti cognitivo-comportamentali della sorveglianza AI

Se mi è chiaro che le mie attività fisiche e digitali vengono monitorate per prevedere comportamenti indesiderati quando mi trovo in aeroporto, o in luoghi affollati, ovviamente condividerò una sensazione di sicurezza insieme ad altri individui nello stesso luogo.

Ma gli stessi algoritmi contemplano al loro interno anche azioni simili a quelle indesiderate, ma non pericolose proprio per poterle escludere e non dare allarmi indesiderati (falsi positivi).

Inoltre gli stessi algoritmi sono resi leggermente paranoici per evitare che alcuni comportamenti “mimetici” possano essere trascurati dal sistema di sorveglianza (falsi negativi).

La scienza statistica dedita al comportamento delle grandi masse che agisce sui big data rivela che grandi masse di individui tendono ad avere comportamenti prevedibili.

Emergono dei comportamenti predominanti secondo i quali i singoli individui tendono ad imitare i comportamenti premianti di altri individui “prima” di astrarne le regole generali premianti anch’esse a anche più generali, ma più difficili da astrarre.

Ne consegue che in un sistema di sorveglianza concepito su allarmi “predittivi” dei comportamenti indesiderati, per evitare di essere identificati come individui che praticano tali comportamenti, le persone tendano all’imitazione di persone più virtuose, cioè coloro i quali non vengono mai attenzionati.

Questo può arrivare non solo a farmi imitare le persone che non prendono mai multe per ingresso in zone a traffico limitato in città, cosa di per sé positiva, ma anche a modificare il modo più o meno repentino con cui sterzo agli incroci quando guido la mia automobile, o a quali percorsi “corretti” devo fare quando sono nel supermercato per non essere individuato come sospetto, fino ad arrivare a comportamenti ancora più sottili come ad esempio quali film scelgo sulla pay-tv, o il modo in cui poso il mio sguardo su diversi elementi sullo schermo del mio telefono cellulare.

Questo permetterà di migliorare il controllo sociale portandomi ad agire in un modo migliore? Cambierà anche il mio modo di pensare e non solo il modo di comportarmi (non sono la stessa cosa)?

Cambierà le mie scelte politiche? L’etica delle mie scelte quotidiane? Il mio modo di educare i miei figli?

@RIPRODUZIONE RISERVATA

Articolo 1 di 4