Sorveglianza di massa con l'IA, serve approccio rigoroso: i paletti del Parlamento Ue - Agenda Digitale

intelligenza artificiale

Sorveglianza di massa con l’IA, serve approccio rigoroso: i paletti del Parlamento Ue

Ora più che mai è necessario e fondamentale un approccio rigoroso all’identificazione biometrica remota che presenta altresì rischi estremamente elevati di pregiudizi e discriminazioni nonché di intrusione profonda e non democratica nella vita privata degli individui. Bisogna evitare il rischio di sorveglianza di massa

22 Lug 2021
Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant

La Commissione per le Libertà Civili, la Giustizia e gli Affari Interni (LIBE) del Parlamento europeo ha redatto una bozza sull’uso della sorveglianza basata sull’intelligenza artificiale, evidenziando la necessità di una supervisione umana e di garanzie sufficienti. Si tratta, di fatto, di impedire l’uso di dati biometrici nei luoghi pubblici e l’uso da parte delle forze dell’ordine di database privati di riconoscimento facciale. Tale richiesta si fonda sul fatto che le tecnologie basate sull’intelligenza artificiale sono portatrici potenziali di pregiudizi e discriminazioni e, pertanto, è quanto mai urgente e necessario intervenire affinché Il progresso tecnico non si realizzi a scapito dei diritti fondamentali delle persone.

Le nuove frontiere della sorveglianza, dall’intelligence al campanello di casa: le tutele che servono

Utilizzo dei dati biometrici da parte delle forze dell’Ordine: il punto sulle garanzie

L’uso dei sistemi di intelligenza artificiale, da parte delle forze di polizia, può potenzialmente generare forme di sorveglianza di massa che violano i principi fondamentali dell’UE in materia di necessità e proporzionalità. La Commissione LIBE, in quest’ottica, ha redatto una bozza di risoluzione dedicata alla regolamentazione, proponendosi la tutela dei diritti dei cittadini che, se non garantita, implicherà la reintroduzione di tutele legali contro l’utilizzo della intelligenza artificiale nelle applicazioni di sorveglianza di massa.

WHITEPAPER
Quali sono le strategie da seguire per difendersi contro gli attacchi di phishing?
Sicurezza
Cybersecurity

Parzialità e discriminazione degli algoritmi

Nella bozza di risoluzione si pone in evidenza il potenziale di parzialità e di discriminazione degli algoritmi su cui si basano i sistemi di intelligenza artificiale e di machine learning. È doveroso ricordare che i risultati di un sistema dipendono dai dati utilizzati (i cosiddetti training dataset) che possono generare esiti distorti da parte dell’algoritmo. Attualmente, i sistemi di identificazione basati sull’intelligenza artificiale sono imprecisi e possono identificare erroneamente gruppi etnici minoritari, persone appartenenti ai gruppi LGBT, anziani e donne, ecc. Ne consegue che le previsioni basate sull’intelligenza artificiale possono amplificare ulteriormente una discriminazione esistente.

Vietare il riconoscimento facciale in luoghi pubblici, il parere EDPB e EDPS

In sede di Consiglio europeo è stato ribadito che la polizia e la magistratura non dovrebbero utilizzare le applicazioni dell’intelligenza artificiale per prevedere comportamenti basati su azioni passate o su caratteristiche di un gruppo di appartenenza. Inoltre, la Commissione LIBE ha riscontrato che, per quanto riguarda il riconoscimento facciale, sistemi diversi hanno implicazioni diverse. Pertanto, nella bozza della nuova regolamentazione si fa riferimento ad un divieto permanente all’uso di dettagli biometrici come andatura, impronte digitali, DNA o voce per riconoscere le persone in spazi accessibili al pubblico. Ovvero, si vuole vietare alle forze dell’ordine di utilizzare database privati di riconoscimento facciale, come il già utilizzato Clearview AI. Inoltre, la Commissione LIBE chiede anche il divieto di assegnare punteggi ai cittadini in base all’intelligenza artificiale, dal momento che violerebbe i principi della fondamentale dignità umana, ribadendo, altresì, che il riconoscimento facciale non dovrebbe essere utilizzato per l’identificazione fino a quando tali sistemi non rispettano i diritti fondamentali.

Dati biometrici e controllo delle frontiere

Particolare attenzione è stata prestata all’uso dei dati biometrici per l’identificazione a distanza e, in particolare, sui cancelli di controllo delle frontiere basati sul riconoscimento automatizzato e sul progetto iBorderCtrl (una sorta di “Macchina della verità” che si basa su sistema intelligente di rilevamento della menzogna per l’ingresso dei viaggiatori nell’UE). I Membri del Consiglio Europeo ritengono che tali forme di controllo dovrebbero essere sospese e che la Commissione LIBE debba avviare procedure di infrazione contro quegli Stati membri che utilizzano polizia predittiva, sorveglianza di massa tramite dati biometrici, considerando il fatto che tali applicazioni di intelligenza artificiale siano particolarmente preoccupanti e andrebbero svolte solo ed esclusivamente quando saranno conformi ai diritti fondamentali.

Per quanto riguarda il Garante della Privacy del nostro Paese, secondo quanto ribadito da Agostino Ghiglia[1] – Componente del Garante per la protezione dei dati personali – l’utilizzo di tecnologie di riconoscimento facciale per finalità di prevenzione e repressione di reati è oggetto di grande attenzione, come indicano le linee guida del Consiglio d’Europa, che segnalano l’intrusività che esso comporta per il diritto alla vita privata e alla dignità delle persone, unitamente al rischio di ripercussioni negative su altri diritti umani e sulle libertà fondamentali. Il Garante nello svolgimento delle proprie mansioni tenta di tutelare i vari interessi legati alla libertà oltre ad affrontare il bilanciamento delle varie forme libertà. Inoltre, diventa fondamentale saper gestire la conservazione dei dati, la loro sicura rintracciabilità e a quale utilizzo sono destinati. I dati vanno protetti, così come previsto dal GDPR. Oramai, come afferma Ghiglia, considerando che ogni persona è “un dato che cammina”, i dati a noi associati vanno tutelati come forma primaria di libertà bilanciata con le esigenze di sicurezza, che devono essere chiare, accertate, accertabili e definite solo da chi ha l’autorità per farlo, al fine di ovviare a forme di sorveglianza di massa.

IA, parola d’ordine: fiducia

Come ha affermato Ursula von der Leyen – la Presidente della Commissione Europea – l’intelligenza artificiale dev’essere “etica” e “i cittadini meritano tecnologie di cui possono fidarsi”. Tutto deve ruotare intorno alla fiducia; pertanto, è quanto mai auspicabile che l’uso negli spazi pubblici dei sistemi di identificazione biometrica – come il riconoscimento facciale – sia “vietato in linea di principio” come ribadito da Margrethe Vestager, vicepresidente della Comunità Europea.

Tutti i limiti del (buon) regolamento UE su intelligenza artificiale

La bozza presentata prevede deroghe che sono state oggetto di critiche e costituiranno le basi per un’accesa dialettica da parte di eurodeputati e lobbisti nel corso dell’iter legislativo di approvazione. I divieti sono, infatti, aggirabili per la salvaguardia della sicurezza pubblica, ovvero, la scusa con cui viene giustificata la mass surveillance. E, a tal proposito, il giudizio del Garante europeo per la protezione dei dati personali è stato tranchant nel sostenere che i dispositivi di riconoscimento facciale dovrebbero essere vietati in tutta Europa per la loro intrinseca capacità di “intrufolarsi in maniera invasiva e non democratica” nella vita delle persone, a sottolineare il proprio rammarico del mancato divieto del riconoscimento facciale negli spazi pubblici.

Ne consegue che, ora più che mai, è necessario e fondamentale un approccio rigoroso all’identificazione biometrica remota – in cui l’intelligenza artificiale può contribuire a sviluppi senza precedenti e presenta altresì rischi estremamente elevati di intrusione profonda e non democratica nella vita privata degli individui – senza dimenticare i sistemi di intelligenza artificiale che creano punteggi di credito sociale, ovvero, sistemi che giudicano l’affidabilità di qualcuno in base al comportamento sociale o ai tratti della personalità.

La creazione dello European Artificial Intelligence Board

In quest’ottica è prevista la creazione dello European Artificial Intelligence Board, che sarà composto da rappresentanti degli organismi di controllo nazionali e dal Garante europeo della protezione dei dati e presieduto dalla Commissione Europea. Come lo European Data Protection Board, esso avrà il compito importante di supportare gli Stati membri della Comunità Europea nell’interpretazione e nell’applicazione uniforme del nuovo regime normativo, tenuto conto che la Commissione Europea ha optato per un regolamento (piuttosto che una direttiva), confermando così la necessità di un regime giuridico coerente. Inoltre, lo European Artificial Intelligence Board costituirà un elemento in più di coesione europea.

La regolamentazione europea che si prospetta, tuttavia, almeno nella bozza di circolazione, sta evidenziando qualche problema, come denunciato dall’associazione no profit Reclaim Your Face, la quale lamenta:

  • formulazione spesso vaga, presenza di alcuni elementi poco precisi che lasciano ampio spazio di interpretazione e discrezione e che rimandano a molti problemi già esistenti nelle leggi sulla protezione dei dati personali che hanno implicato la richiesta di un divieto esplicito;
  • divieto applicato solo alle forze dell’ordine e che, di fatto, non proibisce usi altrettanto invasivi e pericolosi (tali da costituire comunque una sorveglianza biometrica di massa) da parte di altre autorità governative e di aziende private;
  • eccessive eccezioni, definite in modo troppo ampio, tale da poterne seriamente minare lo scopo, lasciando, di fatto, alla polizia, ampio spazio per una sorveglianza biometrica di massa continuativa dello spazio;
  • divieto solo all’identificazione in “tempo reale”, a fini di sicurezza, che comporta la possibilità di identificare persone dopo che le immagini sono state registrate (il riferimento nel regolamento a “post”, quindi dopo che un evento è avvenuto);
  • la bozza non accenna al divieto anche di altre pratiche di identificazione biometrica come quella – spesso considerata di carattere pseudo-scientifico e altamente discriminatoria – della “categorizzazione” biometrica.

Conclusioni

Come afferma nella prefazione al libro “Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà” (ed. da Mondadori Università) il professor Francesco Pizzetti – che ha ricoperto in passato la posizione di presidente dell’Autorità Garante per la Privacy – dobbiamo essere consapevoli in termini di intelligenza artificiale dell’impatto che questa tecnologia ha sulle nostre vite, sui nostri diritti e libertà e, altresì, prendere consapevolezza delle “dimensioni dei cambiamenti in atto e di quelli oggi già prevedibili, dei problemi che pongono, delle prime ancora incerte e non esaustive risposte che il dibattito appena cominciato sta cercando di offrire… La sfida per gli esseri umani è di restare padroni del proprio futuro, evitando in ogni modo che il futuro dell’umanità sia controllato, condizionato e, in un certo senso, persino determinato da ciò che oggi ancora molto confusamente chiamiamo intelligenza artificiale, perché non sappiamo ancora capire davvero, e fino in fondo, che cosa siano le nuove tecnologie e come gli esseri umani possano convivere con ciò che essi stessi stanno ogni giorno sviluppando.”

Note

  1. Intervista rilasciata a Privacy Italia lo scorso 4 giugno 2021

@RIPRODUZIONE RISERVATA

Articolo 1 di 2