tech e coscienza etica

Il riconoscimento facciale e l’eredità di Giulio Giorello: la dignità umana resti sempre al centro

Il riconoscimento facciale implica non trascurabili rischi di demolizione della dignità umana. È allora necessario creare un circolo virtuoso etico che permetta di garantire il rispetto dell’essere umano in quanto tale in ogni momento Ed è qui che occorre allora affidarsi all’eredità di pensatori come Giulio Giorello

06 Lug 2020
Rocco Panetta

avvocato, managing partner di Panetta & Associati, esperto di Internet e Privacy, Country Leader per l’Italia di IAPP International Association of Privacy Professionals

Giulio Giorello

Andrà tutto bene! Questa la frase piena di speranza e di fiducia nelle umane capacità che ha accompagnato buona parte dell’inverno appena trascorso e tutta la primavera del 2020. L’emergenza Coronavirus non ha fatto altro che (di)mostrarci con brutale schiettezza che la speranza aiuta a vivere meglio la costrizione, ma spesso si infrange contro una più crudele realtà. Ci troviamo così e sempre più spesso a camminare nel buio, accompagnati dalla speranza che qualcuno ci illumini la via.

Giulio Giorello, il grande filosofo della scienza che ci ha lasciati qualche giorno fa, era, in tal senso, un vero e proprio faro. Ci ha insegnato molto. Non è facile descriverne l’illustre personalità, tanto meno abbozzarne un ricordo, un tentativo che finirebbe in ogni caso per peccare di incompletezza. C’è chi in questi giorni lo ha definito “filosofo della libertà”, chi “il libero”, chi ancora “filosofo tra scienza e Topolino” e chi anche “sorridente nemico di tutti i fanatismi”. È un mosaico inevitabilmente parziale, manca uno spazio sufficiente a raccogliere tutte le tessere del suo estro. Matematico, filosofo della scienza, come detto, professore e letterato, maestro di spirito critico e di impareggiabile umanità. Ci mancheranno le sue lezioni, le citazioni, il suo eclettismo. La Rete ne custodirà le testimonianze, le biblioteche di tutto il mondo l’incessante e fertile ragionare. A tutti noi invece il compito e, soprattutto, la responsabilità di mantenerne vivo il pensiero. Perché abbiamo perso una luce, l’ennesima dopo Stefano Rodotà – di cui ricorre in questi giorni il terzo anniversario dalla scomparsa – e Giovanni Buttarelli, in un tempo che come non mai richiede riflessioni di ampio respiro, che pongano al centro la dimensione etica e valoriale dell’esperienza umana.

In questo senso, Giorello ha dispensato saggezza fino alla fine, non mancando di aiutare tutti noi a orientarci in questo complesso presente. Basti pensare ad una delle ultime interviste con protagoniste le mascherine che ci privano di identità e umanità, o a quell’altra recente conversazione nella quale ha espresso, in poche e semplici parole, la forza dirompente del suo insegnamento universale, senza confini: «[…] Tutto quello che ha l’aria di un’intrusione nella privacy di un individuo lo trovo ripugnante. È una questione di principio ma anche di sensibilità personale, di abitudine a trattare le persone come soggetti liberi e responsabili». La domanda riguardava la tanto discussa app “Immuni”, i riferimenti alla libertà e alla responsabilità di ogni individuo sono la cifra di un pensiero che deve continuare a guidarci.

E che sia cruciale rifarsi agli insegnamenti di questi indiscussi maestri lo dimostra ciò che sta accadendo nel mondo in queste settimane. Le proteste del movimento “#Blacklivesmatter” continuano a diffondersi al di là di ogni confine, facendosi portatrici di un vento di cambiamento che si trova, purtroppo, ancora oggi costretto a dover soffiare con forza per abbattere gli odiosi muri della discriminazione.

Facial recognition, la presa di posizione dei big del tech

Qualcosa sembra stia finalmente cambiando, se non altro nel mondo tecnologico e in particolare per quel che concerne le tecniche di facial recognition. Sono difatti ormai note le recentissime prese di posizione di alcune tra le big tech del settore che hanno deciso di cambiare le proprie politiche in merito ad una tecnologia che da anni è oggetto di acceso dibattito circa le possibili esternalità negative derivanti dal suo impiego.

A muoversi per prima è stata IBM, con una lettera del CEO Arvind Krishna inviata al Congresso Usa e nella quale la società ha dichiarato che non offrirà più software di riconoscimento facciale, sancendo altresì la propria ferma opposizione a ogni uso distorto o contrario di qualsiasi tecnologia ai principi di fiducia e trasparenza («IBM no longer offers general purpose IBM facial recognition or analysis software. IBM firmly opposes and will not condone uses of any technology, including facial recognition technology offered by other vendors, for mass surveillance, racial profiling, violations of basic human rights and freedoms, or any purpose which is not consistent with our values and Principles of Trust and Transparency. We believe now is the time to begin a national dialogue on whether and how facial recognition technology should be employed by domestic law enforcement agencies»).

È stata subito dopo la volta di Amazon, che ha annunciato una moratoria della durata di un anno all’impiego delle proprie tecnologie di facial recognition da parte degli organi di polizia, auspicando interventi normativi volti a regolamentarne più severamente l’uso etico («We’re implementing a one-year moratorium on police use of Amazon’s facial recognition technology […] We’ve advocated that governments should put in place stronger regulations to govern the ethical use of facial recognition technology»).

Anche Microsoft, con le parole del Presidente Brad Smith al Washington Post, ha annunciato lo stop alle vendite ai dipartimenti di polizia USA delle tecnologie di riconoscimento facciale fino a quando non ci sarà una legge nazionale fondata sui diritti umani che le disciplini («We will not sell facial-recognition technology to police departments in the United States until we have a national law in place, grounded in human rights, that will govern this technology»).

Gli interventi dei Garanti sui temi della facial recognition

Che questi software high tech fossero già sotto la lente di ingrandimento lo confermano sia quelle ricerche che ne hanno dimostrano i possibili effetti discriminatori (vedasi, ad esempio, lo studio realizzato dal National Institute of Standards and Technology), sia la scrupolosa attenzione che le autorità privacy, ormai da tempo, stanno dedicando al tema.

Se infatti lo European Data Protection Board ha da poco espresso il proprio punto di vista sui servizi di facial recognition sviluppati da Clearview AI (e il riconoscimento facciale è stato considerato dall’EDPB anche nelle Guidelines 3/2019 on processing of personal data through video devices, adottate lo scorso 29 gennaio), anche a livello di singoli Stati membri non sono mancati interventi in materia.

Senza scomodare il provvedimento dell’Autorità svedese sull’impiego del riconoscimento facciale in una scuola, la nostra Autorità Garante per la protezione dei dati personali è, come sempre, in prima linea. È ad esempio intervenuta all’inizio di quest’anno con riferimento ai sistemi di videosorveglianza con funzioni di riconoscimento facciale del Comune di Como. E non è ovviamente la prima volta che il nostro Garante è stato chiamato a pronunciarsi su queste innovative soluzioni tecnologiche e sui relativi trattamenti di dati personali. Nel 2018, solo per citare qualche altro esempio, è stata la volta di SARI Enterprise, il Sistema Automatico di Riconoscimento Immagini predisposto dal Ministero dell’Interno e adottato dalle Forze di Polizia; nello stesso anno ci fu anche la verifica preliminare sul sistema di rilevazione delle immagini presso l’Aeroporto di Fiumicino, oltre al provvedimento sul c.d. digital signage a tutti ormai noto. Il costante impegno della nostra Autorità di controllo è ancora più risalente e trova nel Provvedimento generale prescrittivo in tema di biometria del 12 novembre 2014, e nelle Linee Guida di cui al suo all’Allegato A, un cruciale caposaldo della materia.

Lo stesso Presidente del Garante, Antonello Soro, non ha mancato, il 23 giugno scorso, in occasione della presentazione alla Camera dei deputati della Relazione Annuale dell’Autorità, di soffermarsi a lungo sulle allarmanti criticità che le nuove tecnologie, incluse quelle biometriche, possono recare, a nulla servendo uno sciatto ricorso al consenso dell’individuo, senza ben altre garanzie, come richiesto dal GDPR.

Conclusioni

Il riconoscimento facciale, come si evince anche dalla assolutamente non esaustiva rassegna di provvedimenti sopra citati, porta con sé grandi potenzialità in molteplici contesti. Si tratta, tuttavia, di una tecnologia che per sua natura è inevitabilmente destinata a incidere sulla sfera più profondamente personale degli individui. Le scelte prese da IBM, Amazon e Microsoft sono di certo da valutare positivamente – anche se il parterre di sviluppatori e fornitori di software di facial recognition non si esaurisce in queste tre società – e dimostrano con una certa evidenza che sussistono tuttora dei punti interrogativi che richiedono di essere risolti prima della diffusione capillare di tali tecnologie.

Ciò si traduce, anzitutto, nella necessità di accompagnare agli sviluppi di laboratorio una riflessione impegnata e impegnativa volta a garantire il rispetto degli imperativi principi che derivano dalla normativa sulla protezione dei dati personali. Occorrerà, in particolare, muoversi tenendo fortemente in considerazione l’importanza di un principio come quello di proporzionalità, che in questo comparto applicativo si dimostra capace di esprimere forse la sua più alta capacità di tutela della riservatezza e della dignità delle persone fisiche. La proporzionalità è in grado di assicurare il godimento dei benefici di una tecnologia dirompente comprimendone e controllandone al tempo stesso i rischi, fungendo altresì da irrinunciabile argine nei confronti di quelle pericolose forme di tolleranza alle violazioni della propria riservatezza in cambio di una maggiore comodità.

A ciò deve aggiungersi il ruolo di primordine da riservarsi allo sviluppo di una dimensione e di una coscienza etica all’interno delle quali calare la progettazione, l’implementazione e il mantenimento delle soluzioni basate sul riconoscimento facciale.

Lo si è visto, questa tecnologia, per la sua capacità di farsi attore e mezzo di discriminazioni e stigmatizzazioni, porta con sé non trascurabili rischi di demolizione della dignità umana. Si rende allora necessario edificare un circolo virtuoso etico che permetta di garantire il rispetto dell’essere umano in quanto tale in ogni momento, a partire da quello di regolamentazione e fino all’applicazione concreta.

Non si tratta, chiaramente, di un’impresa di poco conto, soprattutto dal momento che ad essere richiesto è uno sforzo condiviso che coinvolga il piano etica in un ruolo di primissimo ordine. Ed è qui che occorre allora affidarsi all’eredità di pensatori come Giulio Giorello. Proprio da una delle sue tante lezioni emerge il punto di partenza e di arrivo del percorso verso soluzioni tecnologiche rispettose della dignità umana: «Il fondamento dell’etica è la pratica dell’etica, non c’è nessun bisogno di fondarla su qualcosa d’altro».

____________________________________________________________________________

L’autore intende ringraziare il Dottor Gabriele Franco, Junior Associate di Panetta & Associati, per le ricche citazioni e gli hyperlink offerti ai lettori in questo contributo.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4