ethics by design

Etica e trattamento dati: così si sconfigge la dittatura dell’algoritmo

Se l’etica è declinabile come “rispetto dell’essere umano” in tutte le forme e in tutti gli ambiti, ciò vale anche come “rispetto dei suoi dati personali”. Chi ha delle responsabilità nei confronti delle persone deve perciò garantire la coesistenza tra progresso e tutele. Vediamo come

13 Gen 2020
Rocco Panetta

avvocato, managing partner di Panetta & Associati, esperto di Internet e Privacy, Country Leader per l’Italia di IAPP International Association of Privacy Professionals


“Può il diritto, la regola giuridica, invadere i mondi vitali, impadronirsi della nuda vita, pretendere anzi che il mondo debba ‘evadere dalla vita’?”. Questo si chiedeva, tra le tante altre cose, Stefano Rodotà ne “La vita e le regole”, mirabile saggio edito nell’ormai lontano 2006. Eppure, oggi, tali interrogativi persistono, evolvendosi a tal punto da offrire una nuova prospettiva che vede non più il solo diritto al centro dell’attenzione del giurista e del legislatore, ma anche l’etica.

Per questo vorrei iniziare questo 2020 parlando di etica e, solo subordinatamente, di diritto e cominciare questa mia riflessione evidenziando la vicinanza ideale tra etica e protezione dei dati: non a caso, la prima è stata inserita dall’European Data Protection Board (EDPB) tra gli elementi chiave della DPbDD, nella recente versione in consultazione pubblica delle linee guida sulla Data Protection by Design e by Default[1].

Il Board indica quale “etica” la valutazione, da parte del titolare del trattamento, dell’impatto complessivo che i trattamenti dei dati personali possono avere sui diritti e sulla dignità degli interessati.

Etica e algoritmi

L’etica proviene da lontano. Dal greco “Êthos” che significa “costume”, “comportamento”, ma anche “consuetudine”, vale a dire l’insieme dei principi che permettono all’essere umano di saper distinguere il bene dal male in un determinato momento spazio-temporale. Una bussola dell’umanità che prescinde dal diritto positivo, ma spesso lo anticipa, con radici profonde nel sentire comune ma ancor di più nella stessa natura umana.

L’etica si trasforma in codice per imprimere, nero su bianco, ciò che è giusto e ciò che è sbagliato in un determinato luogo ed in un determinato lasso temporale per una comunità. Ed è di nuovo l’etica che, passato il momento, riprende a fare pressione sulla società, attraverso l’opinione pubblica, i liberi pensatori, le università e poi il legislatore e le Corti, per imprimere una svolta alle norme esistenti che regolano lo stare insieme, per giungere alla scrittura e alla approvazione di nuove regole, e cosi via in un continuo ciclo di innovazione, consolidamento e nuova trasformazione.

Se tale è il destino della legge, alla mercé dell’etica, allora si potrebbe pensare di infondere lo spirito etico anche nei codici di programmazione che animano le nuove tecnologie, che altro non sono se non regole matematiche e codici di comportamento informatico, sebbene legati al funzionamento di macchine e non già (per ora) alla natura umana.

Ed ecco, quindi, il nuovo interrogativo: può l’algoritmo, la regola della programmazione tecnologica, invadere il nuovo mondo, impadronirsi dell’innovazione, pretendere anzi che la tecnologia debba ‘evadere dall’etica’?

Qualcuno potrebbe affermare che noi tutti – nessuno escluso – siamo cibo, o forse carburante, per la tecnologia del nostro tempo. I nostri dati personali non sono solo informazioni utili ad orientare l’offerta del mercato o a predire i comportamenti delle masse, attraverso metodi statistici e tecniche di profilazione predittiva. Questi sono per le nuove tecnologie ciò che per noi erano e sono i libri di scuola. Nozioni, informazioni e immagini da cui imparare a riconoscere il mondo che ci circonda, imparare a parlare, leggere, scrivere e a far di conto.

L’Intelligenza Artificiale, perciò, altro non è che un cervello elettronico che apprende – per questo è più corretto parlare di machine learning piuttosto che di artificial intelligence per meglio descrivere il fenomeno che ci sta travolgendo in questi anni – un cervello, però, a cui non è stato affiancato alcun meccanismo idoneo a suggerire all’unità centrale ciò che è giusto e ciò che non lo è.

Gdpr e sviluppo delle nuove tecnologie

Per tracciare una linea guida che aiuti i programmatori della nostra società, rectius i giuristi e legislatori da un lato, e gli scienziati e gli informatici dall’altro lato, a sottoporre le norme di legge e gli algoritmi di programmazione ad uno screening etico preventivo, risulta ineludibile partire dalla centralità della disciplina sulla protezione dei dati personali, (che reca in sé anche, ma non solo, il famoso GDPR) cogliendo il senso che la nuova regolamentazione ha avuto e avrà sullo sviluppo delle nuove tecnologie.

Se dall’uso dei dati e dalla sua analisi il machine learning impara, allora occorrerà introdurre un controllo etico continuo ogni qualvolta un trattamento di dati personali venga attuato, per rendere etico e dunque rispettoso dell’umano il comportamento, l’ethos della macchina.

In tal modo, attraverso il doppio strumento della cosiddetta privacy by design, di cui all’art. 25 del GDPR, in sede di programmazione, da un lato, ed il controllo attivo dell’individuo in presenza di trattamenti automatizzati di dati, di cui all’art. 22 del GDPR, dall’altro, offriremo all’uomo e alle macchine la chiave etica per programmare un futuro insieme.

In capo ad ognuno vi è il diritto a non vedere i propri dati personali offerti in pasto a puri algoritmi. Eppure, nell’articolo 22 del GDPR vi è qualcosa in più che potrebbe sfuggire: il richiamo all’etica. Da una parte la protezione da decisioni basate “unicamente” su trattamenti automatizzati, dall’altra la previsione dell’intervento umano quale argine alla deriva che da questi potrebbe generarsi. Trattamenti di dati effettuati sì con mezzi automatizzati ma sempre con lo sguardo e la guida dell’uomo e la previsione dell’intervento di quest’ultimo quale correttivo, palesano la volontà del legislatore europeo di difendere l’umanità e di porla al centro del sistema.

Anche leggendo una recente presa di posizione pubblica del Ministro dell’Innovazione Tecnologica e della Digitalizzazione, Paola Pisano, sul tema della continua rincorsa tra scienza, tecnologia e diritto, mi pare che vengano colti proprio tali spunti programmatici, rielaborati ed offerti alla pubblica opinione, come strategia guida dell’azione del ministero e del Governo nei prossimi mesi ed anni, seppure non si scorga un palese riferimento alle esistenti norme del GDPR.

L’etica al centro (anche) della ricerca

L’importanza della protezione dei dati, in tal senso, è invece reclamata da più parti, in tutto il mondo e, in particolare, dalle istituzioni che fungono da propulsore di tale progresso, proprio al fine di proteggere l’umanità da ciò che essa stessa ha costruito e dall’altra per continuare a costruire il futuro attraverso tecnologie a forte componente antropocentrica ed umanistica.

Per portare un caso concreto, a livello di istituzioni comunitarie, l’Agenzia Esecutiva del Consiglio Europeo della Ricerca (ERCEA), cioè l’agenzia europea che gestisce i programmi dell’UE sulla ricerca, di cui mi onoro di far parte come Ethic Expert, ci offre uno tra gli esempi più forti in tal senso: i programmi di ricerca in cerca di finanziamenti (ad esempio in seno ai noti programmi H2020), per poter essere considerati meritevoli e ottenere la relativa luce verde, devono presentare profili credibili e sostenibili nella gestione e protezione dei dati personali trattati nell’ambito di riferimento, in coerenza con il GDPR e la giurisprudenza delle Autorità Garanti nazionali e comunitarie. Una conditio sine qua non che rende chiara quale sia la direzione intrapresa.

Alla base dello screening etico a cui un gruppo di expert panel members vengono chiamati a pronunciarsi, troviamo il rispetto del divieto di fare ricerca volta all’eugenetica, il rispetto delle norme ambientali, il rispetto dei principi di non discriminazione, il divieto di dual use nella ricerca (che consiste nell’uso militare di una ricerca svolta in ambiti civili) e soprattutto il rispetto della disciplina sulla protezione dei dati personali.

Il sogno di Stefano Rodotà, tradottosi nella Carta dei diritti fondamentali dell’Unione Europea di Nizza, a cui il grande e compianto professore contribuì, assieme ad Elena Paciotti, come rappresentanti italiani a Bruxelles, di vedere la protezione dei dati personali annoverata tra i diritti fondamentali ed in tal modo elevata a regola etica, si è avverato.

Il compianto Giovanni Buttarelli, nel 2016[2], poneva a sua volta l’attenzione su quesiti – da lui stesso definiti retorici – sull’etica nel mondo digitale. In particolare, sottolineava come le decisioni assunte da istituzioni pubbliche e da privati fossero basate prevalentemente su ciò che è misurabile ed interpretabile grazie alla tecnologia. Ma l’imprevedibilità della natura umana rende incompatibile un costante e onnipresente calcolo delle scelte, delle preferenze e, soprattutto, delle nostre caratteristiche. “L’efficienza associata alla tecnologia dovrebbe prevalere sull’equità, la dignità e il bene comune?”.

La normativa europea sulla protezione dei dati, tuttavia, cerca di indirizzarci verso una possibile soluzione. Non può esservi progetto che non tenga conto della protezione dei dati sin dal suo concepimento e che non la consideri quale proprio pilastro portante. Ecco quindi l’importanza della Data Protection nei progetti di ricerca ed ecco perché l’Intelligenza Artificiale e la robotica non possono non fare i conti con essa e, quindi, con l’etica.

IA e robotica a supporto dell’uomo

Oggi, lo sviluppo sociale ed economico non può essere considerato se non in combinazione con quello tecnologico il quale, tuttavia, ha un ruolo strumentale rispetto ai primi due. La strumentalità richiede, dunque, che l’IA e la robotica siano di supporto all’essere umano, allontanando lo spettro di una sua totale sostituzione nei diversi ruoli decisionali e settori produttivi.

Lo screening delle candidature per una posizione aperta non può essere divorato dal tritacarne dell’algoritmo, né tantomeno la disponibilità del lavoro dovrebbe subire una flessione a causa della sostituzione della tecnologia all’impegno umano. Dovrebbe essere il contrario. Lavorare meno, lavorare meglio ed essere più produttivi. Sembra impossibile, eppure le nuove tecnologie dovrebbero contribuire a produrre questo effetto. Per far sì che ciò accada, tuttavia, è fondamentale l’etica nella loro programmazione e nel loro utilizzo.

Parallelamente alla sempre più diffusa presenza di personal device, vi è la diffusione di app che raccolgono dati personali in modo massivo e per finalità, a volte, totalmente distanti – noi avvocati ameremmo dire “inconferenti” – rispetto a quelle palesate agli utenti. Alcune di queste sono state di uso comune nel corso degli ultimi tempi, finite alla ribalta come tormentoni stagionali trasformatesi in una breccia nella sfera privata di milioni di individui ignari e tratti in inganno. Ciò vale, ad esempio, per quei tool che offrono strumenti di photo editing, nascondendo dietro la propria maschera un potente raccoglitore di dati biometrici utili per il riconoscimento facciale. Da questo esempio è possibile trarre un ulteriore ragionamento in relazione al tema dell’Etica nelle nuove tecnologie: il criterio etico non travolge solo il contenuto ma anche il metodo con il quale questo viene generato. Infatti, lo studio dei dati biometrici volto a far progredire le tecniche del riconoscimento dei volti non è censurabile, a priori, ma lo può diventare se basato su un metodo lesivo dei diritti e delle libertà degli individui, che trova nell’inganno e nella mistificazione un utile e potente strumento.

Ecco dunque la necessità di preservare e garantire una coesistenza tra il progresso e la tutela degli individui, attraverso un’azione eticamente orientata da parte di chi ha delle responsabilità nei confronti delle persone.

Etica e trattamento dati personali

A tal riguardo, molto importante risulta l’inserimento dell’Etica tra gli elementi chiave della DPbDD, ad opera dell’European Data Protection Board (EDPB), nella recente versione in consultazione pubblica delle linee guida sulla Data Protection by Design e by Default[3]. Il Board indica quale “etica” la valutazione, da parte del titolare del trattamento, dell’impatto complessivo che i trattamenti dei dati personali possono avere sui diritti e sulla dignità degli interessati.

Anche l’European Data Protection Supervisor ha di recente rilasciato una preliminary opinion sui rapporti tra ricerca scientifica e uso dei dati, richiamando la necessità di un “ethical framework” per far si che il GDPR non venga vissuto come un ostacolo ma come una opportunità dalla comunità scientifica.

In definitiva, se l’etica è declinabile quale “rispetto dell’essere umano” in tutte le sue forme e in tutti i suoi ambiti, allora ciò vale anche come “rispetto dei suoi dati personali”, in tutte le loro forme e in tutti gli ambiti di utilizzo. Si giunge, quindi, ad una ideale vicinanza tra etica e Protezione dei Dati, creando un nuovo Giano bifronte: da un lato il volto della DPbDD e dall’altro quello dell’Ethics-by-Design.

___________________________________________________________________

  1. European Data Protection Board, Guidelines 4/2019 on Article 25, Data Protection by Design and by Default (version for public consultation), adopted on 13 November 2019.
  2. Giovanni Buttarelli, “Big Brother, Big Data, Ethics”, European Data Protection Supervisor (blog), https://edps.europa.eu/press-publications/press-news/blog/big-brother-big-data-and-ethics_en
  3. European Data Protection Board, Guidelines 4/2019 on Article 25, Data Protection by Design and by Default (version for public consultation), adopted on 13 November 2019.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4