CODICI E TECNOLOGIE

L’algoritmo è uguale per tutti? Avvocati e data scientist, è tempo di alleanza

Le tecnologie groundbreaking aprono nuovi scenari anche sul fronte giuridico. Che però, per rispettare i diritti fondamentali nell’era dell’Intelligenza artificiale, dovrà adeguarsi. Attuando per esempio una “rivoluzione matematica”. Ecco perché serve un patto fra mondo legale e tecnologico, che elabori un vision comune

17 Gen 2020
Juan Murillo Arias

Data Strategy Expert

Santiago Caravaca

Legal Designer e Senior IT Lawyer - Founder www.legalhumancentric.it


Ci siamo: l’era dell’Intelligenza artificiale è iniziata. E con lei, come all’epoca della Rivoluzione francese, sta partendo una nuova sfida giuridico-tecnologica sul campo dei diritti umani. Servono nuove basi, nuovi paradigmi in grado di far parlare con una sola voce esperti di digitale e professionisti della legge. Così da proteggere e rilanciare i valori sanciti dalle costituzioni democratiche. La soluzione è: matematica.

Immaginate un delfino che esce dal mare di Trieste. Vederlo muoversi lungo il Molo Audace, e poi dirigersi sull’autostrada A4 verso Venezia sarebbe possibile solo nella fantascienza. Sappiamo che l’acqua è un elemento fisico essenziale per la sopravvivenza del delfino. Avendo fatto questa introduzione ti chiedo: il Diritto potrebbe uscire dal territorio del linguaggio per tuffarsi nel territorio dei numeri? Sopravvivrebbe? O anche questa è una fantasia?

Ci sono molte domande che precedono l’analisi che seguirà e che abbiamo strutturato, insieme, in qualità di giurista ed esperto di dati. Per esempio: cosa significa uguaglianza in un contesto legale-algoritmico? C’è una funzione matematico-legale nel contesto dell’AI? Che cos’è l’uguaglianza formale e materiale all’interno dell’AI? La parola discriminare significa la stessa cosa dal punto di vista di un data scientist e da quello di un avvocato? Come inserire l’uguaglianza e la non discriminazione nel processo di AI e quali sfide comporta?

Le leggi sono algoritmi o gli algoritmi sono leggi?

Un algoritmo è una sequenza di regole che devono essere applicate seguendo un ordine preciso per risolvere un problema. Quindi, un articolo del codice civile potrebbe essere un algoritmo?

Articolo 1746 del codice civile italiano: Nell’esecuzione dell’incarico l’agente deve

  1. tutelare gli interessi del preponente e agire con lealtà e buona fede.
  2. Deve adempiere l’incarico affidatogli in conformità delle istruzioni ricevute
  3. Fornire al preponente le informazioni riguardanti le condizioni del mercato nella zona assegnatagli, e ogni altra informazione utile per valutare la convenienza dei singoli affari.
  4. È nullo ogni patto contrario

Come si può vedere l’articolo 1746 stabilisce una serie di regole, anche se è vero che l’ordine di esecuzione non è, almeno in questo caso, essenziale. Quindi gli algoritmi sono così diversi, da un punto di vista concettuale, da alcune leggi? O hanno qualcosa in comune?

In ogni caso, se le leggi possono condizionare diritti come l’uguaglianza, possiamo dire lo stesso degli algoritmi? Sono quindi leggi, anche dal punto di vista finalistico o dell’impatto che possono potenzialmente avere sulla nostra vita? Dal nostro punto di vista il risultato di un algoritmo deve sempre essere supportato da una o più leggi; è un modo in più per implementare la legge nella pratica e sempre più processi saranno eseguiti da algoritmi, quindi le loro decisioni dovranno sempre essere inquadrate all’interno di leggi il più possibile univoche. L’obiettivo è quello di garantire che gli algoritmi rispettino e applichino i diritti fondamentali. Cioè che non siano algoritmi anticostituzionali.

L’uguaglianza nel XXI secolo alla luce dell’AI

Interpretare l’uguaglianza alla luce dell’AI è una sfida. Lo è perché ci costringe a tradurre il linguaggio giuridico in linguaggio matematico e viceversa. Non è qualcosa di banale. È una mutazione culturale non priva di resistenza naturale. È già significativo che il GDPR usi le parole “probabilità” e “improbabile” 20 volte. È ovvio che per “probabilità” non si può intendere solo l’intuizione di un buon giurista, quando in realtà si tratta, stricto sensu, di matematica. Siamo obbligati a creare un linguaggio e metodologia comuni che sia i data scientist che gli avvocati possano comprendere.

Se le pari opportunità sono l’espressione di un diritto fondamentale indiscutibile – l’uguaglianza – la nostra identità e il servizio che riceviamo come cittadini e consumatori nell’era dei Big Data e della micro segmentazione sono condizionati da nuovi elementi: li alimentiamo con nuovi dati che ci differenziano dalle altre persone (vegani, hipster, geek, i nostri stessi geni) e ci rendono unici, speciali e diversi. Questa distinzione è sempre esistita, ma oggi è più evidente. Nonostante la condivisione della nostra uguaglianza teorica fin dall’inizio, che deriva dalla nostra condizione umana, la capacità di profilazione basata sui dati ci costringe, oggi, a reinterpretare la concezione napoleonica di uguaglianza giuridica per tutti i cittadini.

Pertanto, il primo passo è comprendere cosa sia l’uguaglianza materiale e formale dal punto di vista giuridico. Il secondo è analizzare come reinterpretare questi concetti alla luce dell’AI.

Sia la Costituzione spagnola che quella italiana si occupano di uguaglianza dal punto di vista materiale e formale. La Costituzione italiana del 1947 affronta l’uguaglianza formale nel primo comma dell’articolo 3. Si veda:

Cosa dice la Costituzione italiana

Primo: “Tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali”.

Secondo: “È compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l’eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese.

La Corte costituzionale italiana ha dichiarato che i principi di uguaglianza formale e materiale non sono antitetici, ma che l’uguaglianza materiale arricchisce il contenuto dell’uguaglianza formale[1]. Quindi, i principi di uguaglianza formale e di uguaglianza sostanziale o materiale non sono inconciliabili, ma interdipendenti. Così, il secondo paragrafo dell’articolo 3 serve come giustificazione per quei “presupposti legislativi che, apparentemente discriminatori nel confronto tra categorie o gruppi di cittadini, ripristinano in realtà condizioni di parità[2]“.

Cosa dice la Costituzione spagnola

La Costituzione spagnola del 1978 prevede una disposizione simile all’art. 3, secondo comma, della Costituzione italiana. Si tratta dell’articolo 9.2 della Costituzione, che, secondo l’interpretazione più comune, sancisce il principio di uguaglianza materiale, mentre l’articolo 14 della stessa Costituzione spagnola riconosce il principio di uguaglianza formale. Si veda:

WHITEPAPER
La guida per pianificare un Data Journey efficace
Big Data
Business Analytics

Articolo 14 Costituzione Spagnola “Gli spagnoli sono uguali di fronte alla legge e nessuna discriminazione può prevalere per motivi di nascita, razza, sesso, religione, opinione o qualsiasi altra circostanza personale o sociale”.

Articolo 9.2 Costituzione Spagnola: “Spetta alle autorità pubbliche promuovere condizioni in cui la libertà e l’uguaglianza degli individui e dei gruppi in cui sono integrati siano reali ed efficaci; rimuovere gli ostacoli che impediscano o ne ostacolino il loro pieno godimento e facilitare la partecipazione di tutti i cittadini alla vita politica, economica, culturale e sociale”.

La Corte costituzionale spagnola ha interpretato l’articolo 9.2 CE come un correttivo dell’uguaglianza formale dell’articolo 14 del testo costituzionale, sottolineando la necessità che il legislatore non tratti tutti gli individui allo stesso modo, ma sia in grado di trattare in modo diverso quelle situazioni che sono diverse nella vita reale[3].

L’uguaglianza secondo la Convenzione europea

Il principio generale di uguaglianza è riconosciuto anche nell’articolo 1 del Protocollo Addizionale n. 12 alla Convenzione europea per la salvaguardia dei diritti umani e delle libertà fondamentali. Inoltre, in questo testo si cristallizza anche il principio di uguaglianza materiale, in modo simile alle Costituzioni italiana e spagnola, come abbiamo visto. Il preambolo di tale protocollo stabilisce che:

“Gli Stati membri del Consiglio d’Europa, firmatari del presente Protocollo (…) riaffermano che il principio di non discriminazione non impedisce agli Stati contraenti di adottare misure per promuovere la piena ed effettiva uguaglianza, a condizione che tali misure siano giustificate da ragioni obiettive e ragionevoli.

Mentre l’articolo 1 dichiara: “Divieto generale di discriminazione: 1 L’esercizio di qualsiasi diritto riconosciuto dalla legge deve essere garantito senza alcuna discriminazione fondata su motivi quali il sesso, la razza, il colore, la lingua, la religione, le opinioni politiche o di qualsiasi altro tipo, l’origine nazionale o sociale, l’appartenenza a una minoranza nazionale, la ricchezza, la nascita o altre situazioni. 2 Nessuno può essere oggetto di discriminazione da parte di un’autorità pubblica, in particolare per uno dei motivi di cui al paragrafo 1.

Su “discriminare” si gioca tutta la partita

I data scientist devono affrontare due problemi principali quando sviluppano algoritmi volti ad automatizzare i processi che hanno un impatto sulla vita delle persone (accesso ai diritti fondamentali come l’istruzione, l’occupazione, l’assistenza sanitaria o i servizi finanziari) per evitare di andare contro l’etica o il Diritto.

  • Comprendere ciò che è legale o illegale e trovare una definizione.
  • Implimentare tale criterio nei loro modelli per evitare discriminazioni ingiuste o illegali.

Per risolvere il primo punto sono necessarie collaborazione, comunicazione e comprensione tra data scientist e avvocati. Ad esempio, è importante utilizzare un linguaggio comune affinché entrambi i professionisti inizino ad essere consapevoli delle sfumature e dei significati che danno agli stessi termini. Ad esempio, il termine “discriminare” significa la stessa cosa che da un punto di vista legale e da quello di un data scientist?

Nel dizionario Treccani discriminare significa: “separazione”, da discernĕre “separare”] …[4]”. Nel dizionario della Reale Accademia Spagnola la prima accezione di discriminare è: “selezionare escludendo”[5].

Da un altro lato, nel contesto giuridico, la discriminazione ha connotazioni negative, in quanto normalmente è associata a un trattamento ingiusto o non uguale di un individuo (o di un gruppo) in base a determinate caratteristiche o motivi quali la religione, la politica, il sesso, l’età, le condizioni fisiche, ecc.

Nella vita di tutti i giorni, quando scegliamo tra le varie opzioni, discriminiamo in quasi tutte le decisioni che prendiamo. Qualsiasi operazione di segmentazione di un piano di marketing discrimina scegliendo un target e discriminandone un altro (cioè non scegliendo). È nell’essenza di molti modelli di business discriminare in modo lecito: separare un insieme di clienti da altri sulla base di molti fattori a seconda dello scopo del servizio da “parametrizzare”. E questo è il significato che più si avvicina a quello usato dai data scientist. Ci sono dati o variabili che possono essere utilizzate come “discriminators”, senza che questo abbia sempre una connotazione negativa. E questo, come vedremo, può portare a un risultato lecito o illecito.

Le variabili usate come “discriminatori”

Date due persone con n attributi, P1(x1, x2, …xn) y P2(x’1, x’2, …x’n), se tutti questi attributi corrispondono, tranne uno, xm≠x’m, e il sistema decisionale fornisce un output diverso per P1 rispetto a quello per P2 , allora la variabile xm sta agendo come “discriminante”. Ad esempio: due persone con lo stesso stipendio, lo stesso livello di istruzione, che lavorano nello stesso settore, lo stesso capitale e la stessa liquidità, ma con due diversi tipi di contratto di lavoro, fanno richiesta di un credito possono ricevere risposte diverse. La persona con un contratto a tempo determinato potrebbe avere un rischio di inadempienza maggiore rispetto alla persona con un contratto a tempo indeterminato, quindi le potrebbe venire offerto un prestito con un tasso di interesse più alto.

La variabile xm=work_contract_type agirebbe come discriminatore, ma questa discriminazione è perfettamente legittima. Se scegliamo un esempio diverso: due persone con la stessa laurea e gli stessi voti, le stesse competenze linguistiche, la stessa esperienza lavorativa, ma con un genere diverso, non dovrebbero essere trattate diversamente in un processo di assunzione a causa di tale differenza di genere perché non è legale.

È quindi importante avere una lista chiusa di variabili che vengono utilizzate come discriminatori per differenziare la discriminazione legale da quella illegale, e non si tratta di una questione tecnica, ma etica, legale e persino politica: Paesi che si trovano nello stesso contesto culturale hanno raggiunto un consenso su questo. Ad esempio, la Carta dei Diritti Fondamentali dell’Unione Europea. Si veda l’articolo 21: non discriminazione.

  • È vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l’età o l’orientamento sessuale.
  • Nell’ambito d’applicazione dei trattati e fatte salve disposizioni specifiche in essi contenute, è vietata qualsiasi discriminazione in base alla nazionalità.

Alla luce di quanto sopra, ci sono tre punti rilevanti nel processo di progettazione algoritmica in relazione all’uguaglianza materiale e formale dal punto di vista giuridico:

Primo punto. Analizza se la variabile “discriminator” si riferisce ad un attributo “xm” relativo a:

  • La diversa posizione sociale ed economica degli individui
  • Soggetti o settori più deboli della società

– Articolo 9.1 GDPR: l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, i dati genetici, dati biometrici, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona

Articolo 21 Carta dei Diritti Fondamentali dell’unione Europea: il sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l’età o l’orientamento sessuale.

– Altre leggi o circostanze che possono raccomandare l’applicazione dell’uguaglianza materiale basata sull’interpretazione delle norme sociali ed etiche applicabili in un contesto nuovo di disruzione tecnologica.

Secondo punto. Applica le regole di uguaglianza formale: la funzione matematica non dovrebbe trattare, in generale e a priori, nessuna persona in modo diverso per una sua convinzione politica o di altro tipo, ad esempio. Ma questo non basta, a volte la funzione matematica dovrebbe favorire determinate variabili per raggiungere una uguaglianza reale e di fatto.

Terzo punto. Applica le regole di uguaglianza materiale: in particolare analizza se vi sia una ragione rilevante per cui i soggetti vengano trattati giuridicamente in modo diverso, nel processo di creazione dell’algoritmo, poiché il principio di uguaglianza formale non vieta alcuna differenza di trattamento normativo, ma richiede solo che tale differenza sia basata su una ragione rilevante. Evita inoltre la discriminazione per indifferenziazione: l’uguaglianza materiale richiede una differenziazione e se ciò non avviene ci si può trovare di fronte a una discriminazione per indifferenziazione, poiché il diritto alla non discriminazione è violato anche quando, senza una giustificazione obiettiva e ragionevole, l’algoritmo non applica un trattamento diverso a persone le cui situazioni sono significativamente diverse. Per finire, esegui “azioni positive”: con questa concezione del principio di uguaglianza come comprensivo dell’uguaglianza materiale, questo principio servirebbe a giustificare – anche, forse, a richiedere in alcuni casi – azioni positive in quegli algoritmi che, by design, devono prevedere un trattamento differenziato e favorevole di alcuni gruppi in una situazione di discriminazione o di inferiorità sociale.

La sfida non è banale perché la funzione matematico-legale dovrebbe essere in grado di specificare e giustificare il peso quantitativo dato al “discriminator”. Esempio X1=10; X2=1000. In altre parole, si tratta letteralmente di tradurre un diritto fondamentale in matematica. Una sfida che sarà senza dubbio una delle più interessanti di questo decennio.

Come programmare il machine learning “equo”

L’uso diretto di queste variabili è il modo più semplice per combattere la discriminazione, ma questo non evita completamente il rischio di discriminazione perché molte altre variabili (che in linea di principio non erano associate al tipo di attributi sensibili che vogliamo evitare) rimangono attive nei nostri dataset. Ad esempio: il luogo di residenza può essere correlato a un attributo sensibile come la razza in ambienti urbani altamente segregati; i dati di geolocalizzazione del telefono ci possono indicare i modelli di svago dei cittadini, e possono includere visite mediche, abitudini alimentari malsane o certi comportamenti legati alla sessualità che, come attributi sensibili, preferiremmo non usare per prendere decisioni. Il problema è che anche quando il data scientist vuole rimanere agnostico a queste correlazioni, il modello può costruirle da solo. La soluzione non è essere ciechi di fronte a queste correlazioni spurie, ma, al contrario, cercare di identificarle per eliminarle dal processo decisionale. Per raggiungere questa neutralità ci troviamo di fronte a due sfide:

A] Per verificare che il nostro sistema automatizzato non stia basando le sue decisioni su variabili che non vogliamo utilizzare, dobbiamo avere queste informazioni, proprio per verificare che il processo sia indipendente da esse. Se vogliamo evitare che i gruppi sociali vulnerabili siano isolati e non ricevano risposte discriminatorie, dobbiamo verificare che i cluster sociali che il nostro modello ha creato siano sufficientemente diversificati in termini di attributi sensibili; ma a volte le restrizioni legali rendono difficile ottenere il consenso per registrare questi attributi sensibili. Ad esempio, l’articolo 9.1 del GDPR non consente, astrazione fatta delle eccezioni stabilite dall’articolo 9.2 GDPR, di registrare ed elaborare un insieme di dati di particolare sensibilità, anche se lo scopo di tale registrazione è quello di verificare che i modelli non isolino gruppi che hanno in comune tali attributi e di dare loro un trattamento differenziato.

B] Se utilizziamo modelli difficili da spiegare, allora saremo ciechi di fronte a quelle correlazioni spurie che vogliamo evitare (un esempio recente è rappresentato dai diversi limiti di credito concessi dalle carte di credito Apple e Godlman-Sachs a donne e uomini, senza utilizzare direttamente la variabile di genere). Pertanto, devono essere compiuti sforzi di trasparenza algoritmica per verificare quali elementi dei dati di input hanno avuto un determinato peso nella decisione dell’ output del modello. Che l’algoritmo e la sua “hidden unit” interrompa la catena di attribuzione causale è una nuova sfida per il territorio legale. Per questo motivo, i criteri di diligenza devono essere estremi in tutte quelle fasi che dipendono dal controllo umano.

Matematica la chiave per riaffermare i diritti

Per il Diritto l’elemento essenziale è il linguaggio. Le norme legali si manifestano attraverso di esso. La sfida di questo secolo è quindi la reinterpretazione matematica dei diritti fondamentali alla luce dell’intelligenza artificiale. Fin dalla Rivoluzione francese abbiamo cercato di costruire un mondo non solo basato sui dati, ma su valori e principi (Uguaglianza, Libertà, Fraternità). D’altra parte, sono questi valori guida che ci hanno illuminato a scrivere la Carta dei diritti umani, ecc. Oggi i dati ci aprono gli occhi su un mondo imperfetto dove noi stessi, esseri umani, siamo i primi a prendere decisioni non perfettamente obiettive e libere da pregiudizi.

La sfida è quella di iniettare nella funzione matematica il diritto soggettivo fondamentale a un trattamento giuridico ineguale (uguaglianza materiale) per raggiungere una reale uguaglianza nei processi automatizzati. L’avvocato e il data scientist, pur parlando un linguaggio diverso, devono collaborare a questo scopo. Da un punto di vista tecnico, è necessario compiere ulteriori progressi in entrambe le simulazioni: (i) verificare che i cluster sociali che il nostro modello ha creato siano diversi in termini di attributi sensibili e (ii) trasparenza algoritmica. Inoltre, i criteri etici e le definizioni di “discriminatori” legali e illegali devono essere più specifici.

Il processo di creazione dell’algoritmo richiede una maggior sicurezza giuridica. Dobbiamo sviluppare metodologie tecniche per implementare questi criteri che includano il lavoro congiunto di avvocati e data scientist senza dimenticare l’assunto centrale: solo se sai cos’è l’uguaglianza puoi spiegarla ad un algoritmo.

  1. L. PALADIN, Diritto Costituzionale, Cedam, Padua, 1991, pág. 578.
  2. Vid. la Sentencia de la Corte Constitucional italiana 106/1962, de 19 de diciembre, y también la 28/1957, de 26 de enero.
  3. Esempio Sentenze 114/1983 del 6 dicembre; 98/1985, del 29 de luglio e 19/1988, del 16 febbraio.
  4. http://www.treccani.it/vocabolario/discriminare/
  5. https://dle.rae.es/discriminar
WEBINAR
AI, protezione dei dati e flessibilità: anche questo è Storage
Intelligenza Artificiale
Storage

@RIPRODUZIONE RISERVATA

Articolo 1 di 2