Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

bias e algoritmi

Pregiudizi dell’intelligenza artificiale: cos’è il “redress” e perché riguarda tutti

Nel nostro sistema di valori, una AI usata per fare predizioni che impattano sulla vita delle persone deve prevedere con grande attenzione dei meccanismi di redress degli errori di decisione che sappiamo ci saranno. Ecco perché deve essere la politica a prevedere adeguati sistemi di correzione

09 Apr 2019

Stefano Quintarelli

presidente Comitato d'Indirizzo Agenzia per l'Italia Digitale


I dati con i quali “nutriamo” i sistemi di intelligenza artificiale incorporano valori e bias (pregiudizi) della società. Se i primi vanno mantenuti, i secondi vanno invece contrastati. Affidare la valutazione solamente ad un sistema statistico li consoliderebbe entrambi. 

Il tema è evidente alle stesse istituzioni europee, come si vede nella recente direttiva copyright, dove si prevede il “redress”, un meccanismo di appello alle autorità per i casi di errata valutazione da parti dei filtri automatici; ossia per i casi in cui i filtri bloccano contenuti legittimi. Ma rischia di essere un debole strumento.

Il punto di fondo è un altro. In una società in cui gli algoritmi tenderanno sempre più a prendere decisioni per nostro conto (si tratti di consigliarci un ristorante, bloccare la pubblicazione di contenuti protetti da copyright o identificare un criminale) è quindi compito della politica, sia essa intesa in senso lato che in quella aziendale, prendere le decisioni sugli obiettivi desiderabili e i fini che l’uso degli strumenti deve avere e prevedere adeguati sistemi di correzione o redress.

Vediamo perché è importante.

Machine learning e predizioni statistiche

Il machine learning, in sintesi, è una tecnica per distillare modelli statistici da grandi quantità di dati. Una volta distillato un modello e validato con dei dati di test, esso viene posto in produzione per generare, a fronte di un nuovo input, una predizione di output.

Non si tratta quindi di una programmazione tradizionale con un algoritmo deterministico bensì di una predizione statistica.

Il primo passo nella realizzazione di un sistema è pertanto l’acquisizione di dati annotati di alta qualità. Una volta acquisiti questi dati, essi vengono usati per addestrare il sistema, ovvero per estrarre un modello statistico che ben rappresenti questi dati.

Il fatto che i dati siano di alta qualità, non imprecisi, è quindi estremamente importante. Se non lo fossero determineremmo l’abituale effetto garbage in, garbage out.

Precisione e recupero, una coperta corta

Una volta addestrato il sistema e validato il suo funzionamento con dati di test, possiamo stabilirne la sua bontà tramite due indicatori chiamati precisione e recupero.

Essendo un modello statistico, è certo che talvolta esso sbaglierà le sue predizioni: alcune volte identificherà come positivi casi che sono negativi ed altre volte il viceversa. Avremo cioè dei falsi positivi e dei falsi negativi. La precisione ci fornisce una indicazione della esattezza del modello mentre il recupero ci fornisce una indicazione della completezza. La precisione ci dice cioè tra tutti i casi che abbiamo identificati come positivi, quanti effettivamente lo fossero. Il recupero ci dice, tra tutti i casi positivi che abbiamo esaminato, quanti ne abbiamo riconosciuti.

Ipotizziamo di avere un sistema che predica se una persona sia o meno un criminale. La precisione ci dice tra tutti quelli che abbiamo identificato come criminali, quanti lo erano veramente. Il recupero ci dice tra tutti i criminali che abbiamo visto, quanti ne abbiamo riconosciuti.

Si tratta di una coperta corta: se non ci facciamo sfuggire nessun criminale, è certo che prenderemo nella rete anche molti innocenti. Se non vogliamo incolpare ingiustamente nessun innocente, ci sfuggiranno anche dei criminali.

I paesi più autoritari sono più inclini a massimizzare il recupero, ovvero a non farsi sfuggire nessun criminale, senza una grande considerazione per gli innocenti che finiranno nella rete.

Secondo i valori europei è prioritario che non vengano coinvolti ingiustamente innocenti, anche se ciò comporta che questo sistema non riconoscerà tutti i criminali che incontrerà (si possono usare anche altri sistemi!).

AI, copyright e libertà di espressione: ecco cos’è il redress e perché è importante

Nel dibattito europeo in questo periodo si parla di direttiva Copyright e dell’art. 13, ovvero quello relativo ai sistemi di preventiva inibizione della pubblicazione di contenuti protetti da copyright. Il gestore della piattaforma, per non incorrere in salatissime sanzioni, privilegerà il recupero rispetto alla precisione. Gestirà i sistemi in modo da individuare tutti i casi di violazione, con buona pace di quei contenuti erroneamente ritenuti in violazione.

E’ naturalmente previsto un meccanismo di appello per i casi di errata valutazione (“redress”) presso una autorità designata, ma quanti vi si rivolgeranno?

E quanto sarà efficiente? Questo punto tocca il delicato aspetto del diritto alla libertà di espressione. Ed il fatto è che nemmeno ci accorgeremo di averlo violato, perché i casi non saranno molti e la maggioranza di essi nemmeno verrà segnalata. Anche se nel complesso gli errori di valutazione saranno pochi, per la persona che si vedrà il contenuto censurato, sarà una violazione materiale di un suo diritto. Senza una procedura automatica di redress che contemperi i due diritti (come proposto dall’Associazione Copernicani), la tutela del diritto d’autore prevale sulla tutela della libertà di espressione del singolo.

La discriminazione è sempre dietro l’angolo

E’ importante capire che la discriminazione è sempre dietro l’angolo, anche se i dati sono raccolti con grande accuratezza (e molto spesso non lo sono).

In statistica si usa il termine outlier per indicare dei valori atipici, che si distanziano dalla massa dei dati rilevati. Una società include sempre molti individui che per ragioni diverse possono essere outlier rispetto a determinati parametri. E’ una conquista della società essere inclusiva e garantire pari diritti ed opportunità alle minoranze.

Ha destato sensazione il caso riportato dalle cronache degli studenti tedeschi in visita in Italia bloccati da tre pattuglie della polizia perché una segnalazione li aveva indicati come “sospetti” in quanto nel gruppo erano presenti alcune persone di colore. Questo è il tipo di discriminazione che ci si può attendere da una macchina addestrata sulla base di dati rilevati (erroneamente includendo l’etnia), non da un umano sulla base di valori condivisi.

Nel nostro sistema di valori, una AI che venga usata per fare delle predizioni che impattano sulla vita delle persone deve prevedere con grande attenzione e cura dei meccanismi di redress degli errori di decisione che sappiamo che ci saranno. Sia esso un sistema di rating che ci consente di accedere al credito, di essere assunti, di ricevere determinate cure, di godere di una formazione, di accedere ad una manifestazione sportiva, di poter viaggiare su un mezzo pubblico, di avere un’equa valutazione giudiziaria, ecc..

Nel film “Le idi di marzo” il governatore Morris (George Clooney), candidato alla presidenza degli USA, è contrario alla pena di morte. Un intervistatore gli chiede cosa farebbe se sua moglie fosse assassinata e lui risponde che farebbe in modo di eliminarlo. L’intervistatore evidenzia la contraddizione e Clooney replica che è conscio che commetterebbe un crimine e che andrebbe volentieri in prigione, ma questo non cambia il suo punto di vista sulla pena di morte perché la società deve essere migliore dell’individuo.

Questo è un punto importante: la società deve tendere a degli obiettivi socialmente desiderabili che sono diversi dal comportamento che la società esibisce in un determinato momento o in presenza di una condizione normale. Per questo abbiamo parcheggi riservati per gli invalidi, regole sulle pari opportunità, regole per la non discriminazione. Perché non vogliamo che gli outliers godano di opportunità e possibilità diverse dalle persone che non lo sono.

Perché ciascuno di noi è un outlier, sotto qualche aspetto.

Anche raccogliendo dati annotati perfetti, essi includeranno degli outlier e un sistema probabilistico ci fornirà delle predizioni che non prediranno outliers. Se il sesso fosse uno dei parametri con cui viene addestrato un sistema che stabilisca livelli salariali, visto che nei dati di partenza le donne sono penalizzate, il sistema sarebbe portato a “considerare” che le donne vadano sottopagate.

AI, scientia e sapientia

Un esempio evidente di questi bias impliciti nelle società è rispecchiato dagli strumenti di traduzione automatica con il turco. Questi sono stati addestrati sulla base di documenti bilingue esistenti (leggi, sentenze, wikipedia, ecc.)

Il turco è una lingua senza genere. Se traduciamo in turco “lui è un infermiere” otteniamo “o bir hemşire.” se ritraduciamo in italiano “o bir hemşire” otteniamo “è un’infermiera”. La professione infermieristica, in Turchia, è appannaggio prevalentemente delle donne e questo bias è fissato in documenti incorporati nei sistemi di traduzione automatica. Analogamente il poliziotto è attività che il traduttore automatico ritiene maschile, l’amico è uomo, l’amante è donna, e così via.

Negli scritti di sant’Agostino si sottolinea che esistono due modalità della ragione. La prima è la scientia (Max Horkheimer, il fondatore della Scuola di Francoforte, la chiama “ragione strumentale”). La scientia è la ragione calcolante, la ragione che organizza i mezzi per realizzare i fini. La scientia però non conosce e non comprende i fini dell’azione. Questi fini la scientia li recepisce da un’altra facoltà della ragione, la sapientia. La sapientia è la capacità di vedere i fini dell’azione.

La scientia non basta; ci vuole la sapientia. Anche nell’AI.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4