Intelligenza Artificiale e pregiudizio: quando a discriminare è l'algoritmo - Agenda Digitale

Il problema

Intelligenza Artificiale e pregiudizio: quando a discriminare è l’algoritmo

L’Intelligenza Artificiale classifica e separa: letteralmente, discrimina. Sulla base di quali informazioni? Il problema degli algoritmi “nascosti”, l’impatto sull’accesso ai servizi essenziali, la guida per avvocati e cittadini, le raccomandazioni UE

02 Giu 2021
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

I pregiudizi che interessano gli algoritmi di Intelligenza Artificiale sono ad oggi uno dei problemi più importanti da affrontare. Problemi che vedono ricercatori e giuristi combattere una guerra agli algoritmi “nascosti” che “intrappolano” le persone nella povertà, negando loro l’accesso a locazioni, vendite immobiliari, posti di lavoro e servizi di base.

Intelligenza Artificiale e pregiudizio: cosa sta succedendo negli USA

Prendiamo l’esempio di Michele E. Gilman, avvocatessa di Baltimora (Maryland, USA) specializzata nella tutela dei diritti umani. Nella sua professione ha sempre rappresentato in giudizio clienti che hanno perso l’accesso ai bisogni primari, come la casa, il cibo, l’istruzione, il lavoro o l’assistenza sanitaria.  Si è confrontata diverse volte con agenzie governative, agenzie di recupero crediti o con “semplici” proprietari di immobili locati, ma, sempre più spesso, la lotta per i diritti “essenziali” di un cliente implica la presenza in gioco di un qualche tipo di algoritmo di Intelligenza Artificiale.

WHITEPAPER
Cloud, omnicanalità e intelligenza artificiale: porta il tuo Contact Center nel futuro
Digital Transformation
Intelligenza Artificiale

Nella pratica, spiega l’avvocatessa, a molti clienti sta succedendo di essere “intrappolati” in tanti algoritmi diversi che li escludono dall’accesso ai servizi fondamentali. Algoritmi nascosti o invisibili, di cui i clienti non hanno consapevolezza. È successo ad esempio a una persona anziana e diversamente abile, inspiegabilmente tagliata fuori dalla sua assistenza sanitaria a domicilio finanziata da Medicaid.[1] In udienza, il testimone che rappresentava lo Stato Federale ha rivelato che il Governo aveva appena adottato un nuovo algoritmo. Il testimone, un’infermiera, non ha potuto spiegare nulla al riguardo. E, per Gilman, la cosa è perfettamente logica, in quanto si tratta di un algoritmo acquistato “a scatola chiusa” e affidato ad un’infermiera, non ad un’informatica.

Per Kevin De Liban, un avvocato della Legal Aid of Arkansas, che fornisce supporto legale gratuito in ambito civile ai cittadini indigenti, l’impatto con gli algoritmi nascosti è stato altrettanto insidioso. Nel 2014, l’Arkansas (USA) ha istituito un nuovo sistema per la distribuzione dell’assistenza domiciliare finanziata da Medicaid, tagliando fuori tutta una serie di persone in precedenza eleggibili. All’epoca, lui e i suoi colleghi non erano in grado di identificare il problema alla radice: sapevano solo che c’era qualcosa di diverso. Solo due anni dopo, all’ennesima disputa legale, è emerso un errore dell’algoritmo di valutazione. Ad aggravare la questione, inoltre, ci si è resi conto che, a volte, gli infermieri incaricati comunicavano ai pazienti che fosse in atto un errore dei sistemi a loro non imputabile.

Da questa serie di esperienze Gilman è diventata molto più esperta nel suo lavoro, osservando l’ascesa e la collisione di due reti algoritmiche.

La prima è costituita da algoritmi di “credit scoring” , metodo statistico che consente di valutare l’affidabilità creditizia e la solvibilità di una persona: sono quegli algoritmi che influenzano l’accesso a beni e servizi privati come le automobili e le abitazioni. La seconda comprende algoritmi adottati dalle agenzie governative, che influenzano l’accesso alle prestazioni pubbliche come l’assistenza sanitaria, il sussidio di disoccupazione e i servizi di assistenza all’infanzia.

Dal punto di vista della rendicontazione del credito, la crescita degli algoritmi è stata guidata dalla proliferazione di diverse tipologie di dati, più facili che mai da raccogliere e da condividere. E anche se non siamo in presenza di una novità, tuttavia al giorno d’oggi il problema è molto più ampio del passato. Le agenzie di segnalazione dei consumatori, compresi gli uffici di credito, le società di controllo degli affittuari o i servizi di verifica, raccolgono queste informazioni da una vasta gamma di fonti: registri pubblici, social media, navigazione sul web, attività bancarie, utilizzo delle applicazioni e altro ancora. Gli algoritmi assegnano poi alle persone dei punteggi di “valore”, che si traducono in controlli di background effettuati da datori di lavoro, proprietari di immobili e persino dalle scuole. Le agenzie governative, invece, sono spinte ad adottare algoritmi quando vogliono modernizzare i loro sistemi.

La spinta ad adottare applicazioni web-based nonché strumenti digitali è iniziata nei primi anni Duemila ed è proseguita con il passaggio a sistemi automatizzati più orientati ai dati e all’Intelligenza Artificiale. Non senza delle “buone” ragioni peraltro. Durante il 2020, segnato dalla pandemia Covid-19, molti sistemi di gestione delle indennità di disoccupazione hanno faticato a gestire l’enorme volume di nuove richieste, causando notevoli ritardi nel processo e nell’erogazione dei sussidi. La prossima modernizzazione di questi sistemi “ereditati dal passato” promette risultati più rapidi e affidabili grazie all’Intelligenza Artificiale. Tuttavia, da un lato questo processo non è sempre trasparente, dall’altro manca di responsabilità. Le agenzie pubbliche spesso acquistano strumenti decisionali automatizzati direttamente da fornitori privati. Il risultato è che quando i sistemi vanno male, gli individui interessati, e i loro avvocati, vengono “lasciati al buio”. Ossia senza alcuna assistenza.

La mancanza di un controllo pubblico su queste gravi anomalie rende i sistemi permanentemente inclini all’errore.

Nel 2013 in Michigan si è verificato uno dei malfunzionamenti più eclatanti. Dopo un grande sforzo per automatizzare il sistema di “rilascio” delle indennità di disoccupazione, l’algoritmo ha erroneamente segnalato oltre 34.000 persone per frode, causando un’automatica e massiccia perdita di benefici, con conseguenti dichiarazioni di fallimento e suicidi. Il tutto per un errore di un algoritmo.

L’avvocatessa Michele E. Gilman teme che i debiti e gli sfratti legati alle conseguenze della pandemia Covid-19 vengano codificati in punteggi di credito, rendendo conseguentemente più difficile per le persone ottenere posti di lavoro, appartamenti e prestiti. È innegabile che gli individui a basso reddito sopportino il peso maggiore in questa situazione, che include anche persone con temporanee difficoltà economiche.

Nel corso degli anni, Gilman ha visto sempre più casi in cui i clienti rischiavano di entrare in un circolo vizioso, con il concreto rischio di non uscirne più. Ad esempio: una persona ha perso il lavoro a causa della pandemia e si è visto negare l’indennità di disoccupazione per un problema con l’algoritmo del sistema. La famiglia, che dipendeva economicamente da tale persona, è rimasta indietro con il pagamento dell’affitto, il che ha portato il padrone di casa in tribunale per procedere con lo sfratto. Mentre lo sfratto non sortirà effetti a causa della moratoria federale del periodo[2], la causa sarà comunque registrata nei sistemi informatici. Tale registrazione potrebbe poi essere inserita negli algoritmi di verifica degli inquilini, il che potrebbe rendere più difficile per la famiglia trovare un alloggio stabile in futuro. Il loro mancato pagamento dell’affitto e delle utenze potrebbe anche essere un problema rilevante in futuro. Basti pensare all’acquisto di un abbonamento telefonico, l’accesso a un prestito, l’acquisto di un’auto o una semplice domanda di lavoro. Effetti a cascata di dubbia prevedibilità in termini di impatto sociale.

A settembre 2020, Gilman ha pubblicato un rapporto che documenta tutti i vari algoritmi che gli avvocati dei diritti umani potrebbero incontrare sul loro cammino. “Poverty Lawgorithms”[3]  è una guida divisa in aree specifiche come il diritto dei consumatori, il diritto di famiglia, l’edilizia abitativa e i benefici pubblici, e spiega come affrontare le questioni sollevate dagli algoritmi e da altre tecnologie basate sui dati nell’ambito delle normative di settore.

Se, ad esempio, a un cliente viene negato un appartamento a causa di uno scarso punteggio di credito, il rapporto raccomanda che un avvocato verifichi prima di tutto se i dati immessi nel sistema di punteggio siano accurati o meno. Secondo il Fair Credit Reporting Act, le agenzie di segnalazione sono tenute a garantire la validità delle loro informazioni, ma questo non sempre accade. L’annullamento di eventuali richieste di risarcimento potrebbe aiutare a “ripristinare” il credito del cliente e, quindi, l’accesso al beneficio erroneamente negato in precedenza. La guida riconosce, tuttavia, che le normative di settore possono arrivare solo fino a un certo punto, poiché vi sono lacune che gli organi preposti devono ancora colmare.

Gilman spera che la guida operi come un campanello d’allarme. Molti dei suoi colleghi non si rendono ancora conto di tutto questo e non sono in grado di fare le domande giuste che aiutino a “stanare” gli algoritmi nascosti. Per Gilman è necessario “fare squadra” lungo tutti gli Stati Uniti, affinché gli avvocati siano consapevoli del problema e imparino a conoscere e combattere questi sistemi. E per fare ciò Gilman guarda al mondo penale. I penalisti americani sono stati all’avanguardia nel settore degli algoritmi, organizzandosi come comunità e contrastando gli algoritmi di valutazione del rischio che determinano le condanne in sede penale. Gilman punta alla stessa sinergia anche in ambito civile, creando un movimento che porti più controllo pubblico e regolamentazione nella rete nascosta di algoritmi che falcidiano i clienti. [4]

Intelligenza Artificiale e pregiudizio: il punto dell’Agenzia Europea dei Diritti Fondamentali

L’Agenzia dell’Unione Europea per i diritti fondamentali (FRA) ha recentemente pubblicato un rapporto sull’Intelligenza Artificiale che sonda le considerazioni etiche da intraprendere nello sviluppo della tecnologia. Con l’evidenza di distorsioni algoritmiche già emerse in molteplici applicazioni di Intelligenza Artificiale, per l’Agenzia è importante affrontare la violazione dei diritti fondamentali connessi all’implementazione dell’IA. Anche se le conclusioni e le raccomandazioni del rapporto sono state fatte pensando all’Unione Europea, esse costituiscono un buon punto di partenza per varie realtà mondiali.

L’Intelligenza Artificiale è sempre più utilizzata in tutti i settori e riguarda direttamente o indirettamente quasi tutti gli esseri umani. Tale “ottica di riguardo” tuttavia ha portato alla violazione di molteplici diritti umani o fondamentali in vari paesi del mondo. Gli esperti ritengono che l’elaborazione guidata dall’Intelligenza Artificiale debba essere effettuata nel rispetto della dignità umana. Tuttavia, l’uso di tale tecnologia per attività criminali o nel campo delle armi può mettere a rischio le persone nel loro più importante diritto: quello alla vita. A parte questi casi estremi, sottoporre le persone all’Intelligenza Artificiale senza il loro consenso può anche violare la loro privacy o i loro dati personali. La non discriminazione e l’uguaglianza, insieme ai diritti fondamentali, sono un argomento cruciale quando si parla di Intelligenza Artificiale, soprattutto perché è compito di tale tecnologia “classificare o separare”. E questo lo si vede principalmente nel campo dell’accesso alla giustizia, come si è trattato brevemente nel paragrafo precedente. Anche se l’accesso ai sistemi di protezione sociale è garantito dalla legge, è sempre più evidente che algoritmi “distorti” possano avere un impatto negativo su chi fa affidamento ad essi. Infine, la protezione dei consumatori e il diritto a una buona amministrazione possono essere influenzati anche da un uso incauto dei dati. Nel complesso, lo sviluppo e la diffusione della tecnologia senza previa valutazione dell’impatto sui diritti umani fondamentali possono avere conseguenze negative significative. Pertanto, le linee guida etiche dell’Agenzia avranno un ruolo significativo nell’evitarle.

Per evitare un impatto negativo sui propri diritti fondamentali, l’Unione Europea ha chiesto linee guida etiche e considerazioni “di sostanza” per l’Intelligenza Artificiale. Nello sviluppo di tale tecnologia, l’Agenzia chiede l’inclusione di tutti i diritti fondamentali, non solo della protezione dei dati personali. Questo è importante perché le applicazioni che ne derivano possono portare a discriminazioni o ad ostacolare la giustizia. Per questo motivo operano come importanti salvaguardie efficaci a scongiurare tali “incidenti”. Per capire come tali incidenti possano verificarsi, in primo luogo l’Agenzia chiede una valutazione d’impatto flessibile degli algoritmi prima che vengano impiegati da organizzazioni private o pubbliche. Ciò non dovrebbe essere codificato in un sistema informatico, dato che le violazioni dei diritti fondamentali sono sempre contestualizzate, e contribuirà a garantire che tutti gli aspetti dei diritti fondamentali siano coperti in tutti i settori. È anche importante che le persone abbiano accesso a una “guida giuridica” all’Intelligenza Artificiale. Le persone hanno bisogno di maggiore trasparenza su come vengono utilizzati i dati e su come far valere le proprie ragioni in giudizio. I sistemi di tutela giudiziale possono essere efficaci solo se vi è maggiore chiarezza sulle regole di protezione dei dati. Pertanto, il rapporto FRA chiede maggiore trasparenza circa le implicazioni dei dati e dei sistemi che ne derivano. Allo stesso tempo, è importante aumentare la consapevolezza sui potenziali modi in cui l’Intelligenza Artificiale può portare alla discriminazione degli interessati. Anche se ciò richiede maggiori finanziamenti per la ricerca sull’argomento.

Infine, il documento sottolinea la necessità di un “sistema di supervisione” che possa ritenere le imprese e i governi responsabili dell’utilizzo dell’Intelligenza Artificiale. Il rapporto illustra chiaramente come i sistemi di Intelligenza Artificiale possono avere un impatto sui diritti fondamentali dei cittadini europei. Tuttavia, la complessità di ciascuno di questi sistemi è diversa e non vi è ancora abbastanza chiarezza su come evitare conseguenze negative. Pertanto, è importante proteggere in modo efficace e adeguato i diritti fondamentali utilizzando tutte le risorse al momento disponibili.[5]

Note

  1. Medicaid fornisce una copertura sanitaria a milioni di americani, tra cui adulti a basso reddito, bambini, donne in gravidanza, anziani e persone con disabilità. Cfr. https://www.medicaid.gov/medicaid/index.html
  2. Si veda: https://www.cdc.gov/coronavirus/2019-ncov/covid-eviction-declaration.html
  3. Per approfondimenti si veda: https://datasociety.net/library/poverty-lawgorithms/
  4. “The coming war on the hidden algorithms that trap people in poverty”, MIT Technology Review. https://www.technologyreview.com/2020/12/04/1013068/algorithms-create-a-poverty-trap-lawyers-fight-back/#:~:text=policy%2FAI%20Ethics-,The%20coming%20war%20on%20the%20hidden%20algorithms%20that%20trap%20people,%2C%20jobs%2C%20and%20basic%20services.
  5. EU Fundamental Rights Agency Issues Report On AI Ethical Considerations. ANALYTICS INDIA MAGAZINE PVT LTD. https://analyticsindiamag.com/eu-fundamental-rights-agency-issues-report-on-ai-ethical-considerations/

@RIPRODUZIONE RISERVATA

Articolo 1 di 3