Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

intelligenza artificiale

Welfare digitale: ecco perché penalizzerà i più poveri

Digitalizzare il sistema di welfare e utilizzare algoritmi al posto dell’interfaccia umana è una soluzione poco efficiente e poco equa, che non migliora la qualità della vita delle persone coinvolte nei programmi di assistenza e può anche portare a situazioni pericolose. Vediamone gli effetti collaterali e inattesi

31 Ott 2019

Domenico Marino

Università degli Studi Mediterranea di Reggio Calabria


In molti paesi del mondo – Regno Unito, India, USA, Australia in testa – si stanno studiando meccanismi digitali per gestire il sistema di welfare in maniera da renderlo, almeno nelle intenzioni, più trasparente, più equo, meno costoso e più efficiente.

Trasferire su una piattaforma digitale tutte le richieste di assistenza legate alle prestazioni sociali e sostituire il fattore umano con un algoritmo nella gestione e nell’evasione della pratica può sembrare un’ottima idea, per ridurre i costi del welfare e quindi magari farlo funzionare meglio, per più persone.

Purtroppo le cose non stanno esattamente così e il ragionamento che andremo a sviluppare potrà portare ad interessanti considerazioni sulla valenza e sui rischi dell’intelligenza artificiale.

Molti spunti di riflessione, e allarmi, giungono dal recente rapporto “Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, dello special rapporteur ONU Philip Alston, e dallo speciale Automating Poverty del Guardian.

Welfare digitale e crescita delle diseguaglianze

Una prima considerazione che va fatta riflettendo sui rischi di un siffatto meccanismo è quello di verificare quando il “digital divide” tra poveri e ricchi e all’interno della categoria dei poveri, fra diverse etnie e diverse tipologie di povertà, possa influire sull’efficienza e l’efficacia del sistema di welfare digitale.

I poveri sono naturalmente quelli che hanno una minore capacità di accesso al digitale e questo “digital divide” cresce quanto più grave diventa la povertà. Una prima critica che si può fare al sistema di welfare digitale è che esso aumenta sicuramente le diseguaglianze perché i poveri hanno meno capacità di accesso al digitale e fra i poveri la capacità di accesso è inversamente proporzionale alla intensità della povertà.

Più si è poveri e meno si è in grado di accedere alle risorse digitali, intendendo la capacità di accesso sia come disponibilità di hardware e di software adeguati, sia la capacità di accedere e di utilizzare efficacemente le risorse informatiche in termini di conoscenze. In questo senso il welfare digitale penalizza sicuramente i più poveri e i meno garantiti, operando in maniera diametralmente opposta a quella che dovrebbe essere la logica e la filosofia del welfare state.

Risolvere problemi semplici diventa complicato con l’algoritmo

Un secondo punto di cui bisogna tenere conto è che la mancanza di un’interfaccia umana rende difficile e complicato risolvere problemi semplici che un umano con il buonsenso riesce a condurre a buon fine in poco tempo e che invece diventano ostacoli insormontabili per l’algoritmo. E poiché sul funzionamento corretto del sistema di welfare si basa la possibilità di ricevere un’assistenza spesso necessaria e fondamentale per gli individui, i limiti dell’algoritmo possono essere devastanti per la vita di soggetti che sono già in una situazione di precarietà.

Considerate che per un soggetto arruolato in un programma di assistenza alimentare perdere le credenziali della sua identità digitale può significare vedersi tagliato il sussidio, rimanendo, quindi, senza assistenza e rischiando di morire di fame. Pensate agli effetti devastanti di un software che in presenza di casi particolari non riesce a concludere la procedura, condannando il soggetto a non poter accedere all’assistenza o più banalmente agli effetti dell’incapacità del soggetto di chiudere una procedura complessa, cosa che può portare alla sospensione dell’assistenza. Se l’interfaccia per risolvere i problemi è umana, si riesce quasi sempre a superare questi colli di bottiglia, se l’interfaccia è digitale allora la risposta più frequente sarà: “nessun è possibile concludere la procedura”, con danni enormi per la vita del malcapitato.

Il rischio discriminazione

Un terzo ed ultimo punto che evidenzia i rischi e le criticità dell’utilizzo degli algoritmi nella gestione dei sistemi di welfare è legata alla possibilità che le intelligenze artificiali che governano i processi valutativi legati al welfare digitale possano sviluppare dei bias che penalizzano o avvantaggiano alcuni soggetti in relazione al sesso, alla razza, all’istruzione, alla religione o all’orientamento politico.

Queste considerazioni portano ad inferire che un sistema di welfare digitale possa aumentare le diseguaglianze sociali, aumentando il divario che esiste fra ricchi e poveri e aumentando il divario fra i meno poveri e i più poveri.

Analizzando dei casi concreti potremo meglio capire i contorni di questa discriminazione.

L’idea di beccare i furbetti che ricevono il sussidio non avendone i requisiti è un’idea connaturata e radicata con lo sviluppo dei sistemi di welfare. La cosa che fino ad ora aveva scoraggiato grandi campagne di contrasto a questo tipo di illegalità è l’alto costo del controllo in relazione al beneficio ottenibile. Se per beccare un furbetto spendo più di quanto recupero ovviamente il gioco non vale la candela. Con l’utilizzo degli algoritmi e dei big data il costo della ricerca diviene notevolmente più basso ed accettabile ed è per questo che molte amministrazioni hanno fatto largo uso in diverse parti del mondo di questi strumenti. Nello stato dell’Indiana è stata avviata una grande campagna per individuare beneficiari di sussidio che non ne avevano diritto, mentre in Australia sono state avviate grandi campagne di recupero di sussidi versati in eccesso.

Ma paradossalmente in questo caso è proprio l’estrema potenza dell’algoritmo a costituire un punto di debolezza. È un tentativo di far emergere l’illegalità che però assomiglia troppo alla pesca a strascico e che ha rilevanti effetti collaterali. Il processo di ricerca inizia con la selezione di un gruppo di potenziali frodatori che poi viene sottoposto ad ulteriore verifica. Ma il rischio che in questo gruppo di potenziali frodatori vi siano soggetti completamente in regola è abbastanza alto e le successive fasi di individuazione delle situazioni di illegalità attraverso colloqui telefonici, ben lungi dal raggiungere gli eventuali percettori illegali, colpiscono indiscriminatamente i soggetti più deboli, quelli che hanno maggiori difficoltà a sostenere un colloquio telefonico o a fornire documentazione via web. Alla fine l’esito del processo è che di fatto viene tolto il sussidio ad una gran numero di individui, di cui solo una parte non ne aveva effettivamente diritto, mentre nella maggior parte dei casi il sussidio viene tolto a persone bisognose che rimangono a seguito di questa ingiustizia fortemente penalizzate e senza protezione sociale.

Welfare digitale e diritto alla privacy

In ultima analisi, poi, l’utilizzo di queste tecnologie limita fortemente il diritto alla privacy dei soggetti più poveri che sono costretti a condividere loro dati personali, e in qualche caso anche quelli sensibili, per permettere di addestrare gli algoritmi senza poter opporre nessun diniego, perché non fornire questi dati significa perdita certa del sussidio. Dalla condizione di povertà nasce quindi l’impossibilità ad esercitare pienamente il diritto alla privacy.

Digitalizzare il sistema di welfare e utilizzare algoritmi al posto dell’interfaccia umana appare, quindi, essere una soluzione poco efficiente e poco equa, che non solo non migliora la qualità della vita delle persone coinvolte nei programmi di assistenza, ma che può anche portare a situazioni pericolose per i soggetti arruolati in questi programmi. Si può dire che un modello di questo genere penalizza i poveri rendendoli ancora più poveri.

L’analisi di questo caso ci fa vedere come un pregiudizio ottimistico nei confronti dell’intelligenza artificiale, che spesso viene presentata come panacea di ogni male, con proprietà taumaturgiche che possono essere estese a tutti i problemi e a tutte le situazioni, è lontano dalla realtà. L’intelligenza artificiale è uno strumento che deve essere usato con intelligenza, tenendo conto anche dei possibili rischi connessi.

Quanto più gli strumenti sono potenti, tanto più vanno maneggiati con cura tenendo conto sia degli effetti collaterali, sia degli effetti inattesi. Una tecnocrazia degli algoritmi rischia di essere iniqua e di aumentare le diseguaglianze. Certamente l’idea di eliminare l’empatia legata al fattore umano apparentemente rende più efficienti i sistemi di contrasto della povertà, ma in realtà ne fa perdere solamente il contenuto di umanità che, forse, costituisce un elemento essenziale e insostituibile per la buona riuscita del processo.

Combattere la povertà non è facile, non bastano semplici ricette o semplici incentivi e subappaltare interamente la conduzione di questa guerra complessa e difficile alle macchine e agli algoritmi può diventare una pessima idea.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4