politiche sociali

Il welfare gestito dall’AI? Quanti rischi se “bypassiamo” la nostra umanità

Effetti indesiderati e risvolti pericolosi del welfare digitale. Riportare l’uomo al centro del sistema è la sola chiave per limitare i rischi degli algoritmi nell’ambito delle politiche sociali. Un possibile punto di partenza potrebbe essere il rispetto delle leggi universali proposte da Isaac Asimov

16 Dic 2019
Davide Giribaldi

data protection specialist


L’intelligenza artificiale sta diventando, in molti Paesi del mondo, un potente strumento di controllo della spesa e razionalizzazione delle risorse nel welfare, offrendo altresì un maggior numero di servizi mirati. Allo stesso tempo, però, indennità di disoccupazione, sussidi per gli alloggi o per gli alimenti si sono trasformati in semplici risultati numerici di analisi algoritmiche, sostituendo in molti casi quel minimo di sensibilità umana spesso necessaria di fronte a situazioni delicate e soprattutto commettendo errori che hanno generato pregiudizi e vere e proprie ingiustizie sociali.

Tecnologie digitali e disuguaglianze

Il welfare digitale, che almeno nelle intenzioni avrebbe dovuto essere uno strumento asettico, capace di facilitare l’accesso alle prestazioni sociali e democratizzare servizi per le fasce più deboli della società, si sta dunque trasformando in un incubo, accentuato dalla mancanza di competenze e dalla difficoltà ad accedere ad internet tipico dei ceti più vulnerabili.

In poche parole, come sostiene senza mezzi termini Philip Alston, special rapporteur Onu, “Le tecnologie stanno diventando un fattore di crescente disuguaglianza e facilitano la creazione di una vasta sottoclasse digitale”.

Alston a ottobre scorso ha presentato un drammatico rapporto su povertà e diritti umani, all’Assemblea Generale delle Nazioni Unite, disegnando uno scenario dai contorni cupi in cui le tecnologie di fatto sono utilizzate nella migliore delle ipotesi per sorvegliare le persone meno abbienti e nei casi peggiori per penalizzarle e discriminarle ulteriormente.

E’ inutile negarlo, ci troviamo di fonte alla rapidissima ascesa di un modello di Stato sociale digitale in cui, seppur in periodi di ristrettezza economica, le risorse sono comunque ancora ingenti, ma vengono dirottate sempre più sulla creazione di sistemi automatizzati di monitoraggio ed efficientamento che discriminano una larga fetta della popolazione mondiale indipendentemente dall’area geografica di appartenenza.

Infatti se l’accesso ai servizi che ormai nella maggior parte dei casi è di tipo digitale, ha ridotto le disparità tra sud e nord del mondo, ha generato una discriminazione tra chi può accedere ad internet e chi per mancanza di competenze o di disponibilità economiche non può accedervi.

Basti pensare ad esempio che in Inghilterra sono oltre 4 milioni gli adulti (8% della popolazione totale) che non usano internet perché non lo ritengono sicuro e quasi 4 milioni di loro appartengono alle fasce meno agiate.

Welfare e intelligenza artificiale: il caso della popolazione non censita

E cosa succede quando l’accesso al welfare è garantito solo alla popolazione ufficialmente censita? Non dimentichiamo che negli USA oltre 20 milioni di cittadini non hanno un documento di identità, in Asia meridionale 357 milioni di persone non sono mai state identificate mentre nella fascia sub sahariana dell’Africa sono oltre 500 milioni.

Si tratta di un potenziale disastro in gran parte sottovalutato per i rischi a cui espone una fascia significativa della popolazione.

Digital360 awards
Ultimi giorni per presentare il tuo progetto digitale ad una platea di CIO!
Digital Transformation
Open Innovation

Uno dei casi più clamorosi è Aadhaar il più grande sistema mondiale d’identificazione biometrica che raccoglie i dati anagrafici, le impronte digitali e dell’iride di 1,2 miliardi di cittadini indiani che possono accedere a servizi essenziali come le cure mediche, l’istruzione o il pagamento delle tasse solo tramite esso, ma che possono esercitare altri diritti come quello di voto o effettuare pagamenti elettronici in assenza di carte di credito. Secondo la Banca Mondiale Aadhar, che ha da poco compiuto 10 anni, è il programma di identificazione più sofisticato al mondo e ha aiutato il governo indiano a ridurre in maniera drastica la mancanza di controllo demografico sulla popolazione. Ma da quando 4 anni fa è diventato obbligatorio, ha formalmente escluso non meno di 2,5 milioni di famiglie povere che si sono viste negare il diritto alle razioni di cibo governative e sono stati necessari 2 lunghissimi anni perché fosse garantito il diritto al sussidio anche a coloro che erano sprovvisti del numero di tessera.

Addirittura peggio è quello che sta succedendo in Kenya dove un sistema digitale simile, raccoglie anche il DNA e un campione vocale e dove il governo sta minacciando di escludere dall’assistenza sanitaria e dal diritto di voto circa 14 milioni di cittadini che non hanno ancora adottato il programma governativo di registrazione digitale della popolazione.

Ma nel cosiddetto mondo occidentale che in buona parte dovrebbe essere al di fuori da queste drammatiche situazioni, le cose non vanno meglio; nel Regno Unito è in fase di studio avanzato l’adozione di un sistema robot assistenziali che sostituiranno l’uomo in molte attività, mentre una grossa compagnia privata ha sviluppato un’app in grado di fornire diagnosi a distanza sui pazienti, tramite medici aderenti al proprio network privato, per consentire ingenti risparmi sulla spesa sanitaria, ma allo stesso tempo accumulando milioni di dati “sensibili” sullo stato di salute della popolazione, la cui eventuale rivendita per scopi probabilmente scientifici, ma certamente economici non è del tutto chiara.

I “danni collaterali” del welfare digitale

Negli USA, al di là di quanto accaduto nello stato dell’Illinois dove il nuovo sistema di monitoraggio del welfare ha chiesto rimborsi a presunti beneficiari per prestazioni vecchie di 30 anni, siamo forse di fronte ad un livello superiore di gravità perché secondo una recente ricerca pubblicata sulla rivista Science, il sistema di intelligenza artificiale usato per determinare le esigenze sanitarie di oltre 200 milioni di pazienti, anche esso di proprietà di un’azienda privata, ha formalmente stabilito che la popolazione di razza bianca abbia bisogno di più cure rispetto alla popolazione di razza nera e al di là dell’aspetto discriminatorio della questione, le cose più inquietanti sono state il fatto che l’indagine era stata data in pasto all’algoritmo senza tenere conto degli aspetti razziali, per cui la distinzione tra il colore della pelle è formalmente stato un cosiddetto “danno collaterale”, ma soprattutto che analizzando lo stesso campione con dati elementi diversi vengono fuori risultati diametralmente opposti rendendo davvero difficile capire se il sistema per il calcolo del fabbisogno sanitario possa essere considerato affidabile considerato anche il fatto che il sistema sanitario americano è privato e che le compagnie di assicurazione hanno bisogno di una base dati quanto più precisa possibile per determinare i loro costi.

Riportare l’essere umano al centro del sistema

Da questi esempi risulta chiaro che la tecnologia, che dovrebbe essere usata prima di tutto per garantire un tenore di vita migliore per le persone, si sta trasformando, almeno nel settore assistenziale, in uno strumento di disuguaglianza dal quale è possibile allontanarsi solo con un unico approccio: riportare l’essere umano al centro del sistema.

Se infatti è fuori di dubbio che il progresso tecnologico attraverso l’introduzione di diversi tipi di algoritmi abbia in buona parte facilitato i processi burocratici ed amministrativi ad una velocità via via crescente, è altrettanto innegabile che questa situazione stia generando almeno tre effetti perversi:

  • la perdita di centralità dell’uomo che in questi scenari distopici rischia di vedere trasformata la propria condizione di “titolare” di diritti verso quella decisamente più pericolosa di “richiedente” diritti;
  • lo sviluppo di potenti oligarchie private in grado di determinare il nostro destino nei confronti delle istituzioni che a loro volta diventano sempre più influenzabili da report numerici e quindi più distanti dal ruolo di garanti del nostro benessere sociale
  • l’impossibilità di poter determinare un preciso perimetro di responsabilità in caso di violazione dei nostri diritti fondamentali come ad esempio quello alla salute.

Starà a noi provare a orientare le tecnologie in modo da mantenere il ruolo di attore primario e non di comparsa e starà alla politica comprendere che la velocità di questa trasformazione digitale crescerà in maniera esponenziale riducendo allo stesso tempo la possibilità di salvaguardare molti dei nostri diritti fondamentali che mai come oggi potrebbero essere messi in discussione dagli algoritmi.

Un possibile punto di partenza potrebbe essere il rispetto di tre leggi universali proposte una settantina di anni fa da un visionario di nome Isaac Asimov, magari sostituendo la parola “robot” con la parola algoritmo. Non è molto, ma potrebbe essere un primo passo verso quel minimo di consapevolezza necessaria in situazioni cosi delicate.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2