intelligenza artificiale

Più efficienza, meno giustizia: il paradosso del welfare digitale



Indirizzo copiato

L’intelligenza artificiale nei servizi sociali promette efficienza e precisione, ma casi come SyRI e Amsterdam mostrano rischi di discriminazione e opacità decisionale che meritano una riflessione sulle sfide del welfare digitale

Pubblicato il 23 lug 2025

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



sistemi di age verification inclusione digitale IA nel welfare; social giovani

Negli ultimi anni, l’intelligenza artificiale ha progressivamente fatto ingresso anche nel settore del welfare, aprendo scenari del tutto nuovi nella gestione delle politiche sociali.

Algoritmi predittivi, sistemi di profilazione, automazione dei processi decisionali: sono solo alcune delle tecnologie adottate da amministrazioni pubbliche in varie parti del mondo con l’obiettivo dichiarato di migliorare l’efficienza, ridurre gli sprechi e rendere più mirato l’intervento dello Stato a favore delle fasce deboli della popolazione. Se da un lato tutto ciò appare come una naturale evoluzione del welfare nell’era digitale, dall’altro emergono questioni delicate che toccano il cuore dei diritti fondamentali: l’equità, la trasparenza delle decisioni amministrative, la protezione dei dati personali e il rispetto della dignità delle persone. La transizione verso un welfare algoritmico, dunque, non può essere affrontata solo come una questione tecnica o organizzativa, ma impone una riflessione giuridica e democratica di fondo.

I vantaggi del’IA nel welfare

L’applicazione dell’intelligenza artificiale ai servizi sociali si propone, almeno teoricamente, come uno strumento in grado di rivoluzionare positivamente l’intervento pubblico. I sistemi intelligenti vengono oggi utilizzati per analizzare grandi quantità di dati, individuare situazioni di vulnerabilità, assegnare priorità nell’erogazione dei sussidi o persino per orientare il lavoro degli assistenti sociali attraverso suggerimenti basati su modelli predittivi.

In concreto, si parla di utilizzo dell’IA per la rilevazione di frodi nell’accesso alle prestazioni, per la gestione automatizzata delle liste d’attesa per l’assegnazione di case popolari, per l’identificazione precoce di famiglie a rischio di esclusione sociale o per il monitoraggio dell’aderenza ai criteri di accesso ai benefici economici. Questi strumenti, se ben progettati e correttamente utilizzati, potrebbero contribuire a rendere più equo ed efficiente il sistema, assicurando che gli aiuti raggiungano effettivamente chi ne ha più bisogno. Tuttavia, l’esperienza concreta ha mostrato che l’inserimento dell’IA nei processi di welfare non è esente da rischi, soprattutto quando le tecnologie vengono introdotte senza un adeguato presidio giuridico e senza un controllo democratico trasparente.

Quando l’algoritmo discrimina: il caso olandese del SyRI

Uno dei casi più significativi e dibattuti in materia di IA e welfare è senza dubbio quello dei Paesi Bassi, dove il governo ha introdotto un sistema noto come SyRI (acronimo di Systeem Risico Indicatie), concepito per individuare possibili frodi nei confronti dello Stato nel campo dei benefici sociali. Il sistema si basava sull’incrocio di dati provenienti da numerose banche dati pubbliche, come quelle relative al reddito, alla residenza, al patrimonio e ad altre variabili personali. A partire da queste informazioni, SyRI calcolava dei punteggi di rischio volti a segnalare i cittadini potenzialmente sospetti. Tuttavia, questo sistema si è rivelato profondamente problematico: le modalità di calcolo del rischio erano opache, non comprensibili né accessibili dai cittadini coinvolti, e gli algoritmi utilizzati risultavano fortemente penalizzanti nei confronti di determinati gruppi sociali, come residenti in quartieri popolari o persone con background migratorio.

La Corte dell’Aia, nel 2020, ha infine dichiarato illegittimo l’utilizzo del sistema SyRI, stabilendo che violava il diritto alla vita privata sancito dalla Convenzione europea dei diritti dell’uomo. Il caso è divenuto emblematico, perché ha dimostrato come l’uso dell’IA nel welfare, se non attentamente regolato, possa produrre effetti discriminatori e lesivi dei diritti fondamentali.

Amsterdam e il welfare predittivo che punisce i più fragili

Un esempio ancor più recente e non meno significativo riguarda la città di Amsterdam. Come riportato in un’inchiesta della rivista MIT Technology Review, l’amministrazione cittadina ha adottato un sistema automatizzato per individuare errori o irregolarità nei sussidi abitativi. In teoria, l’obiettivo era prevenire abusi e garantire un uso più efficiente delle risorse pubbliche.

In pratica, però, il sistema ha finito per penalizzare in modo sproporzionato proprio quelle categorie che più necessitavano di protezione: famiglie povere, persone con background migratorio, nuclei familiari numerosi. Il meccanismo decisionale era completamente opaco, tanto che perfino gli operatori incaricati di applicare le sanzioni non erano in grado di spiegare su quali basi fosse avvenuta la segnalazione.

I cittadini, di fronte alla sospensione dei benefici o alla richiesta di restituzione delle somme percepite, non avevano strumenti per comprendere o contestare la decisione. È evidente che un simile utilizzo dell’IA non solo lede i principi basilari della trasparenza e della buona amministrazione, ma mette anche a rischio il diritto alla difesa e la possibilità di un ricorso effettivo, come previsto dall’articolo 47 della Carta dei diritti fondamentali dell’Unione europea.

Altri casi nel mondo: problematiche nei welfare automatizzati

Quella dei Paesi Bassi e di Amsterdam non è un’eccezione. Anche in altre nazioni l’utilizzo dell’IA nel welfare ha prodotto conseguenze problematiche. Negli Stati Uniti, nella contea di Allegheny, è stato introdotto un algoritmo per prevedere il rischio di abusi sui minori.

Sebbene le autorità ne abbiano vantato l’accuratezza predittiva, numerose analisi hanno dimostrato come il sistema penalizzasse in modo sproporzionato le famiglie afroamericane, perpetuando discriminazioni strutturali.

In Australia, il programma noto come “Robodebt” ha incrociato dati di reddito per recuperare presunti crediti indebiti da parte di cittadini che avevano ricevuto sussidi. Tuttavia, i calcoli automatici erano basati su presupposti errati e hanno condotto al recupero forzoso di somme non dovute. Dopo una lunga battaglia legale, il governo australiano ha dovuto avviare un massiccio piano di risarcimenti. Anche in Canada, nella provincia dell’Ontario, un sistema simile ha sollevato contestazioni legate a discriminazioni razziali e a carenze nel controllo umano. Tutti questi casi dimostrano come il rischio di lesione dei diritti fondamentali sia tutt’altro che astratto.

Le sfide legali e i rischi giuridici dell’IA nel welfare

L’introduzione dell’IA nei meccanismi di erogazione del welfare espone a una serie di rischi giuridici di grande rilievo. In primo luogo, la mancanza di trasparenza algoritmica mina il diritto del cittadino a conoscere e comprendere le decisioni amministrative che lo riguardano. Il principio di motivazione, cardine del diritto amministrativo, non può essere sacrificato in nome dell’efficienza tecnologica. In secondo luogo, l’uso di dati storici o parziali come base di addestramento degli algoritmi rischia di amplificare stereotipi e discriminazioni già esistenti, violando il principio di uguaglianza sostanziale sancito in molte costituzioni, tra cui quella italiana. Anche il diritto alla protezione dei dati personali risulta spesso compromesso: la raccolta massiva di informazioni, l’assenza di limiti chiari sulle finalità del trattamento e la mancanza di una base giuridica solida contrastano con i princìpi del Regolamento generale sulla protezione dei dati (GDPR), in particolare con quelli di minimizzazione, liceità e trasparenza. Inoltre, molte delle decisioni assunte mediante IA avvengono in assenza di una supervisione umana effettiva, in violazione dell’articolo 22 del GDPR, che proibisce decisioni esclusivamente automatizzate con effetti significativi sulla persona senza un adeguato intervento umano. Infine, la difficoltà di accedere ai meccanismi di revisione e contestazione mina l’effettività del diritto alla tutela giurisdizionale.

AI Act: la risposta normativa dell’Unione Europea

Consapevole della portata del fenomeno e delle sue implicazioni, l’Unione Europea ha adottato nel 2024 il Regolamento sull’intelligenza artificiale (AI Act), che rappresenta il primo tentativo organico di disciplinare l’uso dell’IA in Europa. Il regolamento classifica come “ad alto rischio” tutti quei sistemi impiegati in ambiti che incidono sui diritti e sulle libertà delle persone, compresi quelli utilizzati per l’erogazione di servizi pubblici e sociali. Per tali sistemi, l’AI Act impone una serie di obblighi rigorosi, tra cui la valutazione d’impatto, la tracciabilità delle decisioni, la supervisione umana costante, la prevenzione dei bias e la comunicazione chiara ai soggetti interessati. Si tratta di un passo avanti importante, ma che da solo non basta: l’effettiva protezione dei diritti dipenderà dalla concreta attuazione delle norme, dalla formazione degli operatori, dalla capacità di controllo delle autorità di vigilanza e dalla trasparenza delle amministrazioni pubbliche.

Verso un welfare algoritmico giusto e trasparente

L’uso dell’IA nel welfare può rappresentare un’occasione storica per rendere più giusto, efficiente e tempestivo l’intervento pubblico in favore delle persone vulnerabili. Ma perché ciò accada, è necessario che l’innovazione tecnologica sia accompagnata da una rigorosa cornice giuridica e da un controllo democratico effettivo. L’algoritmo non può trasformarsi in uno strumento di esclusione, né tantomeno in una forma di sorveglianza sociale digitalizzata. Al contrario, deve diventare uno strumento a servizio della giustizia sociale, della trasparenza e della dignità della persona. Questo richiede regole chiare, supervisione umana, partecipazione pubblica e un costante impegno per garantire l’equità sostanziale delle decisioni automatizzate. Solo così sarà possibile costruire un welfare del futuro che sia davvero all’altezza dei valori costituzionali e dei diritti fondamentali.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati