L’intelligenza artificiale nella Pubblica Amministrazione rappresenta oggi non solo uno strumento tecnologico, ma una vera e propria evoluzione del modo in cui si esercita il potere amministrativo.
I processi decisionali che un tempo si basavano esclusivamente sull’intervento umano stanno progressivamente integrando sistemi algoritmici che analizzano grandi volumi di dati e supportano o addirittura prendono decisioni.
Questa trasformazione va ben oltre la mera digitalizzazione di procedure, tocca aspetti fondamentali come l’assegnazione di risorse, la definizione delle priorità e la gestione dei servizi al cittadino.
Oggi, sempre più aspetti rilevanti della vita dei cittadini, dalla concessione di bonus sociali alla valutazione scolastica, fino alla selezione pubblica per concorsi, sono influenzati da algoritmi. Quindi questo solleva questioni cruciali riguardo alla trasparenza, equità e legittimità di tali decisioni automatizzate.
Mentre la tecnologia promette efficienza e rapidità, il rischio è che senza un’adeguata governance queste scelte possano diventare opache e, in alcuni casi, discriminatorie.
La sfida che emerge non è quindi un semplice confronto tra uomo e macchina, quanto piuttosto un confronto tra due modelli amministrativi:
- da un lato una burocrazia tradizionale, spesso lenta, paludosa e legata a processi cartacei,
- dall’altro un’intelligenza amministrativa digitale che lavora in tempo reale processando enormi quantità di dati complessi, e producendo risultati che nulla hanno a che vedere con le capacità di singoli funzionari.
Tuttavia, questa transizione verso un’amministrazione digitale basata sull’IA richiede regole chiare e condivise. Senza queste, si rischia di sostituire il tradizionale funzionario pubblico, visibile e responsabile, con un «burocrate invisibile», efficiente ma incapace di essere compreso e controllato dai cittadini. Questa opacità mina alla radice principi democratici quali la trasparenza e la possibilità di ricorso.
Indice degli argomenti
Quando l’algoritmo assume un poter decisionale
Negli ultimi anni esempi concreti si sono manifestati in vari paesi evidenziando sia i rischi sia l’urgenza di una governance responsabile dell’IA. Nei Paesi Bassi, ad esempio, l’algoritmo SyRI, progettato per individuare frodi nel welfare, ha ingiustamente identificato migliaia di famiglie – in particolare straniere – come potenziali evasori fiscali. Il risultato è stato drammatico, circa 20 mila nuclei familiari hanno perso l’accesso ai sussidi senza alcuna possibilità di difesa efficace. L’onda d’urto politica e sociale generata da questo scandalo ha portato nel 2021 alle dimissioni dell’intero governo olandese.
Un caso analogo si è verificato nel Regno Unito, dove durante la pandemia un algoritmo utilizzato per l’assegnazione dei voti agli studenti ha sistematicamente penalizzato coloro che provenivano da scuole meno prestigiose. Le forti proteste pubbliche hanno costretto le autorità a ritirare in fretta e furia i risultati ottenuti con quel metodo automatizzato.
Questi episodi rivelano una realtà spesso ignorata, gli algoritmi non sono mai neutri. Sono infatti progettati con regole, criteri e dati che possono incorporare bias nascosti, amplificando disuguaglianze e ingiustizie. Se il cittadino non può conoscere o contestare le decisioni prese con l’ausilio dell’IA, viene meno uno dei pilastri essenziali della democrazia, ovvero la possibilità di partecipazione e controllo.
La governance dell’IA, dall’opacità alla trasparenza
Per prevenire derive autoritarie e garantire che l’IA operi nel rispetto dei diritti fondamentali è necessario sviluppare una governance cognitiva e partecipativa dell’intelligenza artificiale nella pubblica amministrazione. Non basta applicare norme tecniche ma occorrono principi chiari, condivisi e democraticamente controllabili. Alcune amministrazioni europee stanno già indicando la strada. Amsterdam e Helsinki hanno creato registri pubblici degli algoritmi comunali, ogni cittadino può vedere quali sistemi sono in uso e con quali criteri prendono decisioni. È un passo verso una vera educazione civica algoritmica, dove il codice non è più un segreto industriale, ma un patrimonio condiviso.
I tre pilastri fondamentali di questa governance sono:
- Etica: progettare algoritmi con l’obiettivo di ridurre le disuguaglianze, anziché amplificarle, garantendo il rispetto dei diritti umani e delle diverse esigenze sociali.
- Trasparenza: ogni decisione automatica deve essere comprensibile dai cittadini e suscettibile di scrutinio pubblico, con la possibilità concreta di ricorso e revisione.
- Accountability: la responsabilità finale delle decisioni prese con l’ausilio degli algoritmi deve restare sempre in capo alle istituzioni e non al software, assicurando così adeguati meccanismi di controllo e sanzione.
In Italia, le Linee Guida di AgID sull’intelligenza artificiale nella Pubblica Amministrazione incarnano proprio questa visione, promuovendo audit indipendenti, tracciabilità delle logiche decisionali e il diritto dei cittadini a richiedere un riesame umano. Si tratta di un vero cambio di paradigma: non si tratta soltanto di inserire nuovi algoritmi, ma di costruire una nuova fiducia pubblica nei confronti di questi strumenti.
Non è un dettaglio marginale: il Consiglio di Stato ha affermato che ogni algoritmo usato nella PA deve essere trasparente e accessibile; in caso contrario, gli atti amministrativi prodotti benché validi sul piano formale, rischiano l’annullamento. Parallelamente a livello europeo il recente AI Act introduce obblighi stringenti per i sistemi ad alto rischio impiegati nella pubblica amministrazione, imponendo ulteriori garanzie di sicurezza e correttezza.
Oltre i rischi: i benefici dell’intelligenza artificiale nella PA
Nonostante le criticità e i rischi evidenziati, l’uso responsabile dell’intelligenza artificiale può portare grandi vantaggi. L’adozione di sistemi AI nella pubblica amministrazione permette di ottimizzare i processi interni, migliorare la qualità dei servizi offerti ai cittadini e rendere più efficiente la gestione delle risorse pubbliche.
Diversi modelli innovativi sono stati sperimentati con successo, dall’automatizzazione delle risposte alle richieste di informazioni, alla previsione di fabbisogni sociali, fino all’analisi predittiva per la prevenzione di frodi o abusi.
Tuttavia, per valorizzare appieno questi benefici è fondamentale che le tecnologie siano integrate in un’architettura istituzionale trasparente, partecipata e regolamentata, che metta al centro i diritti delle persone e l’etica pubblica.
Verso un’amministrazione digitale di qualità
L’intelligenza artificiale non è un pericolo in sé ma un’opportunità che deve essere gestita con attenzione e responsabilità. Il futuro della pubblica amministrazione digitale dipenderà dalla capacità delle istituzioni di adottare strumenti efficaci di governance e di instaurare un dialogo con i cittadini, fondato sulla chiarezza e sulla fiducia reciproca; solo così sarà possibile costruire un’amministrazione pubblica che sia non solo più efficiente, ma anche più giusta, trasparente e partecipativa.











