strategia

AI nella PA: oltre i prototipi, verso servizi che funzionano



Indirizzo copiato

L’AI nella Pubblica Amministrazione italiana ha un potenziale quantificabile: fino a 15 miliardi di euro annui in efficienza. Ma il 95% dei pilota non produce valore. Servono visione, metodo, competenze e infrastrutture dati per trasformare le sperimentazioni in servizi stabili e replicabili

Pubblicato il 16 mar 2026

David Casalini

Head of TEHA Lab



Soluzioni intelligent document processing
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’intelligenza artificiale nella Pubblica Amministrazione è già una realtà in molti paesi europei.

In Italia, però, la distanza tra sperimentazione e adozione stabile resta ampia: la maggior parte dei progetti rimane bloccata in fase pilota, senza mai tradursi in servizi concreti per cittadini e imprese.

Le ragioni sono strutturali – normative, organizzative, culturali – e richiedono un approccio sistematico. Quello che segue è un’analisi dei nodi critici e dei cinque “muscoli” che le amministrazioni devono allenare per trasformare il potenziale in risultati misurabili.

Dal pilota al servizio: il vero problema dell’AI nella PA

L’intelligenza artificiale nella Pubblica Amministrazione viene spesso raccontata come un tema “tech”: modelli, piattaforme, sperimentazioni, demo. In realtà è un tema di capacità amministrativa. La domanda che conta non è quanta AI abbiamo provato, ma quanta ne abbiamo trasformata in servizi stabili, misurabili e replicabili.

Un segnale che vale la pena prendere sul serio: secondo un’analisi del MIT solo il 5% dei progetti pilota di AI sta effettivamente creando valore misurabile mentre la stragrande maggioranza rimane bloccata senza alcun impatto misurabile sul conto economico. La creazione di valore dell’AI non riguarda la quantità di progetti pilota, ma la qualità dell’implementazione creando un divario sistematico tra sperimentazione e industrializzazione.

L’impatto potenziale è enorme, ma non è una bacchetta magica

Se si guarda alla PA come “macchina” fatta di processi, norme, controlli e servizi, l’AI promette qualcosa di molto concreto: produttività e qualità. Non nel senso di correre di più, ma nel senso di recuperare tempo buono: meno tempo su attività ripetitive, più tempo su decisioni, eccezioni, casi complessi, relazione con cittadini e imprese.

I numeri parlano chiaro. Uno studio del 2023 dell’OCSE sul potenziale dell’AI nel settore pubblico stima che l’automazione intelligente potrebbe liberare tra il 20% e il 30% del tempo lavorativo attualmente dedicato ad attività amministrative ripetitive. Applicando queste stime alla PA italiana (circa 3,2 milioni di dipendenti pubblici), si tratterebbe di un equivalente compreso tra 640.000 e 960.000 anni-persona di capacità potenzialmente recuperabile. In termini economici, alcune analisi del Politecnico di Milano quantificano il valore potenziale in un risparmio di efficienza tra 8 e 15 miliardi di euro annui, se l’adozione fosse sistematica e ben governata.

È importante leggerla bene: non come “tagli”, ma come capacità addizionale. In un Paese dove la domanda di servizi cresce, l’età media della popolazione aumenta e la complessità normativa non diminuisce mai, la capacità è un bene strategico.

Il rischio è l’altra faccia della promessa: aspettarsi risultati “automatici”. L’AI non porta valore perché esiste; porta valore quando viene inserita in un sistema che sa governare dati, processi e responsabilità.

Il paradosso italiano: potenziale alto, adozione disomogenea

L’Italia ha un paradosso tipico: grande spazio di miglioramento e, allo stesso tempo, un’adozione ancora disomogenea di strumenti e pratiche digitali avanzate. Secondo il DESI 2024 (Digital Economy and Society Index), l’Italia si colloca al 18° posto su 27 paesi UE per digitalizzazione dei servizi pubblici, con performance particolarmente deboli nell’interoperabilità e nell’uso di dati aperti. Ancora peggio se andiamo a vedere l’adozione dell’AI generativa.

Secondo i dati Eurostat 2025, solo il 19,9% degli italiani tra i 16 e i 74 anni ha utilizzato strumenti di AI generativa negli ultimi tre mesi, contro una media UE del 32,7%. Siamo molto lontani dai Paesi nordici, dove l’adozione supera spesso il 45–50%.

Questo vale nella società e vale nella PA. Quando l’adozione è lenta, succedono due cose:

  1. Si accumulano progetti “una tantum” che non fanno massa critica
  2. La PA fatica a diventare un cliente competente, capace di chiedere bene, comprare bene, valutare bene e governare bene

E qui sta il nodo: senza un cliente competente, anche il miglior fornitore produce soluzioni fragili o isolate. La trasformazione non si compra in scatola.

Caso pratico: la trappola del prototipo eterno

Secondo AgID su 120 progetti AI censiti nelle amministrazioni centrali italiane, oltre un terzo si trova ancora in fase esplorativa di Proof of Concept o prototipazione preliminare, mentre solo il 20% dei progetti ha definito KPI di performance per misurare i vantaggi concreti.

Tutti hanno prodotto demo funzionanti. Nessuno è mai entrato in produzione stabile. Perché? Mancavano standard sui dati (ogni ufficio usava formati diversi), procedure chiare di approvazione, budget dedicato per il passaggio da POC a servizio, competenze interne per la manutenzione. Risultato: euro investiti, servizi non attivi, frustrazione diffusa.

Al contrario, la città di Barcellona ha adottato un approccio diverso con il progetto “Sentilo“: ha prima standardizzato la raccolta dati IoT in tutta la città, poi ha costruito una piattaforma condivisa, infine ha lanciato 5 use case AI (gestione traffico, raccolta rifiuti, qualità aria, illuminazione, rumore) tutti basati sulla stessa infrastruttura. Risultato: tutti e 5 in produzione entro 18 mesi, costi di deployment ridotti del 60% dopo il primo caso d’uso.

Le barriere che rallentano (e come superarle)

Prima di parlare di soluzioni, vale la pena nominare gli ostacoli reali:

Vincoli normativi e procurement inadeguato

Il Codice degli Appalti non è stato pensato per l’acquisto di servizi AI, che richiedono spesso iterazioni, adattamenti, personalizzazione continua. Le gare tendono a premiare il prezzo più basso, non la qualità o la capacità di manutenzione nel tempo.

Frammentazione istituzionale

L’Italia ha oltre 7.900 comuni, 20 regioni, decine di autorità indipendenti. Ogni ente tende a ripartire da zero. La condivisione di soluzioni è l’eccezione, non la regola. Spesso la “non condivisione” serve a gestire il potere. Non va trattata come una semplice friction ma come una scelta deliberata.

Shortage di competenze critiche: Secondo dati AgID, solo il 12% delle amministrazioni centrali e il 7% degli enti locali dispongono di figure professionali dedicate all’AI o al machine learning. La maggior parte delle amministrazioni non ha nemmeno data scientist o data engineer.

Dati frammentati e di bassa qualità

Molte banche dati pubbliche sono incomplete, non aggiornate, non interoperabili. Senza dati puliti, l’AI amplifica il rumore invece di estrarre segnale.

Cultura del rischio avversa all’innovazione

In un contesto dove l’errore può significare responsabilità amministrativa, la tendenza naturale è evitare la sperimentazione piuttosto che proteggerla.

I cinque muscoli che fanno la differenza

Per uscire dalla trappola dei prototipi eterni serve allenarsi, in parallelo, cinque muscoli organizzativi.

Ambizione concreta: una visione che guida le scelte

“Visione” non significa slogan. Significa scegliere: pochi processi ad alto impatto, obiettivi misurabili, e confini chiari (dove l’AI non va usata). Nella PA una visione utile spesso prende la forma di una mappa strategica:

  • Quali processi sono più costosi o più lenti?
  • Dove si accumulano arretrati cronici?
  • Dove la qualità del controllo è più importante della velocità?
  • Quali servizi toccano più cittadini e imprese?

Senza questa mappa, l’AI diventa decorazione: tante iniziative simpatiche, nessuna trasformativa.

Strumento pratico: La matrice impatto/fattibilità. Prima di avviare qualsiasi progetto AI, valutare:

  • Impatto potenziale: quanti utenti tocca? Quanto tempo/costo libera? Migliora la qualità del servizio?
  • Fattibilità tecnica: i dati ci sono e sono affidabili? Le competenze sono disponibili? I vincoli normativi sono chiari?

Concentrarsi sui quadranti “alto impatto / alta fattibilità” nei primi 12-18 mesi. Gli altri possono aspettare.

Sperimentazione protetta: innovare senza “rompere” la fiducia

La PA non può permettersi sperimentazioni “a cuor leggero”, perché lavora su diritti, doveri, dati sensibili e decisioni con impatto reale. Ma proprio per questo la sperimentazione non va evitata: va protetta.

Sperimentazione protetta significa:

  • Sandbox tecniche: ambienti isolati dove testare senza toccare sistemi di produzione
  • Dati minimizzati e anonimizzati: mai usare dati reali completi in fase di test
  • Controlli di accesso rigorosi: chi può vedere cosa, chi può modificare cosa
  • Logging completo: traccia di ogni operazione per audit e debug
  • Policy esplicite: cosa può entrare, cosa può uscire, cosa può essere memorizzato

E soprattutto un percorso di promozione a produzione:

  • Test funzionali e di sicurezza (prima ancora di cominciare)
  • Approvazioni formali multi-livello
  • Monitoraggio continuo post-deployment
  • Possibilità di rollback immediato in caso di problemi

La regola d’oro: sperimentare sì, ma con guardrail. In una PA moderna, la prudenza ben progettata è un acceleratore, non un freno.

R&D multidimensionale: non è solo data science

Molti progetti AI falliscono perché vengono trattati come problemi “di modello”. Ma il modello è solo un pezzo. Il valore si crea quando si mettono insieme:

  • Processi e normativa: chi decide cosa, su quali basi, con quali vincoli legali
  • Dati: qualità, interoperabilità, lineage (da dove vengono), aggiornamento, governance
  • UX e change management: come l’operatore usa davvero lo strumento, come cambia il suo lavoro
  • Sicurezza e privacy: gestione accessi, audit trail, data retention, minimizzazione
  • Procurement e contratti: cosa si compra, con che responsabilità, con quali SLA, con che evidenze di qualità
  • Formazione continua: upskilling del personale esistente, non solo assunzione di nuovi profili

In altre parole: l’R&D sull’AI in PA è un lavoro di ingegneria organizzativa oltre che tecnologica.

Best practice internazionale: Il UK Government Digital Service ha adottato un modello multidisciplinare obbligatorio per ogni progetto digitale: ogni team deve includere almeno un product manager, un designer, un tech lead, un data specialist e un policy advisor. Nessun progetto parte senza tutti e cinque i ruoli coperti.

Mobilità e contaminazione: far circolare competenze e soluzioni

Un difetto cronico è che ogni amministrazione ricostruisce la ruota da zero. Ma l’AI, per come funziona, premia l’effetto rete: standard condivisi, componenti riusabili, librerie di casi d’uso, comunità di pratica.

Questo muscolo è la replicabilità: progettare fin dall’inizio in modo che ciò che funziona in un ente possa essere adottato altrove con costi e tempi ragionevoli. Non significa uniformare tutto; significa condividere metodi, piattaforme, pattern e “kit di adozione”.

Esempi di replicabilità ben fatta:

  • Piattaforma Notifiche Digitali di PagoPa: una volta costruita, usabile da qualsiasi ente per inviare comunicazioni ai cittadini
  • ANPR (Anagrafe Nazionale): dati anagrafici interoperabili che evitano duplicazioni
  • SPID e CIE: identità digitale riusabile, non 8.000 sistemi diversi di autenticazione

Ciò che manca ancora è un catalogo nazionale di componenti AI riusabili: modelli pre-addestrati per casi d’uso comuni (classificazione documenti, riconoscimento firma, estrazione informazioni da PDF, chatbot FAQ, analisi sentiment), con licenze chiare, documentazione, esempi di deployment, community di supporto.

Etica e trasparenza by design: fiducia come infrastruttura

Nella PA la fiducia non è un concetto astratto: è parte del servizio. E l’AI, se usata male, può eroderla rapidamente.

Etica e trasparenza by design significa:

  • Tracciabilità delle decisioni: ogni output deve essere ricostruibile
  • Spiegabilità dove necessario: per decisioni ad alto impatto, servono strumenti di interpretabilità
  • Gestione dei bias: monitoraggio continuo per evitare discriminazioni (per età, genere, territorio, condizione socio-economica)
  • Protezione dei dati: privacy by design, minimizzazione, pseudonimizzazione
  • Responsabilità chiara: quando un sistema AI suggerisce o compie un’azione, bisogna sapere chi ha definito le regole, chi ha approvato l’uso, chi monitora gli errori, chi interviene quando qualcosa va storto

La fiducia non nasce dalle promesse: nasce dalla possibilità di ricostruire e correggere.

L’AI Act europeo (entrato in vigore a metà 2024) classifica molti usi della PA come “sistemi ad alto rischio“, richiedendo:

  • Documentazione tecnica completa
  • Sistema di gestione del rischio
  • Data governance e logging
  • Trasparenza e informazione agli utenti
  • Supervisione umana
  • Robustezza, accuratezza e cybersecurity

Le amministrazioni italiane devono prepararsi: entro il 2027 tutti i sistemi ad alto rischio dovranno essere conformi.

L’AI in PA non è una corsa, è un programma di allenamento

Il potenziale dell’AI nella Pubblica Amministrazione è reale e quantificabile: più capacità, più qualità, più velocità dove serve, più controllo dove conta. Ma quel potenziale non si sblocca con una piattaforma, né con una collezione di proof of concept.

Si sblocca costruendo muscoli: visione concreta, sperimentazione protetta, R&D multidimensionale, mobilità delle competenze, etica e trasparenza by design. In una parola: metodo.

Il futuro non aspetta che la PA sia pronta. Però la PA può scegliere se subirlo o allenarsi abbastanza da governarlo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x