L‘intelligenza artificiale nella pubblica amministrazione rappresenta oggi molto più di un’innovazione tecnologica: è una questione di governance democratica, sovranità digitale e ridefinizione del rapporto tra istituzioni e cittadini. Mentre le strategie internazionali delineano principi condivisi, la sfida reale si gioca nella capacità di tradurli in pratiche concrete, affrontando le tensioni tra efficienza e trasparenza, tra dipendenza tecnologica e autonomia decisionale.
Negli ultimi cinque anni si è registrata un’esplosione di strategie nazionali sull’intelligenza artificiale: oltre 60 Paesi hanno pubblicato o stanno elaborando piani di settore.
Indice degli argomenti
AI come fattore di governance e rischi sistemici
Se nel settore privato l’adozione dell’AI è guidata principalmente da logiche di efficienza e competitività, nel settore pubblico la posta in gioco è molto più alta: riguarda la capacità dello Stato di mantenere la propria legittimità, di rafforzare la fiducia sociale e di garantire l’equitànell’accesso ai diritti e ai servizi.
In questo senso, l’AI per la pubblica amministrazione non è un semplice strumento operativo, ma un fattore strategico di governance. Può contribuire:
- a migliorare la qualità delle decisioni politiche, grazie alla capacità di analizzare enormi volumi di dati e di identificare eventuali pattern invisibili all’occhio umano;
- può incrementare l’efficienza dei processi amministrativi, attraverso processi di automazione e possibilità di riduzione della burocrazia;
- può rendere, attraverso una capacità di profilazione accurata e dinamica, i servizi pubblici personalizzabili, inclusivi, predittivi.
Tuttavia, come evidenziato in molte sedi istituzionali internazionali (OECD, UNESCO, World Bank, G7), questa promessa non può essere separata dall’accettazione di rischi significativi: deficit di trasparenza, bias algoritmici, violazioni della privacy, concentrazione di potere nelle mani di pochi attori tecnologici globali, esterni alle aree di sovranità nazionali od europee.
Le tre faglie critiche dell’AI nella pubblica amministrazione: dati, istituzioni, geopolitica
Questa trasformazione, che presenta potenzialmente grandissimi vantaggi, apre anche tre faglie critiche, che non possono essere trascurate.
- La prima è epistemica: l’affidabilità deii sistemi di AI dipende in buona parte dalla qualità dei dati che li alimentano. Senza standard comuni, protocolli di interoperabilità e garanzie di qualità, le amministrazioni rischiano di diventare “ricche di dati, ma povere di conoscenza”, con modelli algoritmici che amplificano errori possibili, invece di identificarli, mitigarli o correggerli.
- La seconda faglia è istituzionale: l’AI, inevitabilmente, permette di redistribuire, in maniera spesso imprecisata, condizioni di discrezionalità e responsabilità. Chi sarebbe chiamato a rispondere di un errore algoritmico? Il fornitore, l’ente che lo acquista e lo utilizza, il funzionario che lo applica? In questa vaghezza si rischia di non poter garantire il diritto alla qualità e all’imparzialità dei servizi.
- La terza è geopolitica: la capacità di sviluppare modelli avanzati, di accedere a infrastrutture computazionali avanzate e di garantire la stabilità infrastrutturale è concentrata in poche grandi piattaforme globali, mentre molti Stati – tra cui quelli europei – rischiano di rimanere dipendenti da soluzioni proprietarie che non hanno la possibilità di controllare direttamente.
Il tema appare tanto più urgente se consideriamo che l’adozione dell’AI da parte dei governi, anche in un contesto teoricamente omogeneo come quello europeo, non è uniforme: a livello internazionale emergono forti differenze di cultura sociale dell’innovazione, di readiness digitale, di capacità amministrativa e di maturità delle infrastrutture dati.
L’Europa, con l’AI Act, e più in generale con il programma Digital Decade, sta cercando di elaborare e proporre un modello regolatorio capace di rispecchiare una concezione di innovazione digitale positiva, a livello sociale, culturale ed economico, fondato sulla centralità dei diritti e sulla fiducia. Tuttavia, nel resto del mondo i percorsi divergono: negli Stati Uniti si sta sempre più imponendo un modello di deregulation, finalizzato prevalentemente alla competitività di mercato per le aziende private; in Asia e Medio Oriente sembra prevalere un approccio “tecnocratico”, orientato alla velocità di implementazione e alla garanzia di margini rigidi di sovranità; in America Latina e in Africa, pur con numerose differenze, il dibattito sembra concentrarsi prevalentemente sulla necessità di prevenire rischi di nuove forme di colonialismo, di colmare divari digitali e garantire processi diffusi di inclusione sociale.
Questo articolo intende offrire una visione complessiva e una prospettiva critica sull’applicazione dell’AI per il settore pubblico, articolando l’analisi su tre direttrici prioritarie:
- la necessità di strategie e modelli di governance multilivello;
- l’analisi di alcuni casi d’uso ed esempi di valore pubblico generato;
- la sfida, sempre più rilevante, della necessità di ripensamento della competenza e della cultura organizzativa.
L’obiettivo è pertanto duplice: da una parte, cercare di mettere a fuoco il problema, oggi più che mai complesso da gestire, della armonizzazione tra visioni globali e bisogni locali; dall’altra, esplorare le condizioni – culturali, strutturali, operative – per garantire un’adozione dell’AI che non rischi di compromettere i valori democratici, ma che li abiliti, li tuteli, li rafforzi.
Strategie globali: principi e strumenti operativi
Negli ultimi cinque anni, com’è facile riscontrare dall’onnipresenza mediatica del tema, si è registrata una vera e propria esplosione di strategie nazionali sull’intelligenza artificiale, a livello internazionale: oltre 60 Paesi hanno pubblicato o stanno elaborando piani nazionali di settore. A livello globale, istituzioni intergovernative o sovra-governative, come OECD, UNESCO e World Bank hanno posto l’accento sulla necessità di definire ed implementare perimetri comuni, pur riconoscendo che, al variare dei contesti socio-culturali e geopolitici, le traiettorie di sviluppo non sono sovrapponibili. UNESCO, con la sua Raccomandazione sull’etica dell’AI (2021), ha definito alcuni principi fondativi – come i diritti umani, l’inclusione, la trasparenza – da considerare come elementi di riferimento, nella definizione di una baseline universale. L’OECD, con i suoi Principles on AI (2019 e 2024), ha cercato di promuovere un atteggiamento collettivo per un’adozione “trustworthy”, cioè affidabile e responsabile, enfatizzando le caratteristiche necessarie dell’accountability e della robustezza dei sistemi. Più recentemente, il G7 Toolkit per l’AI nel settore pubblico (2024) ha cercato di tradurre questi principi in pratiche operative di settore, con un’attenzione particolare alla governance, al procurement innovativo e al ripensamento delle prospettive di formazione del capitale umano.
L’impronta regolatoria europea e gli spazi dati
A livello europeo, il percorso è stato caratterizzato, come ben noto, da un forte imprinting regolatorio, che in molti casi ha caratterizzato l’attuazione di visioni geopolitiche comunitarie nel settore digitale. L’AI Act, approvato nel 2024 e già sottoposto a numerosi riflessioni migliorative, ha definito la cornice di un quadro vincolante, basato sulla logica del “risk-based approach”: si presta massima attenzione agli ambiti di applicazione ad alto rischio (giustizia, sanità, sicurezza) e si esprime un esplicito divieto per quelle ritenute incompatibili con i diritti fondamentali (come il social scoring). Parallelamente, iniziative come l’istituzione dell’AI Watch, un hub in capo al Joint Research Centre della Commissione Europea hanno fornito prospettive di riflessione e strumenti di monitoraggio delle politiche, mentre le iniziative di attuazione del Data Governance Act e progetti di innovazione infrastrutturale come il Common European Data Space puntano a garantire la coerenza, la disponibilità e l’interoperabilità dei dati, condizione imprescindibile per ogni applicazione di AI nel settore pubblico. L’Europa sembra quindi confermarsi come un laboratorio normativo mondiale, in cui la tutela della cittadinanza e la legittimazione democratica rimangono al centro del disegno strategico di innovazione di settore.
Differenze nazionali e il caso italiano
A livello nazionale, com’è noto, i modelli divergono notevolmente, in base alle condizioni delle infrastrutture cognitive (educazione, formazione, trasferimento di conoscenza), tecnologiche (potere computazionale, connettività, disponibilità di dati) e di governance (capacità di coordinamento, regolazione, accountability). Paesi come l’Estonia hanno costruito architetture digitali avanzate, come X-Road, per garantire l’interoperabilità totale dei dati pubblici e la centralizzazione della governance dell’AI nel settore pubblico. Singapore, con il programma Smart Nation, ha elaborato una prospettiva digitale di lungo termine e fatto dell’uso predittivo dei dati una leva per garantire servizi pubblici personalizzati e il perseguimento di politiche evidence-based. Gli Emirati Arabi Uniti hanno creato un Ministero per l’IA, l’economia digitale e il lavoro remoto, e sperimentano applicazioni in quasi tutti i settori governativi. L’Italia, pur avendo elaborato la propria prima Strategia Nazionale per l’AI nel 2021, poi aggiornata e rilanciata nel 2024, sembra soffrire di un divario nella fase di implementazione: mancano infrastrutture diffuse, capacità di coordinamento interministeriale, massa critica di dati pubblici e investimenti sistematici sulle competenze.
La necessità di un’armonizzazione multilivello
Il vero nodo sembra dunque essere, a livello internazionale, la mancanza di una strategia – e forse anche della volontà – di un’azione di armonizzazione multilivello. Mentre i principi globali e le norme europee forniscono un orientamento comune, l’attuazione concreta dipende dalla capacità e dalla volontà degli Stati – e, a cascata, delle amministrazioni locali ai diversi livelli territoriali – di tradurre tali cornici in strategie politiche coerenti, evitando sia il rischio di frammentazione, sia, al contrario, l’eccesso di centralizzazione. Il rischio, com’è facile comprendere, è dunque duplice, a livello di configurazione futura degli scenari: da un lato, un mosaico incoerente di sperimentazioni locali, che rende impossibile la scalabilità e impraticabile un’idea realt di sovranità tecnologica; dall’altro, un approccio iper-centralizzato che rischia di soffocare l’innovazione dal basso e la possibilità reale partecipazione dei cittadini, tanto a livello di governance, quanto a livello di utilizzo diffuso.
Enti locali: dove i dati diventano valore pubblico
Se, come abbiamo visto, le strategie nazionali e sovranazionali cercano di ferinire il perimetro valoriale, le cornici regolatorie e le traiettorie di lungo periodo, è a livello locale che l’AI incontra, nella quotidianità dell’applicazione, la concretezza puntuale della governance: la gestione dei dati anagrafici e catastali, la datificazione delle reti di trasporto, le statistiche sui consumi energetici, l’analisi dei flussi di mobilità, il monitoraggio dei registri della spesa sociale. Per farla breve, glli enti locali rappresentano i punti reali in cui i dati pubblici assumono una dimensione realmente azionabile, immediatamente concreta, radicata nei bisogni dei cittadini. È da qui che si deve misurare la reale capacità di tradurre l’AI in un nuovo, possibile motore di attivazione del valore pubblico.
Superare la frammentazione: interoperabilità e literacy
La disponibilità dei dati, però, come finalmente si comincia a comprendere, non è più sufficiente. Molte amministrazioni comunali e macro-territoriali si trovano, oggi, in una condizione di paradosso informativo: dispongono di grandi quantità di informazioni, ma in formati non interoperabili, talvolta distribuiti in silos, spesso con standard tecnici disomogenei e con vincoli giuridici – o semplicemente gestionali – poco chiari. Questa frammentazione produce sistemi, come si dice, “ricchi di dati ma poveri di conoscenza” (data-rich but insight-poor). Per superare questo blocco sarà necessario un investimento deciso non solo in infrastrutture digitali, ma soprattutto literacy diffusa, per l’abilitazione degli enti, e in governance dei dati, cioè in regole chiare su come i dati vengono raccolti, elaborati, condivisi, valorizzati, conservati e trasmessi.
Sovranità informativa e democrazia digitale territoriale
E proprio su questo tema emerge la questione, oggi più che mai cruciale, della sovranità informativa. Chi controlla i dati locali? Chi decide quali dataset possono essere messi a disposizione, e con quali condizioni? Chi definisce i livelli di rilevanza dell’informazione a disposizione, e chi prioritizza le strategie di analisi? In assenza di politiche robuste e accurate, il rischio è che i comuni cedano implicitamente, in maniera più o meno consapevole, la titolarità del proprio patrimonio informativo a soggetti privati, che lo usano per finalità commerciali o per favorire logiche di monopolio tecnologico. Alcune esperienze europee, come quella di Barcellona, con i suoi progetti di data commons, mostrano la possibilità di un percorso alternativo: i dati generati dalla città sono trattati come beni comuni digitali, come una risorsa collettiva, gestiti con forme di controllo pubblico e di partecipazione civica estesa.
Dati, potere e democrazia digitale
Questo approccio, com’è chiaro, ha conseguenze politiche significative. La gestione dei dati non può essere considerata solamente come un’operazione tecnica, ma come un vero e proprio atto di redistribuzione del potere. I dati locali, come mostrano numerosi esempi a livello internazionale, possono essere utilizzati tanto per costruire sistemi di sorveglianza quanto per generare nuove forme di inclusione e partecipazione. Possono rafforzare l’autonomia dei cittadini o favorirne la dipendenza inconsapevole da infrastrutture opache. Proprio per questo motivo, la concezione e la costruzione di spazi dati territoriali interoperabili non è soltanto una questione di efficienza amministrativa, o di solidità tecnologica: è un progetto di democrazia digitale, in cui parte della qualità delle scelte istituzionali dipende anche dalla capacità di comprendere, riconoscere e proteggere il valore dei dati come patrimonio collettivo.
Dal ruolo passivo a quello proattivo degli enti
In definitiva, gli enti locali non possono considerarsi soltanto come utilizzatori passivi di strumenti di AI, ma devono imparare a diventarne attori proattivi, che hanno la possibilità – e forse la responsabilità – di contribuire a definirne le condizioni di introduzione, diffusione e applicabilità. Governare i dati significa determinare chi può partecipare alla produzione della conoscenza pubblica, chi può beneficiare dei suoi effetti e decidere le modalità di redistribuzione delle opportunità generate dalle strategie di innovazione. È proprio in questa prospettiva che l’AI, introdotta e utilizzata a livello locale, rappresenta un test cruciale sulla capacità delle istituzioni di trasformare le informazioni in beni comuni, e di ancorare la transizione digitale a veri principi di equità e trasparenza.
Partenariato pubblico-privato: ambivalenze e rischi
Per quanto le strategie cerchino di fondarsi su una visione di orientamento collettivo, certamente l’adozione dell’AI nel settore pubblico non può prescindere da una attenta riflessione sul rapporto con il settore privato, che detiene gran parte delle capacità tecnologiche, delle competenze e delle infrastrutture necessarie. Tuttavia, questa relazione, che richiederebbe, nell’intangibilità del mondo digitalizzato, un ripensamento stesso del concetto di sussidiarietà, è intrinsecamente ambivalente: da un lato è indispensabile per poter accedere in maniera rapida a innovazioni e risorse; dall’altro, risulta fortemente rischiosa per la sovranità tecnologica e per la capacità dello Stato di mantenere il controllo sulla definizione, l’orientamento e il perseguimento delle finalità pubbliche.
Tre tensioni chiave: dipendenza, asimmetria, finalità
Tra le tante, tre livelli di tensione meritano particolare attenzione.
- Dipendenza tecnologica: la maggior parte delle piattaforme e dei grandi sistemi di AI è sviluppata e controllata da pochi grandi attori globali, quasi esclusivamente extra-europei. L’uso da parte delle amministrazioni locali – ma in generale degli enti pubblici, come le università, o le aziende sanitarie – di modelli proprietari implica il rischio di lock-in contrattuali e tecnici, riducendo sensibilmente sia la possibilità di sostituire fornitori sia quella di adattare i sistemi alle reali esigenze locali. Questo è particolarmente evidente nei progetti di smart city, spesso basati su infrastrutture fornite da big tech, in cui la definizione degli standard e delle priorità, così come la proprietà e il controllo dei dati, diventano terreno di conflitto.
- Asimmetria informativa: le istituzioni pubbliche – dagli enti governativi agli enti locali più periferici – spesso non possiedono le competenze per valutare a fondo le strategie di integrazione di sistemi di AI, né, certamente, per comprendere la logica algoritmica più complessa. Senza strumenti reali di auditing indipendente e senza l’esistenza di standard condivisi rilevanti, il rapporto pubblico-privato rischia di trasformarsi in un atto di delega cieca, con conseguenze imprevedibili, sul piano della responsabilità legale e politica.
- Finalità divergenti: mentre il settore privato è portato a massimizzare i ritorni economici e conquistare quote di mercato, il settore pubblico deve perseguire finalità di equità, trasparenza e inclusione. Se non ben regolata, la collaborazione può portare a una colonizzazione del bene pubblico da parte di logiche di profitto, difficilmente disinnescabili, una volta consolidata una condizione di dipendenza tecnologica.
Procurement innovativo e ecosistemi competitivi
Al tempo stesso, ignorare il valore che potenzialmente può derivare da questo tipo di partnership significherebbe rinunciare a possibilità cruciali di innovazione. I governi certamente potrebbero giocare un ruolo attivo, nell’adozione di nuove forme di procurement innovativo: ad esempio bandi aperti che, anziché prescrivere soluzioni, definiscono problemi; che propongono contratti modulari, per consentire sperimentazioni a basso costo; che introducono clausole che garantiscono interoperabilità e riuso dei dati. L’esperienza di contesti molto avanzati, come Canada, Regno Unito e Singapore, dimostra che approcci più agili alla fornitura tecnologica possono ridurre i rischi di lock-in e stimolare l’attivazione di ecosistemi più competitivi.
Rafforzare capacità pubbliche e valorizzare le PMI
Infine, la cooperazione pubblico-privato dovrebbe trovare spazi di bilanciamento di una rinnovata capacità negoziale e regolatoria dello Stato. Ciò significherebbe, evidentemente, investire in talenti interni, sviluppare centri di competenza nazionali e urbani più specializzati, rafforzare il potere di audit delle autorità pubbliche. Ma allo stesso tempo occorrerebbe valorizzare in modo diverso il contributo del settore privato – promuovendo in particolare il valore delle PMI e delle soluzioni tecnologiche made in Europe – come partner strategico nella co-produzione di valore pubblico. Solo così il partenariato eviterà sia di degenerare in una delega di sovranità, sia di congelare la capacità generativa delle imprese, alimentando un ecosistema equilibrato di responsabilità condivise e innovazione sostenibile.
AI nella PA: competenze e cultura organizzativa come prerequisiti
L’introduzione dell’AI nel settore pubblico, come abbiamo visto, non può essere concepita soltanto come un progetto tecnologico: deve essere considerata, soprattutto, come una trasformazione organizzativa e culturale. Nessuna architettura normativa o infrastrutturale potrà davvero produrre valore, se la pubblica amministrazione non disporrà delle competenze, della leadership legittima e della cultura necessarie a comprendere pienamente ed integrare l’AI nei processi quotidiani.
Tre sfide: competenze tecniche e trasversali, resistenze culturali
Tre sfide, quindi, emergono con chiarezza.
- Competenze tecniche e analitiche: la PA necessita di data scientist, ingegneri del software, esperti di cybersecurity, ma anche di profili realmente multidisciplinari, capaci di dialogare tra il dominio tecnico e il dominio politico, tra potenzialità digitali e impatto sociale. La scarsità di questi talenti rende troppo spesso i governi e il settore pubblico dipendenti dal settore privato. In risposta, molti Paesi stanno cercando di sviluppare framework di competenze specifici per l’AI nel settore pubblico: l’OECD, ad esempio, ha proposto un modello per una digital talent strategy (2021), mentre l’UE ha pubblicato un documento di linee guida sulle competenze per l’AI nella PA (2024).
- Competenze trasversali: oltre agli specialisti, per l’implementazione tecnologica, servono funzionari in grado di utilizzare gli strumenti di AI in maniera critica e consapevole. La formazione deve riguardare non soltanto l’uso pratico, ma anche la comprensione dei rischi etici, delle implicazioni legali e delle logiche di accountability.
- Resistenze culturali: l’adozione dell’AI spesso incontra diffidenza, la paura dell’obsolescenza o della sostituibilità delle competenze umane, percezione di perdita di autonomia decisionale. Molte ricerche mostrano, ormai, con una certa evidenza, che l’AI, se correttamente introdotta, può essere ampiamente utilizzata dai dipendenti pubblici come un vero alleato, in grado di ridurre il peso burocratico e di migliorare sensibilmente la qualità del lavoro.
AI governance skills e nuovo ruolo del funzionario
La questione centrale non è quindi semplicemente quella di “insegnare a usare l’AI”, ma quella di costruire una cultura organizzativa adattiva. Ciò implica leadership capaci di decifrare le sfide contestuali, di orientare il cambiamento, di attivare modelli di formazione continua, sistemi di valutazione che incentivino l’uso consapevole delle tecnologie, e che prevedano l’adozione di meccanismi di ascolto delle resistenze interne. In prospettiva, le amministrazioni dovrebbero sviluppare non solo le necessarie digital skills, ma vere e proprie AI governance skills. Dovrebbero valutare, definire e prioritizzare le competenze per poter valutare, indirizzare e controllare sistemi intelligenti, in maniera coerente con le missioni pubbliche. In questo senso, la trasformazione potrebbe anche rappresentare un’occasione per ripensare il ruolo stesso del funzionario pubblico: non più un mero esecutore di procedure, ma un curatore di sistemi socio-tecnici, capace di trovare il punto d’equilibrio tra tecnologia, sistemi informativi complessi, valori e bisogni dei cittadini.
AI come tecnologia di governance per la PA
L’intelligenza artificiale non può quindi essere considerata come un semplice strumento tecnico, da integrare nelle amministrazioni pubbliche: rappresenta, piuttosto, una tecnologia di governance, capace di ridefinire le relazioni tra Stato, enti locali, cittadini e mercato. La sua adozione, necessaria e imprescindibile, nel settore pubblico, solleva domande che vanno ben oltre il tema dell’efficienza operativa, che riguardano il modo in cui cambieranno la legittimità democratica, la sovranità dei dati, la fiducia collettiva e gli elementi alla base della coesione sociale.
Dai principi alle pratiche quotidiane
Le strategie internazionali e macro-regionali – dall’AI Act europeo alle raccomandazioni UNESCO, dalle linee guida OECD al G7 Toolkit – hanno delineato e proposto principi chiari: trasparenza, equità, inclusione, accountability. Ma la sfida reale è la possibilità di tradurre tali principi in pratiche quotidiane, all’interno di amministrazioni spesso caratterizzate da condizioni di sovraccarico operativo e cognitivo, da carenze di competenze, da contesti di frammentazione dei dati e forti resistenze culturali.
Il livello locale, in particolare quello urbano, può apparire dunque come il laboratorio cruciale, per testare e scalare soluzioni di AI: qui si incontrano i dati, i cittadini e le necessità politiche – dinamiche, complesse, multilivello – da affrontare in tempo reale. Le città possono diventare – e forse dovrebbero reimmaginarsi – come avamposti di innovazione civica, ma solo se adeguatamente supportate da infrastrutture interoperabili e da modelli di partecipazione che restituiscano ai cittadini un ruolo attivo nella governance digitale, sia a livello di evoluzione culturale, sia a livello di capacità di monitoraggio.
Quale ai adottare e a beneficio di chi
In prospettiva, dovremmo quindi imparare a riconoscere come il rischio maggiore non sia l’errore tecnico, ma l’asimmetria di potere: tra governi e grandi piattaforme private, tra Stati con capacità digitali elevate e Paesi più arretrati, tra istituzioni pronte all’accelerazione e cittadinanze escluse dalla trasformazione, o semplicemente non coinvolte. Per questo, l’AI nel settore pubblico deve essere concepita come un bene comune strategico, senza semplificazioni strategiche, senza concessioni di sovranità, senza forzature deliberative. La domanda a cui le democrazie sono oggi chiamare a rispondere non è “se” adottare l’AI, ma “quale AI adottare, con quali valori e a beneficio di chi”. Se guidata con visione, gestita con rigore e implementata con inclusività, l’intelligenza artificiale potrà realmente diventare il pilastro di una nuova stagione di democrazia digitale, in cui la tecnologia potrà rafforzare – in modi fino a tempi recenti impensabili – il legame tra le istituzioni e i cittadini.
Per gli enti locali, quindi, la domanda centrale rimane una: la capacità di valorizzazione dei dati è una risorsa tecnica di efficientamento gestionale, o un’opportunità per trasformare la conoscenza collettiva in bene comune?















