Intelligenza Artificiale nella Pubblica Amministrazione: vi sembra un argomento già inflazionato? Ricredetevi. Mentre tutti parlano di ChatGPT e degli ultimi modelli delle big tech americane, c’è un’intera rivoluzione tecnologica che sta maturando nell’ombra.
Indice degli argomenti
Il paradosso dell’innovazione digitale nella Pubblica Amministrazione
Una rivoluzione che potrebbe cambiare radicalmente il modo in cui la PA italiana si rapporta con l’AI, risolvendo finalmente il paradosso che tiene svegli la notte i responsabili della trasformazione digitale: come innovare con l’intelligenza artificiale senza consegnare a terzi le chiavi del regno, ovvero i dati sensibili di milioni di cittadini?
Il dilemma è noto a chiunque abbia provato a implementare soluzioni AI in un ente pubblico. Da una parte c’è la pressione all’innovazione: i cittadini si aspettano servizi sempre più smart, il PNRR spinge sulla digitalizzazione, i colleghi del privato sembrano correre a velocità doppia. Dall’altra ci sono vincoli ferrei: GDPR che non ammette deroghe, NIS2 che alza ulteriormente l’asticella della cybersecurity, il Cloud PA che impone requisiti stringenti. E poi c’è la domanda che nessuno vuole fare ad alta voce: davvero vogliamo mandare i dati sanitari dei nostri cittadini, le loro pratiche edilizie, le loro denunce alla polizia locale su server di aziende americane o cinesi?
La svolta verso l’AI sovrana: una rivoluzione silenziosa
Fino a ieri, la risposta sembrava essere un doloroso compromesso: o rinunciare all’AI, o accettare il rischio. Ma qualcosa sta cambiando. E sta cambiando proprio adesso, nei prossimi dodici-diciotto mesi. Perché mentre le cronache raccontano solo della corsa ai modelli sempre più grandi e potenti, nel mondo della tecnologia si sta affermando un paradigma diverso: quello dell’AI privata, locale, sovrana.
Open Models: quando l’alternativa supera l’originale
Partiamo da un dato: i Large Language Models delle big tech sono straordinari, ma hanno tre problemi strutturali quando si parla di Pubblica Amministrazione. Il primo è economico: i costi a token si accumulano rapidamente quando si processano decine di migliaia di richieste. Il secondo è tecnico: la latenza di una chiamata API verso datacenter oltreoceano può essere incompatibile con applicazioni critiche. Il terzo è strategico: creare dipendenza da fornitori cloud proprietari significa consegnare leve di controllo su servizi pubblici essenziali.
Ed è qui che entrano in scena gli Open Models (che siano open source o open weight). Non sono la versione povera dei loro fratelli closed: sono un’architettura pensata per uno scopo diverso. Un modello Open Models con più di 100 miliardi di parametri o in formato SLM (small language models) con 7-13 miliardi di parametri, addestrato specificamente su un dominio (il linguaggio amministrativo italiano, la normativa edilizia regionale, le procedure sanitarie), può superare GPT-5 nelle sue task specifiche. E può farlo consumando risorse che stanno in una singola workstation con GPU, non in un datacenter.
I trend del 2026 stanno andando in questa direzione. Alcuni produttori e aziende italiani stanno pensando e stanno lanciando workstation AI accessibili anche ai budget pubblici. I modelli open source di qualità continuano a proliferare. E soprattutto, si sta consolidando un ecosistema di strumenti che permettono di addestrare, ottimizzare e rilasciare questi modelli senza bisogno di team di data scientist.
Sovranità digitale: AI utile su infrastrutture controllate
Per la PA italiana questo significa una cosa sola: per la prima volta, l’AI davvero utile, quella che risponde alle domande dei cittadini, che pre-compila i moduli, che smista le pratiche, può girare interamente su infrastrutture controllate. Senza mandare un singolo byte fuori dai confini nazionali.
Serverless: l’architettura intelligente per l’AI locale
Ma come si costruisce concretamente un’infrastruttura di AI privata? La risposta passa da un’architettura che sta rivoluzionando lo sviluppo cloud-native: il serverless. Non confondiamolo con il cloud pubblico classico: il serverless è un paradigma, non un luogo. E può essere implementato ovunque, dal datacenter regionale al server nell’ufficio IT del Comune.
Il concetto chiave è semplice: invece di gestire server, virtual machine, container e tutta la complessità infrastrutturale, gli sviluppatori scrivono funzioni. Piccoli pezzi di codice che vengono eseguiti solo quando servono, scalano automaticamente sotto carico, e tornano a zero consumo quando non c’è traffico. Perfetto per applicazioni AI dove il carico può variare enormemente (pochi utenti la domenica, picco enorme quando si apre un nuovo bando).
Apache OpenServerless: la piattaforma completa per la PA
Apache OpenServerless rappresenta l’evoluzione matura di questo paradigma. Costruito su Apache OpenWhisk, offre una piattaforma completa: dal backend serverless al database relazionale, dal database vettoriale per la Retrieval-Augmented Generation allo storage oggetti. Il tutto impacchettato in modo da girare su qualunque Kubernetes, che sia su AWS, Azure, Google Cloud o sul cluster privato dell’ente.
E qui sta il vantaggio strategico per la PA: scrivere un’applicazione AI una sola volta e poterla deployare ovunque. Oggi la testo sul cloud pubblico per sviluppare rapidamente. Domani, quando è in produzione con dati reali, la sposto su infrastruttura sovrana. Dopodomani, se cambiano i requisiti o le condizioni economiche, la migro di nuovo. Zero lock-in, massima flessibilità.
Procurement intelligente: architettura contro lock-in contrattuale
Per chi si occupa di procurement pubblico, questo risolve un problema annoso: come evitare di legarsi mani e piedi a un singolo vendor cloud senza rinunciare ai vantaggi della tecnologia moderna. La risposta è nell’architettura, non nel contratto.
Low-code AI: sviluppare senza essere sviluppatori
Ma se costruire applicazioni serverless richiede competenze avanzate, non abbiamo fatto molta strada. Ed è qui che entrano in gioco gli ambienti di sviluppo AI di nuova generazione. Non più IDE complessi riservati agli esperti, ma piattaforme che permettono di creare applicazioni di intelligenza artificiale con interfacce visuali e configurazioni dichiarative.
Sperimentazione rapida: dall’idea all’applicazione in giorni
Immaginate di poter costruire un chatbot che interroga la banca dati delle pratiche edilizie semplicemente descrivendo cosa deve fare, senza scrivere codice. O di poter creare un sistema di classificazione automatica delle email PEC configurando pochi parametri. Questi ambienti integrano nativamente sia LLM pubblici (per funzionalità generiche) sia modelli privati (per elaborazioni su dati sensibili), permettendo architetture ibride molto sofisticate.
Innovazione democratica: coinvolgere chi conosce i processi
Il vantaggio per la PA non è solo la velocità di sviluppo. È la possibilità di sperimentare. Di provare un’idea in pochi giorni invece che in mesi. Di iterare rapidamente basandosi sul feedback degli utenti. Di coinvolgere nel processo di innovazione anche persone che non sono sviluppatori di professione ma conoscono profondamente i processi amministrativi.
Caso pratico: dallo sportello tradizionale al servizio intelligente
Un esempio concreto: il sistema di prenotazione degli appuntamenti allo sportello. Con un approccio tradizionale servirebbero mesi per sviluppare un’applicazione custom. Con un ambiente low-code serverless e AI integrata, il Responsabile dello Sportello può prototipare una soluzione in una settimana, testarla con i colleghi, raccogliere feedback e rilasciare in produzione in un mese. E se deve modificarla perché cambiano le esigenze, non deve ripartire da zero.
Workstation AI: potenza enterprise in formato desktop
Certo, per far girare modelli AI in locale servono GPU. E qui arriviamo a un altro pezzo del puzzle: le workstation dedicate all’intelligenza artificiale. Non parliamo di server-farm che richiedono stanze climatizzate e consumi da datacenter. Parliamo di macchine che stanno sotto una scrivania e che possono gestire modelli con decine di miliardi di parametri.
L’evoluzione hardware degli ultimi due anni è stata impressionante. Chip come l’NVIDIA GB10 Grace Blackwell portano oltre 1000 TOPS di potenza AI in un form factor da desktop. Tradotto: una singola workstation può servire decine o centinaia di utenti contemporaneamente per task AI complesse, dal question answering alla generazione di testi alla classificazione di documenti.
Architettura ibrida: il meglio del cloud e dell’on-premise
Il paradigma che emerge è quello ibrido: il cloud pubblico per l’elasticità (quando ho picchi imprevedibili di carico), l’hardware locale per i dati sensibili e per le elaborazioni ricorrenti. Un Comune di medie dimensioni può avere la sua workstation AI che gestisce le richieste dei cittadini, interroga i database comunali, genera le risposte. E può avere funzioni serverless sul cloud che gestiscono i picchi di carico o funzionalità secondarie.
ROI tangibile: dall’investimento hardware al risparmio strutturale
Il ROI per la PA diventa molto interessante. Invece di pagare migliaia di euro al mese in costi cloud per l’inferenza AI, si fa un investimento iniziale in hardware che si ammortizza in 12-24 mesi. Si abbattono i costi di connettività dati (perché non serve mandare tutto nel cloud). E si garantisce la compliance normativa by design.
Vibe coding privato: generare applicazioni senza cloud proprietari
E arriviamo al pezzo più rivoluzionario del puzzle: il vibe coding privato. Avrete sentito parlare di strumenti come Lovable, V0, Cursor: sistemi che permettono di “descrivere” un’applicazione e vederla generata automaticamente da un’AI. Il problema? Tutto passa per cloud proprietari, tutto richiede connessione costante, e soprattutto: cosa succederebbe se inserissimo requisiti contenenti dati sensibili o logiche di business riservate?
Dall’idea all’applicazione enterprise: il nuovo paradigma
La nuova frontiera sono sistemi di vibe coding che girano completamente in locale, sulla vostra infrastruttura. Non più semplici assistenti al coding, ma veri e propri generatori di applicazioni cloud-native complete. Descrivete cosa volete – “un portale per i cittadini che permette di prenotare appuntamenti, consultare lo stato delle pratiche e ricevere notifiche” – e il sistema genera l’intera applicazione: frontend, backend serverless, database relazionale per i dati strutturati, database vettoriale per la ricerca semantica, storage per i documenti.
Codice sovrano: controllo totale sull’intero stack tecnologico
L’applicazione generata non è un prototipo giocattolo. È un’applicazione Apache OpenServerless pronta per la produzione, che può essere rilasciata su qualunque infrastruttura Kubernetes. Può essere versionata, può essere modificata, può evolvere nel tempo. E soprattutto: ogni riga di codice, ogni configurazione, ogni dato rimane sotto il vostro controllo.
Vantaggi strategici: velocità, costi e indipendenza tecnologica
Il vantaggio competitivo per un ente pubblico è enorme. Tempi di sviluppo che passano da mesi a giorni. Costi di sviluppo che si riducono drasticamente. Capacità di sperimentare senza vincolarsi a fornitori esterni. E garanzia assoluta che nessuna informazione sensibile finisca in mani sbagliate, perché tutto il processo avviene on-premise.
Tecnologie emergenti: pronti per i pionieri coraggiosi
Naturalmente questi sistemi sono ancora in fase di maturazione. Ma la tecnologia c’è, funziona, ed è pronta per i primi adopter coraggiosi.
Caso studio: digitalizzare lo sportello edilizia con AI privata
Immaginiamo un Comune di 50.000 abitanti. Vuole digitalizzare lo sportello edilizia, che gestisce circa 2.000 pratiche all’anno e riceve centinaia di richieste di informazioni al mese. L’approccio tradizionale? Software gestionale verticale, server on-premise o cloud, magari un chatbot che risponde con FAQ preconfezionate.
Implementazione concreta: dalla workstation all’applicazione completa
L’approccio con AI privata? Si parte da una workstation AI che ospita un Small Language Model addestrato sulla normativa edilizia regionale e comunale. Sopra ci gira un’applicazione serverless generata con vibe coding: interfaccia web per i cittadini, backend che interroga il database delle pratiche, sistema di notifiche automatiche.
Esperienza cittadino: risposte personalizzate in tempo reale
Il cittadino si collega al portale, fa una domanda in linguaggio naturale: “Quali documenti servono per un permesso di costruire per una veranda?” Il modello locale elabora la richiesta, consulta la normativa specifica del Comune, genera una risposta personalizzata. Se il cittadino vuole vedere lo stato della sua pratica, il sistema interroga il database senza mandare dati fuori dall’infrastruttura comunale.
Risultati misurabili: efficienza operativa e ritorno economico
Nei primi sei mesi di operatività: il 60% delle richieste viene gestito senza intervento umano. I tempi di risposta passano da giorni a minuti. Il carico sugli operatori dello sportello si riduce permettendo loro di concentrarsi sui casi complessi. E i costi? Workstation AI: investimento di circa 15.000 euro. Piattaforma serverless: open source, costi di manutenzione gestibili internamente o con supporto a canone annuale contenuto. Rispetto ai 15.000 euro mensili che costerebbe una soluzione cloud equivalente, il ritorno sull’investimento è evidente.
La finestra temporale: agire ora o rincorrere domani
Siamo in un momento molto particolare. La tecnologia per costruire ecosistemi di AI privata è matura. I costi hardware sono scesi al punto da essere sostenibili anche per enti di dimensioni medie. Gli strumenti di sviluppo sono abbastanza evoluti da democratizzare l’accesso. Ma non sarà sempre così.
First mover advantage: costruire il vantaggio competitivo oggi
Chi si muove ora, nei prossimi 12-18 mesi, può costruire un vantaggio competitivo significativo. Può sperimentare tecnologie mentre sono ancora sufficientemente aperte e flessibili. Può formare competenze interne mentre il mercato del lavoro non è ancora saturo di domanda. Può definire standard e best practice che diventeranno riferimento per altri enti.
Il rischio dell’attesa: rincorrere standard consolidati
Chi aspetta rischia di trovarsi nella solita situazione italiana: rincorrere gli standard quando sono già consolidati, pagare di più per tecnologie mature, dipendere da fornitori che hanno il controllo del mercato.
AI privata come vera innovazione: servizi migliori, dati controllati
L’AI privata non è una soluzione per evitare l’AI. È la soluzione per avere l’AI vera, quella che serve davvero alla Pubblica Amministrazione, senza consegnare la sovranità digitale a terzi. È la possibilità di innovare rispettando i vincoli normativi. È l’opportunità di costruire servizi migliori per i cittadini mantenendo il controllo dei dati.
Call to action: sperimentare oggi per non dipendere domani
Per i decisori della PA il messaggio è chiaro: questo non è il momento di restare fermi a guardare. È il momento di sperimentare, anche su piccola scala. Di testare una workstation AI. Di provare un ambiente serverless. Di costruire il primo prototipo con vibe coding locale. Perché fra due anni, quando l’AI sarà davvero pervasiva, chi non avrà fatto questi passi si troverà con una sola scelta: dipendere completamente da fornitori esterni.
E quella non è trasformazione digitale. È solo un nuovo modo di essere sudditi.
















