L’AI generativa nella Pubblica Amministrazione è già una realtà operativa, con casi d’uso concreti che mettono alla prova infrastrutture, processi e modelli di governance.
Camilla, l’assistente digitale sviluppato da CSI Piemonte per i bandi Formez, è uno di questi casi: un banco di prova che rivela quanto sia complesso — e necessario — costruire soluzioni affidabili, trasparenti e scalabili per il settore pubblico.
Indice degli argomenti
Camilla, l’assistente AI di CSI Piemonte: come funziona davvero
Prendendo come caso di studio Camilla è possibile mettere a fuoco alcuni elementi chiave di questa “orchestra” tecnologica e organizzativa, e comprendere quali scelte rendano un assistente di questo tipo adatto a un contesto pubblico e potenzialmente scalabile su base nazionale.
AI generativa nella PA: opportunità reali e rischi da governare
L’AI generativa sta cambiando il modo in cui le persone accedono alle informazioni, grazie a un’interazione naturale che rende più semplice ottenere informazioni anche in contesti complessi e burocratici. Nel contesto della Pubblica Amministrazione, questa evoluzione apre opportunità importanti: rendere più accessibili informazioni e servizi, ridurre la distanza tra cittadino e apparato amministrativo, semplificare l’esperienza d’uso.
Ma proprio in questo ambito emergono anche dei limiti da governare. Un assistente che risponde su temi come bandi e concorsi pubblici non può limitarsi a essere “efficace” dal punto di vista conversazionale: deve anche essere aderente alle fonti ufficiali, aggiornato, controllabile e verificabile. Il rischio, altrimenti, è quello di fornire informazioni imprecise, incomplete o non coerenti con la documentazione di riferimento. In questo contesto, una risposta solo plausibile non basta: una data sbagliata o un requisito interpretato male possono generare un danno reale per il cittadino.
Nuove pratiche di governance per la GenAI
Questa tensione non rappresenta un freno all’adozione della GenAI nella PA. Al contrario, ci spinge a definire nuove pratiche progettuali e nuove modalità di governo della tecnologia. È proprio in questa prospettiva che si colloca l’esperienza di Camilla: non solo come assistente che crea valore per gli utenti, ma come esempio concreto di quali componenti siano necessarie dietro le quinte per rendere una soluzione di AI generativa affidabile, sicura e sostenibile anche in un’ottica di estensione nazionale.
Fonti aggiornate e controllo del dato: il primo requisito
Il primo requisito, in un servizio di questo tipo, è la qualità della base di conoscenza. Offrire un assistente ai cittadini significa infatti assumersi la responsabilità di rispondere sulla base di dati aggiornati, corretti e riconducibili alle fonti ufficiali. In un ambito come quello dei bandi pubblici, dove documenti, scadenze, requisiti e informazioni operative possono essere numerosi ed evolvere nel tempo, questo aspetto è essenziale.
Per questo motivo, nel caso di Camilla il CSI ha realizzato un processo automatizzato che alimenta con continuità la conoscenza dell’assistente. I nuovi bandi pubblicati vengono acquisiti tramite API dalla fonte ufficiale, normalizzati e arricchiti con metadati tracciati con precisione. Questo consente non solo di avere una base informativa aggiornata, ma anche di mantenere un livello elevato di auditabilità rispetto a ciò che entra nel sistema e a come viene organizzato.
Un elemento importante è la coesistenza tra contenuti non strutturati, ovvero il testo integrale di ciascun bando e dei documenti ad esso collegati (diari, avvisi…), e informazioni strutturate, come qualifiche richieste, sedi di lavoro, profili cercati o altre caratteristiche utili alla ricerca e al filtraggio. Questa duplice natura dei dati permette di costruire una base di conoscenza più solida e utile: da un lato si conserva la ricchezza del linguaggio amministrativo originale, indispensabile per fornire risposte esaustive, dall’altro si abilitano interrogazioni mirate e trattamenti più efficienti sui metadati di ciascun bando.
Dati strutturati e non strutturati: una base di conoscenza solida
La gestione del dato è un passaggio spesso poco visibile agli utenti, ma decisivo: senza una filiera ordinata di acquisizione, strutturazione e aggiornamento delle fonti, un assistente generativo rischia di diventare rapidamente opaco e difficile da governare. Con questa filiera, invece, diventa possibile coniugare flessibilità conversazionale e rigore del dato.
Test automatici e monitoraggio continuo della qualità
Una volta costruita e aggiornata la base di conoscenza, emerge il secondo grande tema: come controllare la qualità delle risposte. Questo è uno degli aspetti più delicati nell’utilizzo dei modelli generativi, ed è ancora più rilevante in un contesto pubblico, dove accuratezza e affidabilità non sono caratteristiche accessorie, ma requisiti essenziali del servizio.
Per affrontare questo problema il CSI ha progettato una pipeline di test automatizzati che, per ciascun nuovo bando, verifica diversi aspetti del comportamento dell’assistente. Vengono sottoposte centinaia di domande, con l’obiettivo di controllare l’aderenza delle risposte ai contenuti ufficiali, la correttezza dei metadati utilizzati, il rispetto delle policy di sicurezza e il corretto impiego degli strumenti a disposizione del sistema.
Le domande utilizzate nei test sono generate in parte in modo dinamico, a partire dai contenuti dei bandi, così da ottenere una copertura ampia e coerente con il materiale pubblicato. In parte sono invece domande più generali, che vertono su aspetti comuni dei bandi come modalità di partecipazione, requisiti o prove previste e servono a verificare la completezza del processo di acquisizione delle informazioni.
La valutazione combina criteri diversi. Alcuni sono oggettivi e deterministici, ad esempio si controlla che l’assistente utilizzi correttamente una certa fonte o un certo strumento in base alla domanda ricevuta. Altri riguardano invece la qualità della risposta nel suo complesso e vengono gestiti attraverso un approccio di valutazione automatizzata (definito LLM-as-a-judge) in cui un secondo modello esamina domanda, risposta fornita e risposta attesa, formulando un giudizio guidato da criteri definiti in fase di progettazione. In questo modo è possibile far emergere con maggiore precisione gli aspetti più critici nel dominio applicativo, come la presenza di date errate, affermazioni incoerenti rispetto alla fonte o omissioni rilevanti. Inoltre, vengono anche testati i principali sistemi con cui l’assistente si integra, simulando ad esempio domande utente plausibili a fronte del nuovo bando e verificando il suo corretto reperimento da parte del motore di ricerca con cui si integra l’assistente.
L’esito di questi controlli viene aggregato in una valutazione complessiva del bando, secondo policy configurabili sulla base della gravità e numerosità delle anomalie riscontrate. Se i risultati sono adeguati, il contenuto può essere reso disponibile all’assistente; in caso contrario, entra in gioco una supervisione specialistica umana. Tutto il processo è tracciato e reso consultabile attraverso dashboard dedicate.
Un nuovo modello di governance per la GenAI nella PA
Questa componente di test continuo è uno degli elementi più rilevanti nel definire un nuovo modello di governance per le soluzioni di GenAI nella Pubblica Amministrazione. In un’ottica di adozione ampia, non basta infatti che il sistema “funzioni”: deve essere messo nelle condizioni di dimostrare nel tempo come e quanto funziona. Visto il volume di dati continuamente aggiunti alla base di conoscenza dell’assistente, la pipeline di test consente di focalizzare gli sforzi sugli elementi individuati come possibili criticità dal tester. Consente inoltre di monitorare eventuali regressioni nel comportamento dell’assistente, misurate attraverso la qualità delle risposte, costituendo un “termometro” affidabile della qualità e affidabilità del servizio offerto.
Una ricerca che combina AI e logiche deterministiche
Un ulteriore snodo chiave riguarda il modo in cui vengono recuperate le informazioni utili a rispondere alle domande degli utenti. Nei sistemi basati su RAG, la qualità della risposta dipende in larga misura dalla qualità del contesto recuperato: è quindi fondamentale che le informazioni passate al modello siano pertinenti e realmente utili rispetto alla richiesta. È anche importante che il contesto non sia troppo ampio, perché questo può causare risposte più lente e meno precise.
Nel caso di Camilla, la prospettiva di crescita verso un perimetro più ampio, con un numero molto elevato di bandi e documenti, ha portato i tecnici del CSI a evitare un approccio basato esclusivamente sulla similarità semantica. In domini come quello dei concorsi pubblici, infatti, molti documenti condividono lessico, struttura e argomenti simili: prove, requisiti, sedi, qualifiche, graduatorie. Affidarsi esclusivamente alla vicinanza semantica rischia quindi di introdurre rumore e di rendere meno preciso il recupero delle informazioni.
La scelta del Consorzio è stata allora quella di valorizzare la struttura dei dati disponibili. A partire dalla domanda dell’utente, il sistema estrae informazioni rilevanti che riflettono la struttura della base di conoscenza, ad esempio qualifiche, preferenze geografiche o altri elementi utili alla ricerca, e le utilizza come filtri su una base dati organizzata. In questo modo la selezione dei bandi compatibili con la richiesta avviene attraverso meccanismi più simili a quelli di una query su database tradizionale, con tempi molto rapidi anche su volumi elevati.
Questo approccio ha diversi vantaggi. Innanzitutto, consente di scalare meglio rispetto a un numero crescente di bandi. Inoltre, rende la parte di ricerca più deterministica e osservabile, permettendo di introdurre regole di business esplicite, come l’estensione delle ricerche ai titoli equipollenti o a territori collegati. L’AI resta fondamentale nella comprensione del linguaggio naturale e nell’estrazione dell’intento dell’utente, ma la logica di selezione delle informazioni rilevanti si innesta su una struttura controllabile.
AI generativa e tecnologie tradizionali: un’integrazione strategica
È una scelta architetturale significativa anche oltre il caso specifico: mostra come l’AI generativa possa integrarsi in modo efficace con tecnologie non generative, senza sostituirle dove non è necessario. In contesti pubblici, questa integrazione è spesso la chiave per ottenere insieme usabilità, precisione e governabilità.
Un modello replicabile di AI per la Pubblica Amministrazione
L’esperienza di Camilla mostra che dietro un assistente generativo affidabile non c’è un singolo modello, ma una filiera composta da acquisizione e normalizzazione delle fonti, test sistematici, monitoraggio continuo e scelte architetturali orientate al controllo. È questo insieme di elementi che rende possibile offrire un’esperienza d’uso utente semplice e immediata senza rinunciare al rigore richiesto da un servizio pubblico.
Nella PA, la prospettiva di scalabilità di soluzioni di AI è strettamente legata alla capacità di industrializzare i processi che li circondano e di mantenere una supervisione effettiva sul loro comportamento. In questo senso, il caso sviluppato da CSI Piemonte insieme a Formez rappresenta un primo esempio concreto di come questa tecnologia possa essere adottata nella Pubblica Amministrazione in modo responsabile, trasparente e replicabile. L’innovazione, infatti, non sta soltanto nella capacità di costruire un assistente che risponde, ma nel progettare le condizioni perché possa farlo in modo affidabile, verificabile e sostenibile anche al crescere del numero dei contenuti, dei casi d’uso e degli utenti. In questo modo un’esperienza locale può trasformarsi in un modello utile anche per altri enti e altri territori.








