C’è una frase che chiunque lavori nella trasformazione digitale della PA conosce a memoria. La senti nei corridoi dei Comuni, durante i convegni, nelle riunioni di progetto. Cambia leggermente ogni volta, ma il senso è sempre lo stesso:
“Io non ho gli strumenti per farlo.”
Detto così, suona come una lamentela. In realtà è un argomento difensivo perfettamente costruito. Perché è vero. Per anni, in molti enti, gli strumenti non c’erano davvero. Non c’era formazione, non c’era una policy, non c’era nemmeno un account condiviso su qualche piattaforma AI. Il dipendente che non innovava poteva legittimamente indicare una responsabilità organizzativa: l’ente non lo aveva messo nelle condizioni di farlo.
Quel tempo sta per finire. E questa è una buona notizia, anche se cambierà qualcosa nel modo in cui parliamo di responsabilità individuale all’interno della PA.
Indice degli argomenti
Il loop dell’attesa: perché gli enti si bloccano
Prima di capire come uscirne, vale la pena riconoscere il meccanismo. Gli enti che oggi non hanno ancora avviato un percorso strutturato sull’AI non sono necessariamente pigri o disinteressati. Molti sono semplicemente intrappolati in un loop logico che si autoalimenta:
- aspettiamo le linee guida AGID prima di fare qualcosa di ufficiale;
- senza linee guida non possiamo dare strumenti ai dipendenti;
- senza strumenti non ha senso fare formazione;
- senza formazione non possiamo valutare i rischi;
- e quindi aspettiamo ancora.
Il problema è che mentre l’ente aspetta, i dipendenti non aspettano. Usano ChatGPT sul telefono personale, chiedono a Claude nelle versioni consumer, incollano delibere su piattaforme AI senza sapere cosa succede a quei dati. Quello che in letteratura si chiama shadow AI, l’uso di strumenti di intelligenza artificiale non autorizzati, non tracciati, non governati, è già dentro i Comuni italiani. Non è un rischio futuro. È una realtà presente.
Le linee guida AGID sull’AI sono ancora in bozza al momento in cui scriviamo. Probabilmente quando leggerete questo articolo saranno uscite, o forse ci sarà già una versione 2.0. Ma aspettarle per iniziare è come aspettare il manuale di primo soccorso prima di soccorrere qualcuno che sta male davanti a voi. La gestione del rischio non si fa aspettando le istruzioni: si fa iniziando a costruire le condizioni per agire bene.
Il Livello 1: le tre mosse che ogni ente può fare adesso
Esiste un modello operativo che permette a qualsiasi ente, indipendentemente dalla dimensione, dal budget e dallo stato di avanzamento digitale, di costruire una base solida per l’adozione dell’AI. Lo chiamo Livello 1, perché è la precondizione di tutto ciò che verrà dopo. È composto da tre elementi che si rafforzano a vicenda: formazione stratificata, governance interna, e strumenti differenziati per ruolo.
Non è necessario averli tutti e tre perfetti prima di partire. È necessario lavorarci in parallelo, sapendo che ciascuno abilita gli altri.
Prima mossa: la formazione non è uguale per tutti
Il primo errore che vedo fare agli enti che si avvicinano all’AI è trattare la formazione come un evento singolo e uniforme. Si organizza un webinar, si mandano tutti i dipendenti, si mette una spunta nel registro della formazione. Fine. Risultato: nessuno ha imparato nulla di applicabile, e il dirigente che ha organizzato il tutto si sente a posto la coscienza.
La formazione sull’AI efficace è stratificata. Non perché vogliamo creare gerarchie, ma perché le esigenze sono genuinamente diverse a seconda del ruolo, del livello di responsabilità e delle attività quotidiane. Un modello realistico si articola su quattro livelli.
Livello base: orientamento per tutti
Il primo è la formazione di base, destinata a tutti i dipendenti senza eccezioni. Non si tratta di insegnare a programmare, né di spiegare come funziona un transformer. Si tratta di fornire la capacità di orientarsi: cosa è l’AI generativa, come interagire con uno strumento in modo consapevole, cosa non fare, come riconoscere un output inaffidabile. Sono quattro ore di formazione, massimo otto. Ma sono indispensabili perché senza di esse ogni strumento dato in mano ai dipendenti diventa un’arma spuntata o, peggio, rischiosa.
Livello intermedio: competenza operativa
Il secondo livello è la formazione intermedia, che ha senso raggiunga almeno il 40-50% del personale. Qui si entra nel pratico: prompting efficace, uso degli strumenti in specifici ambiti lavorativi (redazione atti, gestione delle comunicazioni, analisi dati, ricerca normativa), valutazione critica degli output. Questo è il livello in cui si costruisce la competenza operativa reale, quella che cambia le abitudini di lavoro quotidiane.
AI Champion: i punti di riferimento interni
Il terzo livello è quello degli AI Champion: figure che non sono necessariamente informatici o RTD, ma che sviluppano una padronanza approfondita degli strumenti e diventano punti di riferimento interni per colleghi e uffici. Ogni ente dovrebbe puntare ad avere almeno un AI Champion per area o per servizio. Sono le persone che trasformano la formazione in cultura organizzativa.
Formazione strategica per i decisori
Il quarto livello, e questo è il più spesso dimenticato, è la formazione strategica per i decisori: sindaci, assessori, segretari comunali, dirigenti. Qui non si parla di come usare un prompt. Si parla di come l’AI cambia il quadro delle responsabilità, dei rischi legali e reputazionali, delle opportunità di investimento, delle implicazioni per la gestione del personale, come cambia il lavoro. Un dirigente che non ha mai partecipato a un momento formativo sull’AI non può prendere decisioni consapevoli in materia. E troppo spesso è esattamente quello che succede: il vertice dell’ente manda gli altri a formarsi e resta fuori dal processo.
Vale la pena dirlo chiaramente: un segretario comunale o un dirigente o una PO o un amministratore che non hanno mai ragionato sulle implicazioni dell’AI per la responsabilità dirigenziale è un punto di vulnerabilità per l’ente. Non per cattiva volontà, ma per mancanza di frame. La formazione strategica colma quel gap.
Seconda mossa: il regolamento AI, anche se AGID non ha finito
Torniamo alla shadow AI. Il problema non è che i dipendenti usino strumenti AI: il problema è che lo facciano senza che l’ente sappia cosa, come e con quali dati. In assenza di una policy interna, ogni comportamento è tecnicamente non regolato. E in un contesto normativo che comprende il GDPR, il AI Act europeo, e le norme sull’accesso agli atti, questo non è una posizione comoda.
La risposta giusta non è vietare tutto nell’attesa di un quadro normativo perfetto. La risposta giusta è adottare un regolamento o linee guida interne sull’uso dell’AI, anche in forma semplice, anche provvisoria, anche consapevoli che andrà aggiornata.
Un documento di questo tipo deve rispondere ad alcune domande minime: quali strumenti AI sono autorizzati per uso lavorativo? Quali categorie di dati non possono essere inseriti in piattaforme AI esterne? Chi è responsabile di verificare la correttezza degli output prima che vengano usati in atti ufficiali? Come si gestisce la trasparenza verso i cittadini quando un servizio coinvolge processi AI?
Non servono trenta pagine di giurisdizione. Bastano tre o quattro pagine operative, scritte in linguaggio comprensibile, validate dal segretario comunale, approvate con delibera di giunta. L’effetto non è solo normativo: è anche culturale. Un ente che ha una policy sull’AI è un ente che ha preso posizione. Che ha deciso di governare un fenomeno invece di subirlo.
Le linee guida AGID, quando arriveranno nella versione definitiva, serviranno come riferimento nazionale e aiuteranno ad armonizzare gli approcci. Ma non esimono gli enti dall’adottare una governance propria. Anzi, chi avrà già una policy interna sarà avvantaggiato: avrà già sperimentato, avrà già capito i punti critici, e potrà aggiornare invece di partire da zero.
Terza mossa: strumenti differenziati, non democratici
Dare a tutti lo stesso strumento AI è una scelta comprensibile ma limitante. La tentazione di distribuire una licenza Microsoft 365 Copilot a tutta l’organizzazione e considerare il problema risolto è forte. Ma non funziona così.
Gli strumenti AI non sono tutti uguali, e soprattutto non servono tutti allo stesso modo a persone con livelli diversi di competenza e obiettivi diversi. Una strategia efficace prevede una differenziazione basata sul profilo utente.
Strumenti per il livello base
Per il livello base, tutti i dipendenti, ha senso fornire uno strumento integrato nell’ecosistema già in uso: Microsoft Copilot per chi lavora con la suite Office, Google Gemini per chi è nel mondo Google Workspace. Strumenti sicuri dal punto di vista della gestione dei dati in ambito enterprise, accessibili senza richiedere competenze avanzate, integrati nei flussi di lavoro esistenti. Il vantaggio è l’abbassamento della barriera di accesso: l’AI non è una cosa separata, è dentro la mail, dentro il documento, dentro il calendario.
Strumenti avanzati per AI Champion
Per il livello intermedio e per gli AI Champion, ha senso aggiungere strumenti con capacità più avanzate e interfacce più flessibili: Perplexity per la ricerca e la verifica di informazioni con fonti citate, Claude per il ragionamento complesso, la redazione di documenti articolati, l’analisi di testi lunghi. Questi strumenti richiedono un uso più consapevole e per questo vanno associati a formazione intermedia, non si danno senza contesto.
La differenziazione degli strumenti non è elitismo: è pedagogia. Dare uno strumento avanzato a chi non ha ancora le basi per valutarne gli output è controproducente. Dare solo uno strumento base a chi potrebbe fare molto di più è uno spreco di potenziale.
Cosa succede quando il Livello 1 è fatto
Costruire il Livello 1, formazione stratificata, governance interna, strumenti differenziati, non è la fine del percorso. È la fine del periodo in cui si naviga a vista.
Un ente che ha completato il Livello 1 ha ottenuto tre risultati concreti. Prima cosa: ha ridotto i rischi legati alla shadow AI. Non li ha azzerati, la shadow AI non sparirà mai completamente, ma li ha ridimensionati perché ha dato alternative legittimate e ha definito cosa è ammesso e cosa no. Seconda cosa: ha posizionato l’ente rispetto all’ecosistema territoriale. In un momento in cui si moltiplicano le convenzioni tra enti, i tavoli di coordinamento digitale, le iniziative PNRR che richiedono capacità di gestione dati e processi, un ente con una maturità AI documentata è un interlocutore più forte. Terza cosa: ha creato le condizioni per il Livello 2.
Il Livello 2 è quello in cui si comincia a fare progetti più seri e ambiziosi: automazione di processi interni, sperimentazione di servizi AI-assistiti per i cittadini, integrazione con le piattaforme abilitanti nazionali, uso dell’AI per la lettura e l’analisi dei dati territoriali. Sono obiettivi che richiedono competenze più avanzate, governance più sofisticata, e strumenti più potenti. Ma sono raggiungibili solo se si è costruita una base solida. Il Livello 2 senza il Livello 1 è come costruire un palazzo partendo dall’ottavo piano.
Dall’alibi alla responsabilità: la svolta culturale
Torniamo alla frase di apertura. Il dipendente che dice “non ho gli strumenti”.
In un ente che ha completato il Livello 1, quella frase non regge più. Hai avuto la formazione di base. Hai le linee guida che spiegano cosa puoi e non puoi fare. Hai uno strumento AI disponibile, testato, conforme. Se non lo usi, se non provi, se non impari, quella è una scelta tua. Legittima, forse. Ma tua.
Questo non è un discorso punitivo. Non si tratta di sanzionare chi non usa l’AI. Si tratta di un cambiamento del frame culturale che regola la responsabilità professionale nella PA. Per decenni, la resistenza all’innovazione digitale ha trovato rifugio nella carenza di infrastruttura: non c’era la connessione, non c’era il software, non c’era il server. Ogni volta che si risolveva un problema tecnico, emergeva un nuovo alibi tecnico.
L’AI è un caso diverso, perché per la prima volta l’accesso agli strumenti è democratico al punto da essere quasi inevitabile. Non stai chiedendo al dipendente di imparare a programmare. Non stai chiedendo di capire i database. Stai chiedendo di imparare a fare meglio una cosa che già fa, scrivere testi, fare ricerche, sintetizzare informazioni, con l’aiuto di uno strumento che costa meno di un abbonamento a una rivista professionale.
Quando l’ente ha fatto la sua parte, formazione, regole, strumenti, il discorso sulla responsabilità individuale diventa legittimo. E questo è un risultato culturale prima ancora che operativo. Significa che l’organizzazione ha smesso di essere complice della stagnazione. Ha creato le condizioni per cui l’aggiornamento professionale è una possibilità concreta, non un’aspirazione astratta.
I dirigenti che leggono questo articolo dovrebbero chiedersi: nel mio ente, oggi, un dipendente che volesse usare l’AI in modo consapevole e sicuro saprebbe come farlo? Avrebbe gli strumenti? Saprebbe dove trovare le regole? Avrebbe avuto almeno quattro ore di formazione sul tema?
Se la risposta è no a tutte e tre le domande, il problema non è il dipendente. Il problema è il Livello 1 ancora da costruire.
Non aspettare la perfezione: inizia dal possibile
C’è un ultimo punto che vale la pena affrontare con onestà. Il modello in due livelli che abbiamo descritto non è perfetto. Le linee guida AGID, quando saranno definitive, richiederanno aggiornamenti nel tempo. Gli strumenti AI evolvono ogni settimana. La formazione di oggi sarà parzialmente obsoleta tra un anno.
Ma questa non è una ragione per aspettare. È una ragione per adottare un approccio iterativo: si parte con quello che si può fare adesso, si costruisce la capacità di aggiornare in corso, si assume che il contesto cambierà e ci si struttura per adattarsi invece di resistere.
Gli enti che oggi stanno costruendo il Livello 1, anche in modo imperfetto, anche con risorse limitate, anche con qualche errore lungo la strada, saranno gli enti che tra due anni avranno una maturità reale su cui costruire. Gli enti che aspettano il momento perfetto per iniziare troveranno che quel momento non arriva mai, e che nel frattempo il gap, il debito tecnico e organizzativo sull’AI, con chi ha iniziato si è allargato.
Formazione per tutti. Linee guida interne operative. Strumenti differenziati per livello di competenza. Tre mosse. Nessuna delle tre richiede un budget straordinario, una delibera regionale o una circolare ministeriale. Richiedono una decisione di leadership e la volontà di cominciare.
Dopo, chi rimane indietro ha scelto. E questa, alla fine, è la notizia più importante.














