Il tema dell’intelligenza artificiale nella pubblica amministrazione non è più confinato ai dibattiti accademici o alle previsioni futuristiche: riguarda ormai la gestione quotidiana di dati, contenuti e processi decisionali. Loredana Vajano, direttrice del Servizio sistemi informativi e digitalizzazione dell’Autorità per le Garanzie nelle Comunicazioni (Agcom), ha affrontato la questione durante il convegno Ital_IA: tra dati pubblici e algoritmi, promosso dall’Agenzia delle Dogane e dei Monopoli con Sogei S.p.A., sottolineando come la sfida principale non sia più solo tecnologica, ma soprattutto regolatoria e culturale.
La dirigente ha aperto il suo intervento con una metafora che riassume bene la condizione attuale delle istituzioni di fronte all’AI. «Si è parlato di magia senza bacchetta magica. Se penso a una magia senza bacchetta, la prima idea che mi viene in mente è il caos. La bacchetta magica è lo strumento che consente di governare un grande cambiamento. Quello che stiamo facendo oggi è costruire la nostra bacchetta magica: le regole, le infrastrutture, i metodi con cui governare questa trasformazione».
Dietro la suggestione letteraria si cela un nodo centrale per ogni amministrazione pubblica: come conciliare innovazione e controllo, garantendo la trasparenza di sistemi che diventano ogni giorno più complessi e pervasivi.
Indice degli argomenti
La tutela dei contenuti e l’estensione del diritto d’autore
Uno dei fronti più delicati riguarda la regolazione dei contenuti digitali generati con l’aiuto dell’intelligenza artificiale. Agcom, ha spiegato Vajano, è oggi chiamata a rivedere le proprie competenze tradizionali in materia di comunicazioni e media per adattarle a uno scenario dove il confine tra autore umano e macchina è sempre più sfumato.
L’articolo 25 della nuova legge sull’AI n. 132/2025 assegna infatti all’Autorità il compito di estendere la portata di tutela del diritto d’autore anche ai contenuti prodotti grazie all’intelligenza artificiale. La distinzione tra opere “umane” e “generate” diventa così essenziale non solo dal punto di vista giuridico, ma anche culturale. Se un contenuto è interamente realizzato da un algoritmo, osserva Vajano, «sembra che non sia degno di tutela perché non c’è un titolare», ma se è stato creato con il contributo di una persona, «entra nel perimetro della protezione».
In questo passaggio si gioca gran parte della nuova missione regolatoria dell’Agcom. Il tema non è solo riconoscere la paternità dei contenuti, ma anche garantire ai cittadini un’informazione trasparente sulla natura del materiale che fruiscono. La discussione riguarda già l’introduzione di sistemi di segnalazione o “etichette” che permettano di comprendere se un video, un audio o un testo siano stati generati o modificati da un sistema di AI.
«L’introduzione dell’intelligenza artificiale nella generazione di contenuti ci impone di cambiare anche noi il modo di governare e di trattare queste tematiche», ha dichiarato la direttrice, richiamando l’esigenza di strumenti di monitoraggio e vigilanza più sofisticati, capaci di accompagnare il cittadino nella comprensione del nuovo ecosistema informativo.
La governance interna: un ufficio dedicato e un comitato scientifico
Il processo di adattamento non è solo normativo, ma anche organizzativo. Proprio per affrontare l’impatto crescente dell’intelligenza artificiale, Agcom ha istituito un ufficio dedicato all’AI con il compito di valutare i rischi e gli effetti delle tecnologie nei diversi settori di competenza.
Parallelamente, è stato creato un comitato di esperti universitari, operativo dal gennaio 2025, che affianca l’Autorità nell’analisi degli scenari evolutivi e nella definizione di possibili interventi regolatori. «Abbiamo sentito l’esigenza di chiedere un supporto accademico nella valutazione degli impatti e degli scenari evolutivi degli interventi dell’Autorità», ha spiegato Vajano.
Questa collaborazione con il mondo della ricerca introduce un elemento di metodo: la regolazione dell’intelligenza artificiale non può essere solo una questione di norme, ma richiede conoscenza tecnica, capacità predittiva e dialogo tra discipline. È un modello che mette insieme competenze giuridiche, informatiche e comunicative per costruire un quadro di regole realistiche e applicabili.
Dati, bias e nuove competenze del funzionario pubblico
L’intelligenza artificiale nella pubblica amministrazione non è soltanto oggetto di regolazione, ma anche strumento operativo. Vajano ha raccontato come Agcom stia valutando l’uso di sistemi di AI per analizzare le segnalazioni dei cittadini, che arrivano ogni giorno in quantità difficilmente gestibili con metodi manuali.
L’obiettivo è semplificare e velocizzare i processi di analisi, ma la dirigente ha chiarito che il punto di partenza resta la qualità dei dati utilizzati per l’addestramento dei modelli AI. «L’addestramento deve avvenire sulla base di dati di estrema qualità, altrimenti il rischio bias è altissimo». Un errore in questa fase potrebbe portare a risultati distorti e decisioni non eque.
Fondamentale, in questo scenario, è il ruolo del funzionario pubblico che interagisce con il sistema. Egli non è un tecnico, ma deve “insegnare” alla macchina a riconoscere gli errori e correggerli, fornendo un feedback costante nelle prime fasi di tuning del modello. Ne deriva un cambiamento radicale del profilo professionale del dipendente pubblico: non più solo esecutore di pratiche, ma parte attiva di un processo di addestramento e controllo dei sistemi intelligenti.
Dal redattore al correttore: la trasformazione del lavoro amministrativo
Il secondo nodo, ha spiegato Vajano, riguarda il ruolo dell’intelligenza artificiale nell’attività istruttoria. Tradizionalmente il funzionario partiva dai dati, li elaborava, formulava una motivazione e arrivava a una proposta di decisione. Con l’intelligenza artificiale questo schema si inverte: «Un soggetto terzo, la macchina, ha già elaborato il materiale per me basandosi sui precedenti, e io vengo chiamato a verificare».
Il principio rimane fermo – «non si lascia mai l’ultima parola alla macchina» – ma cambia la natura del lavoro. Il funzionario diventa correttore di testi e valutatore di coerenza, non più redattore di atti. Una trasformazione che impone nuove competenze e pone una domanda cruciale: «Abbiamo gli skill, il know-how e le capacità per farlo anche in tempi rapidi?».
La dirigente sottolinea il rischio di vanificare l’efficienza ottenuta dalla macchina nella fase di controllo se la formazione del personale non segue il ritmo dell’innovazione.
Responsabilità e trasparenza: la firma resta umana
Il terzo punto individuato da Vajano tocca la responsabilità della decisione finale. Anche quando l’AI contribuisce al processo, la firma resta del funzionario o del dirigente, che risponde giuridicamente dell’atto. Ma la questione, osserva, è tutt’altro che semplice: «Fino a che punto il funzionario sarà tutelato, ad esempio in sede giurisdizionale, rispetto ai terzi?».
Per assumersi la responsabilità, chi firma dovrebbe conoscere l’algoritmo che ha generato la proposta. Ma spesso il software è sviluppato da tecnici che non conoscono nel dettaglio l’azione amministrativa. Da qui la necessità di un lavoro congiunto tra specialisti informatici e operatori pubblici, in modo da garantire trasparenza e comprensione reciproca.
Solo una collaborazione strutturata tra tecnica e amministrazione può evitare che l’intelligenza artificiale diventi una “scatola nera” in grado di influenzare decisioni senza piena consapevolezza dei suoi effetti.
Una trasformazione che richiede formazione e metodo
L’intervento di Loredana Vajano offre uno spaccato realistico della complessità che accompagna l’intelligenza artificiale nella pubblica amministrazione. La regolazione, la qualità dei dati, la ridefinizione delle competenze e la responsabilità decisionale emergono come elementi intrecciati di un’unica transizione.
Costruire quella “bacchetta magica” evocata in apertura significa, in ultima analisi, dotarsi di strumenti giuridici e culturali per governare la tecnologia senza subirla. E questo, ha ricordato Vajano, non può avvenire senza una formazione continua e senza un confronto costante tra chi disegna gli algoritmi e chi li applica al servizio dei cittadini.











