Il disegno di legge in materia di intelligenza artificiale recentemente approvato e prossimo alla pubblicazione costituisce un intervento normativo di portata sistemica: esso intende introdurre regole interne per governare lo sviluppo e l’impiego delle tecnologie di IA, anche nella Pubblica amministrazione.
L’obiettivo è duplice: da un lato favorire l’innovazione, dall’altro garantire che l’utilizzo delle nuove tecnologie avvenga in coerenza con i principi costituzionali e con i diritti fondamentali riconosciuti a livello europeo.
Indice degli argomenti
L’IA come strumento di supporto: la centralità della decisione umana
Tra le norme più significative si colloca l’articolo 14, dedicato all’impiego dei sistemi di intelligenza artificiale nella pubblica amministrazione. Tale disposizione ha una rilevanza strategica perché riguarda direttamente l’esercizio del potere amministrativo e il rapporto fiduciario tra cittadino e istituzioni.
Il cuore dell’art. 14 sta nell’affermazione che i sistemi di intelligenza artificiale possono essere utilizzati esclusivamente come strumenti di supporto all’azione amministrativa. La responsabilità e l’imputabilità della decisione restano interamente in capo al funzionario o all’organo competente.
Questo approccio, in realtà, non è nuovo nell’ordinamento italiano. L’art. 30 del d.lgs. 36/2023 (Codice dei contratti pubblici) ha già riconosciuto la possibilità di utilizzare sistemi automatizzati e strumenti di IA nelle procedure di gara, ma nel rispetto del principio di non esclusività della decisione algoritmica. Ciò implica che la decisione finale deve sempre prevedere un apporto umano, capace di controllare, validare o persino smentire l’esito derivante dall’elaborazione algoritmica.
La ratio comune di queste disposizioni è chiara: l’intelligenza artificiale non deve mai sostituirsi al titolare del potere amministrativo, pena la violazione dei principi di legalità ed imparzialità. In questo senso, il disegno di legge approvato conferma come il modello antropocentrico di utilizzo dell’IA sia l’unico effettivamente ammissibile e coerente con le norme costituzionali in materia di Pubblica amministrazione ed esercizio del potere amministrativo. La decisione pubblica, dunque, implica valutazioni discrezionali e ponderazioni di interessi che non possono essere integralmente delegate a un sistema automatizzato.
Obblighi organizzativi: misure tecniche, formative e approccio basato sul rischio
L’art. 14 del disegno di legge, inoltre, impone alle pubbliche amministrazioni di adottare misure tecniche e organizzative, oltre che formative, finalizzate a garantire un utilizzo responsabile dell’intelligenza artificiale e a sviluppare le capacità trasversali degli utilizzatori.
Si tratta di una previsione particolarmente significativa perché amplia il concetto di “governance algoritmica”: non basta dotarsi di strumenti di sicurezza tecnologica, occorre anche strutturare processi organizzativi e percorsi di formazione che consentano al personale pubblico di comprendere e gestire l’IA con consapevolezza.
Il legislatore chiede dunque alle PA di adottare un approccio basato sul rischio e sulla compliance, coerente con il modello europeo; ed infatti, questo approccio è lo stesso su cui si fonda l’AI Act, che classifica i sistemi di IA sulla base del rischio che essi comportano per i diritti fondamentali e impone obblighi proporzionati alla tipologia e alla gravità del rischio individuato.
Lo stesso approccio, del resto, è quello proprio della Direttiva (UE) 2022/2555 e del d.lgs. n. 138/24, cosiddetta NIS 2, in materia di sicurezza informatica, che richiede anche agli enti pubblici di implementare misure di gestione del rischio cyber proporzionate alla dimensione, alla natura delle attività e all’impatto potenziale delle minacce. In entrambi i casi, si tratta di un approccio che combina valutazione preventiva, misure di mitigazione e monitoraggio costante, riconoscendo che la tecnologia non è mai neutra, ma genera rischi da governare.
Convergenze e criticità: le bozze di linee guida AGID
Il contenuto dell’art. 14 trova riscontro nelle bozze di Linee guida per l’adozione dell’IA nella PA messe a consultazione pubblica da AGID (febbraio 2025). Esse insistono su accountability, controllo umano, valutazioni d’impatto, formazione e gestione dei dati.
Tuttavia, è opportuno evidenziare che la versione originaria delle linee guida imponeva alle amministrazioni numerosi adempimenti e la produzione di un ampio apparato documentale, rischiando di trasformarsi in un ostacolo burocratico all’adozione effettiva dell’IA.
In prospettiva, sarebbe auspicabile allora che tali linee guida venissero semplificate, in coerenza con l’approccio del disegno di legge: regole chiare, ma proporzionate e sostenibili, così da rendere davvero praticabile l’introduzione dei sistemi di IA nella PA.
Prospettive e sfide della regolazione dell’IA nella PA
L’attuale ordinamento giuridico in materia di IA configura un modello di IA “antropocentrica” nella pubblica amministrazione: la tecnologia è al servizio della decisione umana, non l sostituisce.
La previsione delle “misure tecniche, organizzative e formative” richieste alle PA dimostra che il legislatore intende accompagnare l’adozione dell’IA con un approccio sistemico, che coinvolge competenze, processi e responsabilità. In questo, l’orientamento è perfettamente coerente con l’AI Act europeo e con la NIS 2: valutare il rischio, prevenirlo e gestirlo nel tempo, senza illusioni di neutralità tecnologica.
La sfida sarà trovare un equilibrio tra garanzie normative e flessibilità operativa. Una regolazione eccessivamente onerosa rischierebbe di scoraggiare l’innovazione e di vanificare le potenzialità dell’IA nella PA. Al contrario, un approccio snello e basato sulla semplificazione delle linee guida, aggiornabili nel tempo, può garantire l’adozione di strumenti tecnologici efficaci senza compromettere i principi fondamentali dello Stato di diritto.













