L’uso di sistemi di intelligenza artificiale nella PA rientra nel più ampio processo di digitalizzazione delle procedure amministrative, orientato a semplificare i rapporti tra uffici pubblici e cittadini.
Eppure accade, ancora oggi, che l’automazione dell’attività amministrativa sia utilizzata come espediente per ostacolare l’esercizio di diritti riconosciuti ai cittadini, quale quello all’accesso agli atti amministrativi, che rappresenta un’articolazione fondamentale del principio di trasparenza.
Indice degli argomenti
La sentenza Consiglio di Stato 6 giugno su Argea Sardegna
È quanto emerge dalla sentenza del Consiglio di Stato del 6 giugno 2025, n. 4929, pronunciata sul ricorso promosso da Argea Sardegna (Agenzia Regionale per la Gestione ed Erogazione degli Aiuti in Agricoltura) nei confronti delle comproprietarie di una serie di fondi agricoli, che avevano esercitato il diritto di accesso alla documentazione relativa ai contributi erogati dall’Agenzia per la conduzione dei fondi in questione.
A fronte del diniego all’accesso opposto da ARGEA, le comproprietarie presentavano ricorso presso il Tar Sardegna, che condannava l’Agenzia a concedere alle parti istanti l’accesso a tutta la documentazione amministrativa relativa ai contributi elargiti sui fondi.
L’Agenzia impugnava la sentenza dinanzi al Consiglio Stato, deducendo, tra i motivi di appello, la violazione del principio “ad impossibilia nemo tenetur“, stante la gestione dei contributi “mediante l’applicazione di algoritmi interamente gestiti in forma automatizzata a livello informatico centrale presso il Sistema integrato di gestione e controllo”.
Sul punto, il Collegio giudicante, richiamando gli orientamenti già espressi dal Consiglio, ha evidenziato che “l’utilizzo di sistemi di intelligenza artificiale (…) da intendersi quale modulo procedimentale per lo svolgimento dell’attività autoritativa in modalità più efficienti” non può prescindere dal rispetto dei principi e delle garanzie fondamentali che regolano lo svolgersi dell’attività amministrativa.
Tra queste garanzie assume primaria importanza il rispetto del principio di trasparenza, che non può essere compresso per la presenza di un algoritmo all’interno dell’iter procedimentale.
Nel rigettare il ricorso di Argea, il Consiglio ha quindi ribadito che “l’amministrazione non può trincerarsi dietro la non conoscibilità dei meccanismi informatici di gestione delle pratiche di propria competenza per negare l’accesso agli atti legittimamente richiesti dal cittadino”.
Nel caso esaminato dai Giudici amministrativi, peraltro, l’amministrazione ricorrente contestava l’impossibilità di ottenere i dati richiesti (contributi agricoli), in quanto “gestiti mediante l’applicazione di algoritmi interamente gestiti in forma automatizzata a livello informatico centrale”. In realtà, potrebbe anche non trattarsi di algoritmi che alimentano un sistema di intelligenza artificiale (secondo la definizione contenuta nell’AI Act), ma di “semplici” sistemi computazionali progettati per eseguire operazioni in modo automatizzato, che si limitano ad applicare regole e parametri preimpostati. La richiesta rivolta all’Agenzia, oltretutto, aveva ad oggetto la documentazione contenente i dati di output elaborati tramite il sistema informatico, non le logiche sottese al suo funzionamento, né i parametri stabiliti per elaborare i dati di input e produrre i risultati impiegati nel procedimento amministrativo.
Gli obblighi di trasparenza per l’intelligenza artificiale: AI Act, Gdpr
Informazioni, queste, che i fornitori, ma anche i deployer (ossia, gli utilizzatori) di determinati sistemi di IA, inclusi gli organismi di diritto pubblico e gli enti privati che forniscono servizi pubblici, dovrebbero conoscere, documentare e spiegare agli utenti. Gli obblighi di trasparenza sono previsti dall’AI Act, non ancora pienamente applicabile, ma i principi sui quali si basano (oltre ad essere ampiamente riconosciuti, come detto, presso la giurisprudenza amministrativa) non sono affatto una novità nella legislazione europea e nazionale.
Viene alla mente, innanzitutto, il Regolamento UE in materia di protezione dei dati personali (GDPR), che include tra le informazioni da fornire agli interessati ai sensi degli articoli 13 e 14 “l’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”. Ma anche il Codice dei contratti pubblici (D.Lgs. n. 36/2023) che all’articolo 30 reca specifiche disposizioni per regolare l’uso di procedure automatizzate nel ciclo di vita dei contratti pubblici, incluse le soluzioni di intelligenza artificiale. In tal senso, assumono particolare rilievo i principi sui quali devono essere basate le decisioni assunte mediante automazione, pure richiamati dal Consiglio di Stato nella sentenza esaminata, ossia:
- a) conoscibilità e comprensibilità, per cui ogni operatore economico ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino e, in tal caso, a ricevere informazioni significative sulla logica utilizzata;
- b) non esclusività della decisione algoritmica, per cui comunque esiste, nel processo decisionale, un contributo umano capace di controllare, validare ovvero smentire la decisione automatizzata;
- c) non discriminazione algoritmica, per cui il titolare mette in atto misure tecniche e organizzative adeguate al fine di impedire effetti discriminatori nei confronti degli operatori economici.
Linee guida Agid su acquisti di AI nella PA: serve trasparenza
Al di fuori della gestione del ciclo di vita dei contratti pubblici, è utile richiamare le Linee Guida per l’adozione, l’acquisto e lo sviluppo di sistemi di intelligenza artificiale nella Pubblica Amministrazione, pubblicate da AgID e, ad oggi, disponibili in bozza, in attesa che sia consolidato il testo definitivo alla luce dei risultati della consultazione pubblica, conclusa da alcuni mesi.
Le Linee Guida, precisando le disposizioni del GDPR e dell’AI Act, pongono in capo alle PA l’obbligo di “garantire un elevato livello di trasparenza e chiarezza nell’impiego di sistemi di IA, soprattutto quando tali sistemi possono avere un impatto sui diritti e sugli interessi degli utenti” (articolo 7.2), sia in modo generalizzato, attraverso “un’informativa chiara, esaustiva e accessibile, affinché gli utenti possano comprendere il funzionamento dei sistemi di IA utilizzati dalla PA e i diritti che ne derivano in capo all’interessato”, sia in caso di esercizio, da parte dei cittadini, della facoltà di ottenere una spiegazione comprensibile riguardo alle decisioni adottate tramite sistemi di IA. Secondo le indicazioni definite da AgID, le PA dovrebbero, in particolare, “garantire la trasparenza del processo decisionale”, fornendo, “su richiesta, informazioni chiare e semplici che permettano ai cittadini di comprendere le logiche sottostanti alle decisioni automatizzate che li riguardano” e “essere in grado di spiegare quali dati sono stati utilizzati nel processo e come tali dati hanno influenzato l’esito della decisione”.
È evidente che questo tipo di spiegazioni non potranno essere fornite (o potranno essere fornite con una certa difficoltà) se le stesse PA non le avranno acquisite in fase di selezione e acquisto, o di sviluppo – se realizzato internamente – dei sistemi di IA da adottare a supporto all’attività provvedimentale, valutando attentamente i benefici attesi, in termini di incremento dell’efficienza e riduzione dei tempi di definizione dei procedimenti amministrativi e le possibili ricadute sulla tutela dei diritti della persona.