All’interno delle organizzazioni si sente parlare sempre più spesso di agenti AI, strumenti che stanno guadagnando spazio grazie alla loro flessibilità e alla capacità di adattarsi a molteplici contesti operativi.
Ad oggi, pertanto, è importante inquadrarli dal punto di vista normativo per comprendere i rischi che derivano dall’introduzione di queste soluzioni all’interno della propria organizzazione e per implementarli in modo consapevole e conforme alla normativa.
Gli agenti AI, infatti, richiedono un’analisi giuridica su più fronti tra cui, ad esempio, la conformità all’AI Act e alla normativa sulla protezione dei dati personali.
Alla luce di ciò, l’adozione degli agenti AI passa necessariamente attraverso una governance strutturata che definisca in modo chiaro ruoli, responsabilità e regole di utilizzo.
Indice degli argomenti
Governance degli agenti AI: quadro di riferimento e gli obiettivi
In questo scenario è interessante l’analisi svolta dall’Infocomm Media Development Authority di Singapore nel “Model AI Governance Framework for Agentic AI”[1].
Di seguito, analizziamo alcuni degli aspetti normativi che devono essere tenuti in considerazione al fine di fornire qualche spunto di riflessione sull’adozione degli agenti AI all’interno delle organizzazioni.
Quando una soluzione diventa un agente AI
In primo luogo, è necessario capire quando una soluzione è un agente AI.
Sul punto, come evidenziato sia nel Framework sopra citato sia in altre definizioni autorevoli[2], il termine “agente AI” viene spesso utilizzato in modo approssimativo per descrivere soluzioni anche molto diverse tra loro.
Nonostante questa incertezza definitoria, è possibile individuare alcuni tratti comuni che caratterizzano gli agenti AI.
Autonomia, pianificazione e capacità di azione
In particolare, questi si distinguono per la loro capacità di: a) perseguire autonomamente obiettivi complessi, anche non completamente specificati ex ante, attraverso attività di pianificazione a lungo termine, adattiva e contestuale; b) intraprendere azioni, non solo in ambienti digitali (ad esempio sistemi informativi, database, applicazioni), ma potenzialmente anche nel mondo reale o fisico.
Inoltre, gli agenti possono essere in grado di collaborare con altri agenti in contesti di workflow complessi.
AI Act e agenti AI: ambito di applicazione e possibili ricadute
Dopo aver compreso, almeno a grandi linee, che cosa si intende per “agente AI”, si pone il primo quesito normativo: ossia se queste soluzioni di intelligenza artificiale possano essere considerate sistemi di IA ai sensi dell’AI Act[3] e se rientrino nell’ambito di applicazione del Regolamento[4].
Tale inquadramento è rilevante perché può portare ad una serie di adempimenti normativi che devono essere tenuti in considerazione dalle organizzazioni.
Infatti, in alcuni casi, l’impiego di agenti AI potrebbe condurre a una qualificazione come sistemi ad alto rischio.
Agenti AI e dati personali: rischi e presidî di protezione
Considerato che in molti casi gli agenti AI trattano dati personali, è necessario considerare la normativa data protection.
Rispetto a quest’ultima, l’ICO[5] ha evidenziato che molte problematiche degli agenti AI sono simili a quelle già note per le soluzioni di intelligenza artificiale generativa, ma che le caratteristiche “agentiche” possono amplificarle.
Tra i rischi che possono essere correlati agli agenti AI, l’ICO riporta, ad esempio, il possibile aumento delle decisioni automatizzate, la definizione eccessivamente ampia delle finalità di trattamento e l’accesso a dati personali non strettamente necessari.
Finalità troppo ampie e accesso non necessario ai dati
Rispetto agli ultimi due punti, infatti, il rischio è quello di definire finalità troppo ampie per “coprire” qualsiasi possibile utilizzo futuro dell’agente e dargli così ampio spazio per accedere ad un bacino maggiore di dati, tra cui potrebbero esserci anche dati personali.
In questo contesto, il DPO può svolgere un ruolo importante nel guidare le organizzazioni sia in fase di progettazione che di monitoraggio continuo degli agenti AI.
La governance degli agenti: alcuni spunti operativi
In questo scenario, sono utili gli spunti operativi per gestire in modo sicuro gli agenti AI dell’Infocomm Media Development Authority di Singapore.
Di seguito, al fine di fornire una mera esemplificazione degli aspetti da tenere in considerazione, si riportano solo alcune delle indicazioni dell’autorità.
Principio del minimo privilegio e limiti di accesso
In particolare, secondo l’autorità è opportuno: definire limiti chiari all’accesso dell’agente a strumenti e sistemi, secondo il principio del minimo privilegio.
Livelli di autonomia e workflow per attività critiche
È inoltre opportuno regolare il livello di autonomia dell’agente, utilizzando procedure e workflow strutturati soprattutto per attività critiche.
Contenimento, isolamento e spegnimento in caso di malfunzionamenti
Ancora, è utile delimitare l’area di impatto dell’agente, prevedendo meccanismi di isolamento, spegnimento e contenimento in caso di malfunzionamenti.
Tracciabilità e accountability delle operazioni
Infine, è essenziale garantire la tracciabilità delle operazioni svolte dagli agenti AI.
Infatti, come evidenziato nel documento, la governance degli agenti AI ruota attorno a due assi fondamentali: le azioni che l’agente è autorizzato a compiere (ad esempio soglie economiche, approvazioni preventive, blocco automatico di attività illegali); le informazioni a cui l’agente può accedere, con particolare attenzione ai dati personali e riservati.
Fornitori esterni: contratti, obblighi e responsabilità
Un altro punto rilevante riguarda la gestione dei rapporti con fornitori esterni; infatti, è fondamentale definire contrattualmente, tra gli altri, la distribuzione degli obblighi, le garanzie di sicurezza e le responsabilità.
Trasparenza e alfabetizzazione: cosa devono sapere gli utenti
Infine, il documento pone l’attenzione anche alla trasparenza verso gli utenti e all’alfabetizzazione.
Infatti, soprattutto nel contesto lavorativo, gli utenti devono sapere cosa può fare l’agente AI, quali dati utilizza e quando è necessario intervenire.
Conclusioni: una governance solida per un’adozione consapevole
Quelli riportati sono solo alcuni degli aspetti di rischio e normativi da tenere in considerazione quando si decide di implementare un agente AI.
Seppur sia innegabile che i punti di attenzione sono numerosi e che, ad un primo sguardo, possano spaventare, è importante ricordare che un approccio strutturato e consapevole può semplificare la gestione degli stessi.
Pertanto, è importante che le organizzazioni adottino una governance solida, definendo limiti chiari all’operatività degli agenti, garantendo la tracciabilità delle loro azioni e coinvolgendo figure chiave come il DPO.
Note
[1] “MODEL AI GOVERNANCE FRAMEWORK FOR AGENTIC AI”, Infocomm Media Development Authority, 22 gennaio 2026
[2] “Gli agenti AI sono sistemi software che sfruttano l’AI per perseguire obiettivi e completare attività per conto degli utenti. Mostrano capacità di ragionamento, pianificazione e memoria e hanno un livello di autonomia tale da essere in grado di prendere decisioni, apprendere e adattarsi.
Le loro capacità sono rese possibili in gran parte dalla capacità multimodale dell’AI generativa e dei foundation model dell’AI. Gli agenti AI possono elaborare contemporaneamente informazioni multimodali come testo, voce, video, audio, codice e altro; possono conversare, ragionare, imparare e prendere decisioni. Possono imparare nel tempo e facilitare le transazioni e i processi aziendali. Gli agenti possono collaborare con altri agenti per coordinare ed eseguire workflow più complessi”. (definizione data da Google https://cloud.google.com/discover/what-are-ai-agents)
[3] Cfr. art. 3, n. 1, AI Act
[4] Cfr. art. 2 AI Act
[5] “ICO tech futures: Agentic AI”, Information Commissioner’s Office, 8 gennaio,2026











