La governance dell’agentic AI è diventata la vera discriminante tra i progetti enterprise che avanzano e quelli che collassano su sé stessi. Nell’ultimo anno, i dati raccolti su oltre 3.000 responsabili aziendali europei restituiscono un quadro inequivocabile: la tecnologia non è il problema, lo è la struttura che la governa.
Indice degli argomenti
Tre progetti su quattro verso il fallimento: i numeri dell’agentic AI
Nell’ultimo anno, abbiamo avuto modo di confrontarci con oltre 3.000 responsabili aziendali europei, arrivando a una conclusione netta: tra i progetti di agentic AI attualmente in corso, tre su quattro sono destinati a incontrare significative sfide di sicurezza.
L’entusiasmo, e la conseguente “paura di perdere l’occasione” (FOMO), legati all’AI e all’agentic AI ha spinto molte aziende a cercare di correre prima ancora di aver imparato a camminare in questo ambiente emergente. Non sorprende quindi che Gartner preveda un aumento delle cancellazioni di progetti di agentic AI fino al 2027, o che un report del MIT mostri come la maggior parte dei progetti pilota di GenAI enterprise stia già fallendo. La situazione è ancora più critica se consideriamo il punto di vista della cybersecurity: secondo Stanford, solo il 6% delle organizzazioni sta utilizzando un framework di sicurezza avanzato per l’AI.
Governance inadeguata, non codice difettoso: il problema di fondo
Ma il problema di fondo non è la qualità del codice, bensì una governance inadeguata. A meno che i consigli di amministrazione non riescano a instillare fin da subito una mentalità di sicurezza, e intervengano con urgenza per imporre una governance, definire risultati chiari e integrare meccanismi di protezione (guardrail) nelle implementazioni di agentic AI, il fallimento è inevitabile.
Dalle risposte all’azione: il cambiamento di paradigma dell’agentic AI
L’agentic AI sposta gli equilibri e segna un cambiamento fondamentale, passando dall’AI che fornisce risposte a quella che intraprende azioni. Questo porta velocità e scalabilità, ma sposta anche la superficie di controllo verso identità, privilegi e supervisione. Il successo dell’agentic AI dipende meno dalle linee di codice e più dalle catene di responsabilità che coinvolgono il consiglio di amministrazione. La qualità del codice è importante, ma sono i meccanismi di applicazione e controllo a determinarne la portata dell’impatto.
Perché l’agentic AI fallisce: tre criticità strutturali
L’agentic AI spesso incontra ostacoli a causa di un mancato allineamento con la governance. Troppi programmi fanno capo a una singola funzione, dove questa tecnologia è trattata come un progetto del CIO e non come un’iniziativa aziendale di proprietà del consiglio di amministrazione. I dipartimenti di sicurezza, rischio, legale, operations e business vengono coinvolti tardi, o per nulla. Il risultato è che le decisioni vanno alla deriva, compaiono versioni ‘shadow’ e nessuno possiede una panoramica completa.
Un’ulteriore criticità comune è la deriva dei risultati. I progetti vengono avviati senza obiettivi di business e sicurezza chiari e misurabili. I team iniziano a fare uso di un tool, e solo in seguito cercano di giustificarne il motivo. I budget si estendono, i progetti pilota si insinuano nella produzione e, in breve tempo, nessuno può mostrare una misura di successo approvata dal consiglio o una soglia di rischio.
Guardrail insufficienti e accessi non controllati
Infine, i guardrail sono pochi e non sufficientemente testati. Gli agenti vengono attivati con privilegi eccessivi, accesso a dati sensibili, controlli di identità superficiali e un modello di verifica in tempo reale minimo o assente per limitare l’accesso. Non c’è una ‘cintura di sicurezza’, nessun principio Zero Trust per l’AI: i controlli che sembravano adeguati il primo giorno inevitabilmente si deteriorano e falliscono con l’aumentare delle integrazioni.
Un piano d’azione efficace per il board: governance, risultati, guardrail
Per contrastare questi rischi, le aziende devono istituire una governance robusta.
Istituire un consiglio di governance interfunzionale
L’agentic AI dovrebbe essere trattata come un’iniziativa di livello enterprise che metta al centro la sicurezza, idealmente con la creazione di una forma di Consiglio di Governance (un organismo interfunzionale che supervisiona tutte le attività di agentic AI in azienda). Questo consiglio si riunirebbe su base mensile, riferirebbe al consiglio di amministrazione ogni trimestre e deterrebbe tutti i diritti decisionali. Una responsabilità condivisa aiuta a garantire che i progetti siano resilienti, conformi e strategicamente allineati. Se l’azienda ha un Chief AI Officer, lo si renda responsabile del registro degli agenti, dei dati, dei privilegi, dei proprietari e dei controlli.
Definire e limitare i risultati con obiettivi misurabili
È anche essenziale definire e limitare i risultati. I programmi dovrebbero partire da obiettivi di business misurabili e consapevolezza del rischio, non dalla tecnologia. Idealmente si dovrebbero stabilire due o tre obiettivi approvati dal consiglio che siano rilevanti, per definire poi indicatori di rischio, azioni vietate e benchmark di sicurezza per evitare di sprecare investimenti. I progetti possono essere concepiti a ritroso partendo da questi confini. Se un’azione non può essere collegata a un’identità autorizzata con uno scopo verificabile, non viene eseguita.
Implementare guardrail fin dal primo giorno
Infine, le aziende devono implementare guardrail fin dal primo giorno. La fiducia deve essere bilanciata con il controllo attraverso i principi Zero Trust. Controlli dei privilegi e sicurezza “identity-first” sono i nuovi meccanismi di protezione per l’agentic AI. Gli agenti dovrebbero essere trattati come identità, unificando quelle umane, macchina e degli agenti sotto un’unica policy. Applicare il principio del privilegio minimo, credenziali a breve termine e separazione dei compiti. Utilizzare sub-agenti per i passaggi rischiosi; mantenere una persona nel ciclo per le azioni irreversibili e registrare i log per ogni decisione e chiamata. La sicurezza by design garantisce l’innovazione senza esporre l’azienda a rischi evitabili. Si può pensare in questo modo: si fornirebbe accesso illimitato a uno stagista? Allora perché darlo a un agente AI? L’autonomia per i sistemi agentici deve essere guadagnata, non data per scontata in partenza.
Verifiche operative per il primo trimestre
Qui una serie di verifiche da cui poter partire, già nel primo trimestre.
Governance
- Formare il Consiglio di Governance dell’agentic AI e pubblicarne il mandato.
- Mantenere un registro aggiornato degli agenti, degli accessi ai dati, dei proprietari e dei controlli.
- Eseguire analisi premortem, test di Red Team sui prompt e prove di scenario prima del lancio.
- Esaminare incidenti e mancate collisioni con il consiglio di amministrazione ogni trimestre.
Risultati
- Approvare obiettivi misurabili per ogni caso d’uso con soglie di danno.
- Elencare le azioni irreversibili che richiedono sempre una decisione umana.
- Mappare ogni azione a un’identità e a un purpose code.
Guardrail
- Unificare le identità per persone, servizi e agenti.
- Applicare principi di privilegio minimo, credenziali con scadenza e modelli di sub-agenti.
- Rendere obbligatorie richieste e risposte firmate con monitoraggio continuo.
- Mantenere una persona nel ciclo per le fasi di rilascio o per i cambiamenti con un impatto sul cliente.
Il panorama dell’agentic AI: complessità e punti ciechi
La complessità è in aumento, e la frammentazione degli stack crea punti ciechi su rete, cloud, SaaS e OT. Le analisi di Unit 42 mostrano che la maggior parte degli incidenti ora riguarda molteplici superfici di attacco. In troppi luoghi il livello di fiducia resta elevato senza necessità, con account dotati privilegi eccessivi che sono ancora la norma negli ambienti cloud. I tempi di risposta si misurano in giorni, quando l’obiettivo dovrebbero essere i minuti. Se non vengono controllati da subito, i progetti di agentic AI possono amplificare enormemente ciascuna di queste debolezze.
Il valore del successo: quando la sicurezza è by design
L’agentic AI ha successo solo quando è integrata in programmi enterprise con chiara proprietà e supervisione. La governance deve essere presente già dal primo documento di progettazione e fino alla revisione trimestrale, i risultati sono chiari e i meccanismi di protezione sono integrati fin dall’inizio. Un’implementazione efficace si verifica quando la sicurezza è un elemento fondamentale in tutto il processo. Le attività iniziano nel consiglio di amministrazione, per poi fluire attraverso architecture, engineering e operations.













