cyber sicurezza

CISO alla sfida degli degli LLM: rischio operativo e governance



Indirizzo copiato

Gli LLM stanno cambiando la cybersecurity perché non si limitano più ad analizzare ma possono agire. Per il CISO il punto decisivo è governare dati processi e fiducia operativa dentro un ecosistema dove agenti autonomi e conoscenza di dominio diventano centrale

Pubblicato il 16 mar 2026

Gerardo Costabile

Executive Vice President Dinova



ciso llm
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Tra la fine del 2025 e l’inizio del 2026, il panorama della sicurezza informatica ha subito una trasformazione radicale, a causa degli LLM (large language model) e per i CISO è una sveglia che richiede interventi.

Un esempio emblematico è rappresentato dalla vasta campagna di cyber-espionaggio che Anthropic ha attribuito con un alto grado di confidenza a un gruppo sponsorizzato dallo Stato cinese. Questa operazione, che ha colpito circa trenta bersagli globali, si è distinta per l’uso esteso di Claude Code, impiegato per automatizzare fasi critiche dell’intrusione che un tempo richiedevano ore di lavoro manuale da parte di operatori esperti.

Quasi contemporaneamente, Gambit Security ha rilevato che un attore malevolo è riuscito a utilizzare Claude per esfiltrare dati riservati fiscali di cittadini in Messico. Ha identificato vulnerabilità inediti e scritto script complessi per l’attacco.

Questi episodi segnano un punto di non ritorno. Quando un modello viene collegato a strumenti esterni, codebase reali e ambienti di esecuzione, cessa di essere un semplice generatore di testo e diventa un agente capace di agire nel mondo digitale.

Come gli LLM cambiano il paradigma della difesa, per i CISO

L’integrazione dei Large Language Models (LLM) nelle infrastrutture di difesa non è un semplice aggiornamento tecnologico, ma un cambiamento di paradigma. Siamo passati da un sistema “geocentrico” della sicurezza, basato su regole statiche ed epicicli di firme, a un modello basato sulla semantica e sull’orchestrazione della conoscenza. Per decenni, la cybersecurity ha tentato di gestire l’anomalia aggiungendo strati di complessità fragile; oggi, l’emergere degli LLM come veri e propri motori di ragionamento sposta il baricentro operativo. La sicurezza non è più una questione di classificazione binaria tra “buono” e “cattivo”, ma una sfida di comprensione dei contesti digitali. In questo nuovo scenario, gli LLM sono entità capaci di interpretare la logica profonda dei protocolli, eliminando quel collo di bottiglia della conoscenza che ha storicamente limitato l’efficacia dei security operations center (SOC).

La traiettoria degli ultimi anni mostra un’accelerazione impressionante verso l’autonomia decisionale. Nel 2022, gli LLM venivano guardati con sospetto o curiosità dagli addetti ai lavori, usati principalmente come classificatori passivi per analizzare parti di codice isolate. Tuttavia, la loro natura statica li rendeva poco efficaci in scenari reali. La transizione avvenuta tra il 2023 e il 2024 ha visto questi modelli trasformarsi in potenziatori di strumenti classici: l’intelligenza artificiale ha iniziato a colmare le lacune della taint analysis e del fuzzing tradizionale, fungendo da traduttore tra l’intuizione del ricercatore e il rigore della logica formale.

Quando il ragionamento dei modelli entra nella cybersecurity

Il vero spartiacque è stato però l’ingresso nell’era degli agenti autonomi. Un caso che rimarrà nella storia della cybersecurity è l’operazione “big sleep“, condotta da Google Project Zero. Un agente basato su LLM è riuscito a identificare una vulnerabilità in SQLite, una delle librerie più diffuse al mondo. La cosa straordinaria non è stata la scoperta in sé, ma il modo in cui è avvenuta: l’agente non ha usato la forza bruta, ma ha formulato un’ipotesi di compromissione dopo aver analizzato la logica del codice, verificandola poi sistematicamente. Questa capacità di ragionamento è confermata dai dati dell’AI Security Institute (AISI) britannico, che ha rilevato come la capacità dei modelli di risolvere compiti di livello specialistico sia balzata dal 9% del 2023 a una proiezione del 50% per la fine del 2025.

CISO e LLM davanti alla prova di benchmark e governance

Man mano che le capacità dei modelli crescono, diventa vitale disporre di criteri di valutazione rigorosi. Nel dibattito attuale si tende spesso a confondere termini che indicano livelli di analisi molto diversi. I benchmark tecnici lavorano “in trincea”. Il loro obiettivo è misurare capacità specifiche attraverso sfide di tipo Capture The Flag (CTF) o task di hacking reale. Strumenti come cve-bench e bountybench hanno introdotto una variabile pragmatica, valutando quanto un agente sia effettivamente in grado di scoprire falle che portano a ricompense economiche reali o che riguardano vulnerabilità storiche catalogate.

Tuttavia, misurare la capacità tecnica non basta a comprendere il rischio sistemico. Qui entrano in gioco le suite istituzionali e i framework di governance. Programmi come Cyberseceval 4 di Meta o le valutazioni del Frontier Model Forum non si limitano a dare un punteggio, ma cercano di capire se un modello rappresenta una minaccia per la sicurezza nazionale. Framework come l’OpenAI Preparedness Framework o la Responsible Scaling Policy di Anthropic stabiliscono delle “linee rosse”: soglie di rischio oltre le quali il rilascio di un modello deve essere bloccato o accompagnato da misure di mitigazione drastiche. A completare il quadro ci sono gli standard del NIST e dell’OWASP, che guidano le aziende nell’integrare queste tecnologie senza esporsi a nuove tipologie di attacchi applicativi, come il data poisoning o le vulnerabilità della supply chain dei modelli.

Le vulnerabilità introdotte dagli agenti intelligenti

L’adozione massiccia di agenti intelligenti ha paradossalmente creato una nuova, vasta superficie d’attacco. Non ci si preoccupa più soltanto della manipolazione dell’input tramite prompt injection, ma di vulnerabilità architettoniche molto più insidiose. Una delle minacce emergenti è l’agent-in-the-middle (AITM), un’evoluzione del classico attacco man-in-the-middle in cui un malintenzionato si inserisce nella comunicazione tra diversi agenti AI che collaborano tra loro, manipolando la fiducia reciproca e i dati scambiati.

Il rischio non risiede nel modello isolato, ma nella sua integrazione: se l’output di un LLM fluisce direttamente in una shell o in un workflow automatico senza una validazione rigorosa, l’intero sistema diventa intrinsecamente fragile. A questo si aggiunge il problema delle “allucinazioni strategiche“, che in un contesto di difesa potrebbero indurre un SOC a ignorare un attacco reale o a sprecare risorse su una falsa pista generata dall’inaccuratezza del modello. Inoltre, la gestione dei log e della privacy diventa critica, poiché i dati sensibili usati per addestrare o rifinire i modelli potrebbero essere esposti accidentalmente.

Lezione per i CISO: LLM nella governance operativa aziendale

Ad avviso di chi scrive, per un Chief Information Security Officer, la sfida non è più decidere se adottare l’intelligenza artificiale, ma come farlo senza compromettere la resilienza aziendale. La prima indicazione strategica riguarda lo spostamento degli investimenti: non basta acquistare “licenze AI“, occorre investire in ingegneria dei dati e nella strutturazione della conoscenza di dominio. Un modello generalista senza accesso a dati di contesto aziendali sicuri è un’arma spuntata.

Un pilastro fondamentale per il CISO è l’adozione della retrieval-augmented generation (RAG). Questa architettura permette di ancorare il ragionamento dell’intelligenza artificiale a fatti certi — log di rete, policy interne, documentazione tecnica — riducendo drasticamente le allucinazioni e garantendo che le risposte siano pertinenti all’ecosistema specifico dell’azienda. Parallelamente, il CISO deve promuovere l’uso di small language models (SLM), come ad esempio Tinysecgpt, che possono essere eseguiti localmente. Questo approccio “on-premise” o in enclave sicure minimizza il rischio di data leakage, un timore costante quando si inviano dati sensibili verso API di modelli frontier esterni.

Fiducia calibrata e controllo umano sugli agenti

Dal punto di vista della governance, il CISO deve implementare un modello di maturità a livelli. Si parte dal livello 1, dove l’AI assiste l’umano in compiti ripetitivi, per arrivare gradualmente al livello 3, in cui l’agente opera in autonomia condizionata sotto la supervisione strategica dell’analista (human-on-the-loop). Questa transizione richiede una “fiducia calibrata“: non bisogna fidarsi ciecamente dell’output dell’AI, ma validarlo attraverso protocolli standardizzati come l’MCP (Model Context Protocol). Infine, è essenziale che il CISO integri le evidenze dei benchmark tecnici nei processi di vendor management, chiedendo ai fornitori non solo quanto sia “bravo” il loro modello, ma come venga misurato e quali soglie di rischio facciano scattare protezioni automatiche.

La conoscenza di dominio come vantaggio decisivo

In ultima analisi, la cybersecurity nell’era degli LLM non è una sfida di pura potenza computazionale. Il vero collo di bottiglia non sarà più il costo del calcolo, ma la capacità di strutturare la conoscenza di dominio. In un mondo in cui l’esecuzione tecnica di un attacco sta diventando una commodity a basso costo, la direzione strategica e la comprensione dei contesti rimangono gli unici veri fattori differenzianti.

Il successo della difesa dipenderà dalla capacità di costruire un ecosistema in cui gli agenti autonomi operino entro framework di governance trasparenti e sicuri. La cybersecurity sta diventando una disciplina di ingegneria della conoscenza, dove l’obiettivo non è solo fermare un malware, ma orchestrare l’intelligenza collettiva — umana e artificiale — per navigare un panorama di minacce che si muove alla velocità del pensiero. Il CISO del futuro non sarà più un semplice guardiano dei perimetri, ma l’architetto di un sistema di conoscenza resiliente.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x