La crescente complessità delle infrastrutture digitali, caratterizzate da ambienti multi-cloud, servizi distribuiti e applicazioni dinamiche, rende sempre più difficile mantenere un controllo efficace della sicurezza utilizzando approcci tradizionali basati su verifiche manuali e strumenti isolati. In questo contesto emerge un nuovo paradigma tecnologico, basato sull’intelligenza artificiale agentica, che consente di progettare sistemi autonomi in grado di orchestrare strumenti diversi, analizzare grandi quantità di dati e adattare il proprio comportamento in modo continuo.
Indice degli argomenti
Cybersecurity e IA: la difesa digitale diventa autonoma
L’adozione di architetture multi-agente, workflow intelligenti e memorie persistenti permette di trasformare attività come l’attack surface management, il penetration testing e la cyber threat intelligence in processi automatizzati, scalabili e costantemente aggiornati. Questo articolo analizza l’evoluzione della cybersecurity verso modelli autonomi, evidenziando i limiti dell’automazione tradizionale e le opportunità offerte da sistemi in grado di apprendere nel tempo e reagire agli eventi. Vengono inoltre esaminati gli aspetti architetturali, organizzativi e normativi legati all’introduzione di queste tecnologie, con particolare attenzione alla necessità di garantire controllo, tracciabilità e conformità alle normative vigenti.
L’intelligenza artificiale agentica non rappresenta soltanto un’innovazione tecnica, ma un cambiamento di paradigma che sta ridefinendo il modo in cui vengono progettate le strategie di difesa digitale.
Che cos’è l’intelligenza artificiale agentica nella cybersecurity
Negli ultimi anni la cybersecurity ha attraversato una trasformazione profonda, determinata dalla crescente complessità delle infrastrutture digitali, dall’aumento della superficie di attacco e dall’accelerazione con cui nuove vulnerabilità vengono scoperte e sfruttate. Le organizzazioni moderne operano in ambienti distribuiti, multi-cloud, interconnessi e dinamici, nei quali servizi, applicazioni e dispositivi vengono creati, modificati e dismessi con una velocità che rende sempre più difficile mantenere una visione aggiornata dello stato di sicurezza. In questo contesto, gli approcci tradizionali basati su controlli manuali, audit periodici e strumenti isolati mostrano limiti evidenti. La necessità di evolvere verso modelli più autonomi, adattivi e continui ha portato all’emergere di un nuovo paradigma tecnologico che sta iniziando a ridefinire il modo in cui si progettano le attività di difesa e di sicurezza offensiva: l’intelligenza artificiale agentica.
Con il termine intelligenza artificiale agentica si indica un approccio in cui sistemi software dotati di capacità di ragionamento, memoria e orchestrazione sono in grado di eseguire operazioni complesse in modo autonomo, coordinando strumenti diversi e adattando il proprio comportamento in base ai risultati ottenuti. A differenza dell’automazione tradizionale, che esegue sequenze predefinite di comandi, un sistema agentico può decidere quali azioni intraprendere, quando ripeterle, come interpretare i dati raccolti e come reagire a situazioni inattese. Questo tipo di architettura consente di affrontare problemi che fino a poco tempo fa richiedevano necessariamente l’intervento umano, come l’analisi della superficie di attacco, il penetration testing, la correlazione di informazioni di threat intelligence e la gestione continua delle vulnerabilità.
Perché i modelli tradizionali non riescono più a reggere
Per comprendere perché questo cambiamento sia necessario, è utile osservare come si è evoluta la sicurezza informatica negli ultimi vent’anni. In passato, le infrastrutture erano relativamente statiche, le applicazioni venivano distribuite lentamente e la superficie di attacco era limitata a pochi sistemi ben definiti. In quel contesto, era possibile eseguire controlli periodici, scansioni manuali e penetration test occasionali, ottenendo comunque un livello di sicurezza accettabile. Oggi la situazione è completamente diversa. Le organizzazioni utilizzano servizi cloud, container, microservizi, API pubbliche, integrazioni con fornitori esterni e piattaforme SaaS. Ogni nuova integrazione introduce potenziali punti di ingresso, e la velocità con cui queste componenti cambiano rende impossibile mantenere un controllo manuale efficace.
L’intelligenza artificiale agentica e la gestione della superficie di attacco
Uno dei problemi più evidenti riguarda la gestione della superficie di attacco. In molti contesti, le aziende non hanno una visione completa di tutti i sistemi esposti su Internet, dei sottodomini associati ai propri servizi, delle applicazioni accessibili pubblicamente o delle configurazioni che possono essere raggiunte da reti esterne.
Anche quando esistono strumenti per la scoperta degli asset, questi vengono spesso eseguiti in modo sporadico e i risultati non vengono integrati in un sistema che consenta di monitorare i cambiamenti nel tempo. Questo significa che nuovi servizi possono comparire senza essere analizzati, configurazioni possono diventare vulnerabili senza essere rilevate e sistemi dimenticati possono restare esposti per mesi o anni.
I limiti dell’automazione tradizionale
L’automazione tradizionale ha cercato di affrontare questo problema introducendo workflow che eseguono scansioni in modo programmato, ma questi approcci restano limitati perché non sono in grado di adattarsi al contesto. Uno script può eseguire sempre le stesse operazioni, ma non può decidere quali controlli siano più importanti in un determinato momento, né può interpretare i risultati in modo intelligente. Quando la quantità di dati cresce, la gestione manuale diventa inevitabile, e il vantaggio dell’automazione si riduce.
È proprio in questo punto che l’intelligenza artificiale agentica introduce un cambiamento significativo, perché permette di costruire sistemi che non si limitano a eseguire operazioni, ma che comprendono il contesto e modificano il proprio comportamento.
Come l’intelligenza artificiale agentica orchestra strumenti e memoria
Un sistema agentico per la cybersecurity è tipicamente composto da più componenti che lavorano insieme. Da un lato esistono gli strumenti tecnici, come scanner di vulnerabilità, motori di ricerca di asset, servizi di threat intelligence e piattaforme di analisi. Dall’altro lato esiste un livello di orchestrazione che coordina questi strumenti, decide quando utilizzarli e come interpretare i risultati.
A questo si aggiunge un sistema di memoria persistente, che consente di salvare informazioni e di riutilizzarle in esecuzioni successive. Infine, un modello di intelligenza artificiale fornisce la capacità di ragionamento, permettendo al sistema di scegliere tra diverse strategie invece di seguire un percorso rigido.
Workflow autonomi per discovery, analisi e decisione
Questa architettura rende possibile costruire workflow molto più sofisticati rispetto a quelli tradizionali. Ad esempio, un sistema autonomo può individuare nuovi domini associati a un’organizzazione, verificare quali siano attivi, analizzare i servizi esposti, cercare vulnerabilità note, confrontare i risultati con database di intelligence e decidere quali test approfondire.
Tutto questo può avvenire senza intervento umano, ma mantenendo la possibilità di controllo e supervisione. Il risultato è una visione della sicurezza molto più aggiornata e coerente con la realtà operativa.
L’AI agentica nel penetration testing continuo
Un ambito in cui questo approccio mostra un grande potenziale è il penetration testing. Tradizionalmente, i test di sicurezza vengono eseguiti manualmente o con il supporto di strumenti automatici che richiedono comunque l’intervento di un analista per interpretare i risultati.
Questo modello funziona quando il perimetro è limitato, ma diventa inefficiente quando l’infrastruttura è ampia e dinamica. Inoltre, i penetration test vengono spesso eseguiti solo una o due volte all’anno, lasciando lunghi periodi in cui nuove vulnerabilità possono comparire senza essere rilevate.
Un modello operativo più continuo e adattivo
L’uso di sistemi agentici permette di immaginare un modello diverso, in cui il penetration testing diventa un processo continuo. Un agente può monitorare la superficie di attacco, individuare nuovi asset, eseguire scansioni mirate, tentare exploit controllati e documentare i risultati. Quando vengono trovate nuove vulnerabilità, il sistema può segnalarle automaticamente o avviare analisi più approfondite. Questo non significa eliminare il ruolo del tester umano, ma spostarlo verso attività di supervisione e decisione strategica, lasciando al sistema le operazioni ripetitive.
L’intelligenza artificiale agentica nelle applicazioni web moderne
Un altro ambito in cui l’approccio agentico si dimostra particolarmente efficace è l’analisi delle applicazioni web moderne. Le applicazioni attuali sono spesso basate su codice JavaScript, generano contenuti dinamicamente e utilizzano API che non possono essere analizzate con semplici richieste HTTP. Gli scanner tradizionali incontrano difficoltà perché non sono in grado di interagire con l’interfaccia come farebbe un utente. Un sistema autonomo, invece, può controllare un browser reale, navigare le pagine, individuare parametri, inserire payload e osservare le risposte, adattando i test in base al comportamento dell’applicazione. Questo rende possibile individuare vulnerabilità che sfuggono agli strumenti automatici tradizionali.
Dalla threat intelligence a una visione unificata
La stessa logica può essere applicata alla threat intelligence. Le organizzazioni ricevono informazioni da molte fonti diverse, come database di vulnerabilità, feed di sicurezza, report di ricerca e servizi di monitoraggio. Gestire manualmente questi dati è difficile, e spesso le informazioni più rilevanti non vengono utilizzate. Un sistema agentico può raccogliere continuamente dati da fonti pubbliche, normalizzarli, salvarli in un database e utilizzarli per migliorare le analisi. Ad esempio, se una vulnerabilità viene segnalata come attivamente sfruttata, il sistema può controllare automaticamente se esistono asset esposti e avviare verifiche mirate.
L’IA agentica come piattaforma integrata di sicurezza
Questo tipo di integrazione tra discovery, scanning, exploitation e intelligence rappresenta uno dei cambiamenti più importanti introdotti dall’intelligenza artificiale agentica. Invece di avere strumenti separati, si costruisce una piattaforma in cui ogni componente contribuisce a una visione unica della sicurezza. La memoria persistente permette di mantenere lo stato nel tempo, e il ragionamento automatico consente di adattare il comportamento senza intervento umano. Il risultato è un sistema che lavora in modo continuo, riducendo il tempo tra la comparsa di un problema e la sua individuazione.
Le nuove sfide di governance e controllo
Tuttavia, questo nuovo modello introduce anche nuove sfide. Un sistema autonomo deve essere progettato con attenzione, perché può eseguire operazioni complesse e potenzialmente invasive. È necessario definire regole chiare, limitare lo scope delle attività e garantire che tutte le operazioni siano tracciabili. La sicurezza del workflow diventa un elemento fondamentale, perché credenziali, chiavi API e dati sensibili devono essere protetti. Inoltre, quando più agenti lavorano insieme, è necessario coordinare le operazioni per evitare conflitti o errori.
Nonostante queste difficoltà, l’evoluzione verso sistemi autonomi appare inevitabile. La complessità delle infrastrutture moderne rende sempre più difficile mantenere un controllo manuale, e l’aumento delle minacce richiede tempi di risposta sempre più rapidi. L’intelligenza artificiale agentica offre una risposta a questa esigenza, permettendo di costruire piattaforme che lavorano in modo continuo, adattivo e scalabile.
Architetture multi-agente e coordinamento delle operazioni
L’introduzione di sistemi autonomi nella cybersecurity non rappresenta soltanto un miglioramento degli strumenti esistenti, ma implica un cambiamento profondo nell’architettura con cui vengono progettate le piattaforme di sicurezza.
Quando si passa da workflow manuali o semi-automatici a sistemi agentici, il problema principale non è più come eseguire una singola operazione, ma come coordinare molte operazioni diverse, spesso in parallelo, mantenendo coerenza, controllo e tracciabilità.
Questo porta naturalmente verso modelli basati su architetture multi-agente, in cui più componenti specializzati collaborano per raggiungere un obiettivo comune. In un contesto di sicurezza informatica, un agente può essere responsabile della scoperta degli asset, un altro dell’analisi delle vulnerabilità, un altro della raccolta di intelligence, mentre un componente centrale orchestra il flusso delle informazioni e decide quali azioni eseguire.
Le architetture multi-agente superano i workflow lineari
L’adozione di architetture multi-agente permette di superare uno dei limiti principali degli approcci tradizionali, cioè la rigidità dei workflow lineari. In un sistema sequenziale ogni operazione viene eseguita in un ordine prestabilito, e qualsiasi variazione richiede modifiche manuali.
In un sistema agentico, invece, i componenti possono lavorare in modo indipendente e reagire agli eventi. Se viene scoperto un nuovo servizio esposto, un agente può avviare automaticamente una scansione, mentre un altro può verificare se esistono vulnerabilità note e un terzo può controllare fonti di threat intelligence.
Questo modello rende possibile un monitoraggio continuo, in cui il sistema non aspetta un intervento umano ma agisce in base alle informazioni disponibili.
Modelli sequenziali, paralleli ed event-driven
Per rendere possibile questo tipo di comportamento è necessario utilizzare pattern architetturali adatti a sistemi distribuiti. Il modello sequenziale rimane utile per operazioni semplici, ma quando il numero di attività cresce diventa necessario introdurre esecuzione parallela e meccanismi event-driven. Nel modello parallelo, più agenti possono lavorare contemporaneamente, riducendo i tempi di analisi e permettendo di gestire infrastrutture di grandi dimensioni. Nel modello event-driven, invece, le operazioni vengono avviate in risposta a eventi, come la scoperta di un nuovo asset o la pubblicazione di una nuova vulnerabilità. Questo approccio rende il sistema più reattivo e più adatto a contesti in cui la situazione cambia rapidamente.
La resilienza dei sistemi distribuiti
Con l’aumento della complessità diventa fondamentale garantire la resilienza del sistema. In un ambiente distribuito, errori e interruzioni sono inevitabili, e il workflow deve essere progettato per continuare a funzionare anche quando un componente non risponde.
Tecniche come il retry automatico, la gestione esplicita delle eccezioni e l’uso di circuit breaker permettono di evitare che un singolo errore blocchi l’intero processo. Questi meccanismi, comuni nelle architetture cloud e nei sistemi ad alta disponibilità, diventano essenziali anche nella cybersecurity automatizzata, perché un sistema che lavora in modo continuo deve essere in grado di recuperare da situazioni impreviste senza richiedere intervento manuale.
Workflow modulari e scalabilità operativa
Un altro elemento chiave per la scalabilità è la composizione modulare dei workflow. Invece di costruire pipeline monolitiche, è preferibile suddividere le operazioni in moduli indipendenti, riutilizzabili e facilmente sostituibili. Un sub-workflow dedicato alla scoperta degli asset può essere utilizzato in più contesti, così come un modulo per l’analisi delle vulnerabilità o per la generazione dei report.
La comunicazione tra i moduli può avvenire tramite webhook, code di messaggi o database condivisi, permettendo di collegare componenti diversi senza creare dipendenze rigide. Questo approccio facilita l’evoluzione del sistema e consente di integrare nuovi strumenti senza dover riscrivere l’intera architettura.
L’intelligenza artificiale agentica e il ruolo della memoria persistente
La condivisione dei dati tra agenti richiede un’infrastruttura di memoria persistente. Nei sistemi agentici la memoria non serve solo per salvare risultati, ma per mantenere lo stato del sistema nel tempo. Database tradizionali possono essere utilizzati per informazioni strutturate, come l’elenco degli asset o le vulnerabilità rilevate, mentre database vettoriali consentono di memorizzare testi, report e indicatori di compromissione in modo che possano essere recuperati per similarità. Questo tipo di memoria permette al sistema di apprendere progressivamente, migliorando la qualità delle analisi e riducendo la necessità di ripetere operazioni già eseguite.
Protocolli standard e orchestrazione intelligente
La comunicazione tra agenti e modelli di intelligenza artificiale richiede protocolli standardizzati che permettano di utilizzare strumenti esterni mantenendo il contesto. In questo scenario, protocolli progettati per integrare modelli linguistici con funzioni operative diventano fondamentali, perché consentono di trasformare il modello in un orchestratore capace di scegliere quale strumento utilizzare e di interpretarne i risultati. Questo livello di astrazione permette di combinare automazione deterministica e ragionamento intelligente, ottenendo sistemi più flessibili e più vicini al modo in cui lavora un analista umano.
L’IA agentica nel penetration testing su larga scala
Quando questi principi vengono applicati al penetration testing, diventa possibile costruire pipeline scalabili in grado di gestire più progetti contemporaneamente. In un contesto professionale, ogni attività deve rispettare uno scope preciso, definito da autorizzazioni e contratti. Un sistema autonomo deve quindi essere progettato in modo da verificare automaticamente che ogni operazione rientri nel perimetro consentito. La validazione dello scope non è solo una questione legale, ma anche tecnica, perché impedisce che il sistema esegua scansioni su asset non autorizzati. L’orchestrazione centrale deve controllare quali agenti possono operare su quali risorse, mantenendo una separazione chiara tra progetti diversi.
Container, code di messaggi e crescita orizzontale
La scalabilità può essere ottenuta distribuendo i componenti su più nodi, utilizzando container e code di messaggi per gestire i task. In questo modo è possibile aumentare la capacità del sistema semplicemente aggiungendo nuove istanze, senza modificare la logica del workflow.
Questo modello, già diffuso nelle architetture cloud, si adatta bene anche alla cybersecurity autonoma, perché permette di analizzare grandi quantità di dati senza rallentare il sistema. La possibilità di scalare orizzontalmente diventa particolarmente importante quando si eseguono scansioni su infrastrutture molto estese o quando si devono elaborare grandi volumi di informazioni di threat intelligence.
La sicurezza operativa dei workflow con l’IA agentica
Accanto agli aspetti architetturali, la progettazione di sistemi agentici richiede una forte attenzione alla sicurezza operativa. Le credenziali utilizzate per accedere a API, database e servizi devono essere protette tramite sistemi di gestione dei segreti, evitando di inserirle direttamente nei workflow. La rotazione periodica delle chiavi riduce il rischio di compromissione, mentre il controllo degli accessi limita le operazioni agli utenti autorizzati. Il logging e l’audit diventano elementi essenziali, perché ogni azione eseguita dal sistema deve essere tracciabile. In ambienti regolamentati, la possibilità di dimostrare cosa è stato fatto, quando e da chi, è spesso un requisito obbligatorio.
Versioning, audit e change management
La necessità di mantenere tracciabilità porta anche all’introduzione di meccanismi di versioning e change management per i workflow. Quando un sistema autonomo viene modificato, è importante poter risalire alla versione precedente e capire quali cambiamenti sono stati introdotti. Questo approccio, comune nello sviluppo software, diventa altrettanto importante nella cybersecurity automatizzata, perché gli errori di configurazione possono avere conseguenze significative. Gestire i workflow come codice, con controlli di versione e procedure di revisione, aiuta a mantenere il sistema stabile e affidabile.
I sistemi autonomi tra diritto, etica e conformità
L’introduzione di sistemi autonomi solleva inevitabilmente questioni legali ed etiche. Strumenti in grado di eseguire scansioni, tentare exploit e raccogliere informazioni devono essere utilizzati solo con autorizzazione esplicita e all’interno di un perimetro definito. Il rispetto dello scope è un principio fondamentale, e il sistema deve essere progettato per impedirne la violazione.
Inoltre, quando vengono individuate vulnerabilità, è necessario seguire procedure di responsible disclosure, informando i soggetti interessati in modo corretto e documentato. Le normative nazionali e internazionali, come quelle relative alla protezione dei dati personali, impongono vincoli precisi sull’uso delle informazioni raccolte durante le attività di sicurezza.
Responsabilità, proporzionalità e trasparenza
Dal punto di vista etico, l’automazione introduce nuove responsabilità. Un sistema che lavora in modo continuo può avere un impatto molto più grande rispetto a un test manuale, e per questo deve essere utilizzato con attenzione.
Principi come proporzionalità, trasparenza e rispetto della privacy devono guidare la progettazione dei workflow. L’obiettivo non è eseguire il maggior numero possibile di test, ma migliorare la sicurezza riducendo i rischi.
Questo richiede competenze non solo tecniche, ma anche organizzative e giuridiche, perché chi utilizza sistemi autonomi deve essere in grado di valutare le conseguenze delle proprie azioni.
L’intelligenza artificiale agentica e il futuro della cybersecurity
Guardando al futuro, è probabile che l’intelligenza artificiale agentica diventi uno degli elementi centrali della cybersecurity. I modelli continueranno a migliorare, diventando più capaci di ragionare e di collaborare tra loro.
Le architetture multi-agente permetteranno di costruire piattaforme in grado di monitorare continuamente la sicurezza, individuare problemi in tempo reale e suggerire azioni correttive. Questo potrebbe portare a una democratizzazione della sicurezza, rendendo disponibili strumenti avanzati anche a organizzazioni che oggi non hanno risorse sufficienti per attività di analisi complesse.
I rischi di un uso improprio
Allo stesso tempo, esiste il rischio che queste tecnologie vengano utilizzate in modo improprio. Sistemi autonomi potrebbero essere impiegati per scopi offensivi, aumentando la velocità e la scala degli attacchi. Questo rende ancora più importante definire regole, controlli e standard di utilizzo.
La responsabilità non riguarda solo gli sviluppatori, ma anche le organizzazioni che adottano queste tecnologie e i professionisti che le utilizzano. L’equilibrio tra innovazione e sicurezza sarà uno dei temi centrali nei prossimi anni.
L’IA non sostituisce l’esperto
L’evoluzione verso la cybersecurity autonoma non significa eliminare il ruolo umano, ma trasformarlo. Gli analisti e i penetration tester non saranno più impegnati principalmente in attività ripetitive, ma dovranno progettare workflow, interpretare risultati e prendere decisioni strategiche. Le competenze richieste diventeranno più interdisciplinari, combinando conoscenze di sicurezza, architetture distribuite e intelligenza artificiale. In questo scenario, l’intelligenza artificiale agentica non sostituisce l’esperto, ma diventa uno strumento che amplifica la sua capacità di controllo.
Una cybersecurity autonoma ma governata
La sicurezza informatica sta entrando in una fase in cui la complessità delle infrastrutture rende inevitabile l’adozione di sistemi autonomi. Le organizzazioni che sapranno progettare architetture scalabili, sicure e controllabili avranno un vantaggio significativo nella gestione dei rischi.
L’intelligenza artificiale agentica offre gli strumenti per affrontare questa sfida, ma richiede un approccio consapevole, in cui tecnologia, governance e responsabilità procedano insieme. Solo in questo modo sarà possibile sfruttare il potenziale dell’automazione senza perdere il controllo, costruendo un modello di cybersecurity capace di adattarsi a un mondo digitale in continua evoluzione.
Referenze
CISA – Cybersecurity and Infrastructure Security Agency, Known Exploited Vulnerabilities Catalog, U.S. Department of Homeland Security, aggiornamento continuo online.
National Institute of Standards and Technology (NIST), Artificial Intelligence Risk Management Framework (AI RMF 1.0), NIST, 2023.
European Union Agency for Cybersecurity (ENISA), Threat Landscape 2023, ENISA, 2023.
MITRE Corporation, ATT&CK Framework – Adversarial Tactics, Techniques, and Common Knowledge, MITRE, versione aggiornata online.
National Institute of Standards and Technology (NIST), Guide to Penetration Testing (SP 800-115), NIST Special Publication, 2008.
ISO/IEC, ISO/IEC 27001:2022 — Information Security, Cybersecurity and Privacy Protection, International Organization for Standardization, 2022.
European Union, Regulation (EU) 2016/679 – General Data Protection Regulation (GDPR), Official Journal of the European Union, 2016.
European Union, Directive (EU) 2022/2555 – NIS2 Directive on measures for a high common level of cybersecurity across the Union, 2022.
Russell, S., Norvig, P., Artificial Intelligence: A Modern Approach, Pearson, 4th Edition, 2021.
Goodfellow, I., Bengio, Y., Courville, A., Deep Learning, MIT Press, 2016.














