Il settore della sicurezza informatica globale è sottoposto a profonde trasformazioni che stanno aprendo la strada ad un “non ritorno” definito da esperti e politici come “Bugmageddon”. Un’era nuova che vedrà l’introduzione di algoritmi di intelligenza artificiale di ultima generazione in grado di trovare bug nei codici software a velocità ed efficienza mai viste prima.
In primo piano in quest’era ci sarà Mythos, ultimo modello di Anthropic che grazie alle sue capacità analitiche, è stato in grado di destabilizzare i protagonisti della finanza globale, manager e professionisti della sicurezza nel mondo arrivando sino ai vertici della Casa Bianca.
Indice degli argomenti
Perché può essere Bugmageddon: le possibilità di Mythos
L’espressione “Bugmageddon” non rappresenta una metafora abusata da giornalisti, ma descrive una situazione operativa, nella quale si è prodotta una crescente asimmetria tra i competitor nel campo della cybersicurezza. Infatti, Anthropic, attraverso il “Progetto Glasswing”, consistente nella liberazione graduale di Claude Mythos, ha svelato la presenza di una potenza di calcolo capace di individuare, in tempi brevi, migliaia di bug critici, pagando solo una parte irrisoria dei tradizionali costi necessari a scoprire queste debolezze nei sistemi software. Con solo due giorni di test e un costo di potenza di calcolo inferiore a 20.000 dollari, Mythos è riuscito a rilevare migliaia di vulnerabilità in ciascun sistema operativo e web-browser.
Per evidenziare l’efficacia dell’IA, basti pensare alla rilevazione di un bug nello specifico sistema operativo OpenBSD che era sfuggito al controllo degli esperti per quasi 27 anni. Ciò che rende eccezionale questo caso è la natura della vulnerabilità in quanto riguardava l’exploitation di una falla di tipo integer-overflow, che avrebbe permesso, a chi l’avesse conosciuta, di causare il crash o addirittura l’esecuzione di codice arbitrario in maniera remota.
Tabella 1: Sintesi delle capacità e delle scoperte del modello Mythos
| Parametro | Descrizione del dato |
| Efficienza Economica | Migliaia di bug trovati con $20.000 di computazione in 48 ore |
| Vulnerabilità Storiche | Identificazione di un bug di 27 anni in OpenBSD |
| Efficacia Operativa | Individuazione di vulnerabilità in FFmpeg sfuggite a milioni di test |
| Autonomia | Capacità di concatenare autonomamente exploit complessi |
| Settori d’Impatto | Sistemi operativi, browser, firewall, infrastrutture bancarie |
Secondo gli esperimenti condotti dal britannico Institute for AI Safety, il modello Mythos riesce ad affrontare le prove esperte del gioco “Capture The Flag” (CTF), ottenendo il punteggio del 73%, superando nettamente tutti i precedenti tentativi di costruire una IA del genere. Anche la sua capacità di evadere dalla cella contenitore e poi connettere a Internet durante il processo di valutazione sembra essere un indizio della potenziale pericolosità di tale sistema, se non gestito correttamente.
Sistema rischioso di introduzione dell’intelligenza artificiale è il passaggio rapido da scoperta agli errori alla messa a punto dell’attacco. Il CISO di Sysdig, Sergej Epp, ha coniato un termine “Zero-Day Clock”, che evidenzia rapidità con cui si produce il passaggio tra il rilevamento e sfruttamento della vulnerabilità.
Secondo i dati raccolti dal monitoraggio di oltre 3.500 coppie di vulnerabilità ed exploit (coppie CVE-exploit), il tempo medio necessario per lo sfruttamento di una vulnerabilità si è ridotto drasticamente. Mentre otto anni fa erano necessari in media 847 giorni prima che una vulnerabilità venisse sfruttata, nel 2018 questa cifra era scesa a 771 giorni. Con l’avvento dell’IA, questo lasso di tempo si è ridotto a meno di 24 ore, e talvolta a pochi minuti. Questa pressione temporale mette sotto pressione il paradigma tradizionale della gestione delle patch, poiché le aziende sono costrette a rispondere a minacce che si sono attivate ancor prima che il fornitore del software abbia testato e implementato la propria soluzione.
EPP descrive questo fenomeno attraverso quella che definisce la “Legge del Verificatore”. Nella sicurezza informatica, esiste un’asimmetria fondamentale: la verifica di un attacco è binaria e immediata; o l’exploit funziona o non funziona. Per l’attaccante, l’uso dell’IA consente di provare migliaia di combinazioni in frazioni di secondo fino a trovare quella vincente. Tuttavia, chi si occupa della difesa deve operare in un contesto ambiguo, caratterizzato da costi elevati e lentezza: le patch devono essere sicure, non devono interrompere le operazioni critiche e devono essere compatibili con innumerevoli configurazioni hardware e software.
Questa asimmetria di tipo strutturale significa che l’IA conferisce una posizione di vantaggio notevole agli hacker, non ai difensori. I difensori devono necessariamente adottare procedure di convalida umana e approvazione ufficiale, mentre gli attaccanti possono usare l’IA per automatizzare ogni fase del ciclo di attacco: dalla fase dello shift laterale alla rivelazione dei dati ad esempio. Nel contesto del primo attacco di questo genere documentato, una strategia di tipo IA ha avuto successo nel raggiungere i privilegi dell’amministratore in un ambiente cloud in sole otto minuti.
Tabella 2: Evoluzione temporale della finestra di sfruttamento delle vulnerabilità
| Periodo | Tempo medio dalla scoperta all’exploit | Driver tecnologico |
| Pre-2018 | 847 giorni | Ricerca manuale dei bug |
| 2018 | 771 giorni | Automazione della scansione |
| 2020 | 1,5 anni (547 giorni) | Strumenti di analisi statica |
| 2025 | Ore/Minuti | IA Generativa e Agentica |
| 2026 (Proiezione) | Sotto i 60 secondi | Orchestrazione autonoma degli agenti |
La reazione dell’UE alla minaccia
In risposta a questa minaccia, l’Unione Europea comincia ad agire.
La Banca Centrale Europea ha espresso preoccupazione e iniziato a interrogare discretamente le banche sulle loro misure di difesa.
Ma solo Usa e UK hanno avuto accesso a Mythos.
Altri hanno ricevuto meno informazioni. La Commissione europea ha incontrato Anthropic almeno tre volte dal rilascio di Mythos, ha detto un funzionario dell’UE. Ma l’azienda non ha fornito l’accesso al modello perché le due parti non hanno trovato un accordo su come condividerlo con la Commissione, ha aggiunto il funzionario.
La difesa AI ACT
L’UE contro queste minacce ha adottato una linea d’azione proattiva tramite il AI Act (Regolamento UE 2024/1689), diventando la prima e unica normativa completa nel mondo dedicata all’intelligenza artificiale. Il Regolamento divide i sistemi di IA sulla base del loro livello di pericolosità e stabilisce obblighi estremamente stringenti per le applicazioni classificate come “high-risk”, compresi gli strumenti usati nei sistemi critici, nell’istruzione e nella gestione del lavoro.
L’articolo 15 dell’AI Act ha importanza cruciale per la cybersicurezza, in quanto stabilisce che i sistemi high-risk di IA devono essere costruiti con i requisiti di accuratezza, robustezza e cybersicurezza adeguate durante tutta la vita delle loro applicazioni. Questi sistemi non possono essere compromessi dagli attacchi di parte terza per alterare il loro uso o le loro funzionalità a causa delle insufficienze di design della loro rete neurale, quali data poisoning o model poisoning.
Cyber resilience act
Parallelamente alla legge sull’intelligenza artificiale, la legge sulla resilienza cibernetica (CRA, Cyber resilience act) estende i requisiti di sicurezza a tutti i prodotti con componenti digitali, imponendo la sicurezza informatica “by design” e “by default”. La CRA obbliga i produttori a segnalare le vulnerabilità identificate entro termini specifici e a garantire gli aggiornamenti per l’intero ciclo di vita previsto del prodotto. Per le imprese italiane, l’armonizzazione di queste normative rappresenterà un’importante sfida in termini di compliance, richiedendo non solo investimenti tecnologici, ma anche processi di governance e formazione.
Tabella 3: Confronto tra i principali framework normativi europei sulla sicurezza digitale
| Normativa | Obiettivo Principale | Soggetti Interessati | Sanzioni |
| AI Act | Sicurezza ed etica dei sistemi IA | Fornitori e utenti di IA nell’UE | Fino al 7% del fatturato |
| CRA | Sicurezza dei prodotti digitali | Produttori di software e hardware | Fino al 2,5% del fatturato |
| NIS2 | Resilienza delle infrastrutture critiche | PA, Sanità, Energia, TLC | Variabili per Stato membro |
| GDPR | Protezione dei dati personali | Qualunque realtà tratti dati UE | Fino al 4% del fatturato |
Italia e ACN contro i rischi cyber
L’applicazione della Strategia Nazionale di Cybersicurezza 2022-2026, guidata dall’Agenzia per la Cybersicurezza Nazionale (ACN), nell’Italia è volta a migliorare la sicurezza ed effettuare un aumento della resilienza, attraverso la protezione dei patrimoni critici e le attività di risposta. La ACN ha pubblicato specifiche linee guida per lo sviluppo sicuro della IA, evidenziando come la cybersicurezza sia una condizione necessaria per assicurare la privacy e la robustezza delle soluzioni.
I dati riferiti al secondo semestre del 2025 indicano un contesto piuttosto complesso: mentre d’un lato si assiste a un numero di incidenti cyber inferiori in virtù delle attività preventive del CSIRT Italia, dall’altro parte ci si trova davanti ad una crescita di eventi rilevati e attacchi, sempre più sofisticati. Si contano nel mese di settembre 2025, 55 incidenti cyber, segnando una crescita del 15% rispetto ad agosto. I settori maggiormente bersagliati sono ancora la Pubblica Amministrazione (centrale ed amministrazioni locali) e le Telecomunicazioni.
L’Agenzia ha suddiviso le proprie raccomandazioni in quattro aree chiave per coprire l’intero ciclo di vita del sistema:
- Progettazione: Analisi delle minacce e scelta oculata del modello IA in base al contesto d’uso.
- Sviluppo: Sicurezza della catena di approvvigionamento e protezione degli asset (dati, modelli, prompt).
- Utilizzo: Controllo rigoroso degli accessi alle API e gestione degli incidenti con piani di ripristino aggiornati.
- Manutenzione: Monitoraggio continuo degli input per rilevare tentativi di uso improprio o anomalie.
L’ACN sottolinea inoltre il pericolo dell’Adversarial Machine Learning (AML), ovvero lo sfruttamento di vulnerabilità specifiche dei componenti di apprendimento automatico per alterare il comportamento del sistema. Questo richiede un cambio di paradigma: la sicurezza non può più essere considerata un’aggiunta successiva, ma deve essere integrata sin dalla fase di ideazione dei progetti tecnologici.
Le conseguenze del Bugmageddon sull’economia
La situazione del Bugmageddon ha conseguenze economiche immediate. Gartner prevede che le spese globali sulle questioni della cybersicurezza saranno elevate fino ai 240 miliardi di dollari nel 2026. Tuttavia, la crescita delle spese sarà notevolmente accelerata dalle necessità di contrasto alle minacce basate sull’intelligenza artificiale. Le spese di sicurezza da parte dell’Italia sono attualmente pari al 8-15% del budget complessivo dedicato alla informatica.
Tuttavia, la realistica difficoltà è più che altro non economica. I 46% dei manager della sicurezza confessano di non essersi preparati sufficientemente per rispondere alle minacce basate sull’intelligenza artificiale. L’inconveniente principale non è rappresentato dall’insufficienza di fondi, ma da quello di competenze ed esperienza con queste tecnologie. La principale barriera non è la mancanza di budget, ma il deficit di competenze ed esperienza pratica con queste tecnologie. In Italia, il mercato della cybersicurezza vale circa 2,8 miliardi di euro, ma rimane polarizzato su rivenditori di soluzioni estere, con una carenza di offerta nazionale focalizzata sulla governance e sulla resilienza post-incidente.
Prospettando fino al 2026, ci sono due tendenze chiave che risaltano: il “AI Agent” e la “Shadow AI”. Il “AI Agent” è un riferimento alle AI indipendenti in grado di agire sugli elementi specifici del processo senza l’assistenza umana. Gli agenti possono essere sfruttati dai difensori per automatizzare la reazione agli eventi negativi, ma allo stesso tempo rappresentano una nuova superficie di attacco se non governati correttamente.
Il concetto di “Shadow AI” si riferisce all’utilizzo non autorizzato degli strumenti di AI generative nel contesto dell’azienda, esponendo quest’ultima ai rischi di esfiltrazione dei dati o di utilizzo dei modelli AI non sicuri. Gli esperti informatici devono adottare nuovi strumenti per monitorare e gestire le “shadow AI
Tabella 4: Proiezioni di mercato e trend tecnologici per il 2026
| Trend / Metrica | Valore o Impatto previsto |
| Spesa Globale Cybersecurity | $240 Miliardi (+12,5% su 2025) |
| IA Agentica | Mainstream nelle operazioni aziendali entro il 2026 |
| Costo Data Breach | Media di $4,88 Milioni per incidente |
| Vulnerabilità software | Oltre 30.000 scoperte annualmente (+17%) |
| Consapevolezza PMI | 55 su 100 (in crescita, ma sotto la sufficienza) |
La necessità di una sovranità digitale resiliente
Con il suo arrivo il Bugmageddon significa che l’epoca della sicurezza informatica passiva sta finendo definitivamente. La crescente potenza delle IA ha trasformato il software in un teatro di guerra temporale. D’altronde, se per l’Italia la questione è quella di trovare la giusta bilancia tra legittime aspirazioni alla leadership nel mercato tecnologico e la necessità di non creare ulteriori vulnerabilità, l’Europa deve assicurarsi di adottare un quadro normativo che favorisca la tecnologia all’interno delle scelte strategiche.
L’impossibilità di accedere a un modello così potente, in mano a una big tech e a un altro Governo, è comunque una vulnerabilità sistemica, figlia di un problema di sovranità digitale, per l’Europa.
L’ha ricordato anche il sottosegretario all’innovazione Alessio Butti ieri: “. Quando un Paese usa modelli progettati altrove, si intravede un rischio alla sua indipendenza ed è questo un’importante tema per il nostro governo, che vuole una certa sovranità digitale e tecnologica. Abbiamo dotato l’Italia di una legge nazionale, che sia anche vicina all’AI Act”.
Nelle parole dell’ACN, la cybersicurezza è il fondamento essenziale per ottenere fiducia nella propria capacità di fornire servizi digitali sicuri. Nel nuovo contesto, una cooperazione tra settori pubblico e privato, una rapida condivisione delle informazioni su eventuali minacce, nonché l’applicazione dello standard tecnologico “Security by Design” rappresentano l’unica via possibile per fronteggiare il bugmageddon, trasformando un grave pericolo in un’occasione di sviluppo.
A questo “fare bene i compiti in casa” si affianca però la necessità di una strategia politica di sovranità digitale. Se il security by design può essere difficile e riguarda tutte le aziende, il secondo dossier è una sfida Nazione senza pari.











