intelligenza artificiale

Cybersecurity, terremoto in corso con i nuovi modelli OpenAI e Anthropic



Indirizzo copiato

Ad aprile 2026 l’AI cyber entra in una fase delicata con Mythos e GPT-5.4-Cyber. La discovery delle vulnerabilità accelera più della remediation e apre una nuova asimmetria che riguarda attaccanti, difensori e accesso selettivo ai modelli avanzati. Vediamo le implicazioni della nuova cyber kill chain AI

Pubblicato il 16 apr 2026

Alessandro Longo

Direttore agendadigitale.eu



cyber kill chain AI
A futuristic glowing padlock built from illuminated circuitry, placed on a dark motherboard surface. The padlock radiates vibrant electric blue light, symbolizing cybersecurity, data protection, and d
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

In questa primavera 2026 l’impatto dell’intelligenza artificiale sulla cyber security globale ha avuto una improvvisa accelerazione. Tanto che alcuni ora temono una imminente armaggedon informatica.

I modelli AI stanno già accelerando la discovery di vulnerabilità su software legacy e open source. Dati di HackerOne indicano che le segnalazioni di bug sono aumentate del 76% su base annua e il tempo medio di remediation è salito da 160 a 230 giorni.

È vero che OpenAi e Anthropic hanno avuto il senso di responsabilità di limitare l’accesso di questi modelli ai buoni, ossia ai difensori, per dare loro un vantaggio sui cattivi.

Ma è bene non farsi illusioni. Il vaso di pandora della cybersecurity AI si è aperto. Non passerà molto tempo che, anche con tecniche di distillation, arriveranno modelli aperti con pari capacità disponibili per gli attaccanti. Cyber criminali per altro hanno già dimostrato di essere in grado di usare con jail break I modelli OpenAI e Anthropic per finalità di hacking su ampia scala.

Step superati, fino a 32, in una cyber challenge

La cyber kill chain AI entra nel radar strategico

Non a caso, tra il 15 e il 16 aprile la BCE e il sistema bancario tedesco hanno iniziato a confrontarsi con i rischi specifici posti da Mythos per infrastrutture legacy e resilienza operativa.

Dopo la presentazione di Mythos, Scott Bessent, segretario al Tesoro degli Stati Uniti, e Jerome Powell, presidente della Federal Reserve, hanno convocato le principali banche americane per discutere dei rischi per la sicurezza informatica legati all’intelligenza artificiale.

L’evoluzione recente dell’intelligenza artificiale generativa e degli agenti autonomi sta profondamente quindi modificando il panorama della cybersecurity. Due i principali trend che emergono con forza: da un lato, modelli come Claude Mythos Preview e GPT-5.4-Cyber sempre più efficaci nell’individuare vulnerabilità software su scala senza precedenti; dall’altro, modelli avanzati che iniziano a supportare anche attività di exploitation e sviluppo di codice malevolo. Il risultato è una trasformazione progressiva dell’intera cyber kill chain, con implicazioni che vanno ben oltre il semplice incremento dell’efficienza degli attaccanti. Questo fenomeno ha portato alcuni osservatori a parlare di una possibile fase di “bugmageddon”, in cui il numero di vulnerabilità scoperte cresce più rapidamente della capacità di remediation delle organizzazioni.

A questo scenario tecnologico si aggiunge però una dimensione sempre più centrale: quella geopolitica. L’accesso ai modelli AI più avanzati non è uniforme, ma selettivo, controllato e in larga parte concentrato nelle mani di pochi attori privati statunitensi. Come emerso dai casi di Claude Mythos Preview, distribuito da Anthropic attraverso Project Glasswing a partner selezionati, e di GPT-5.4-Cyber, reso disponibile da OpenAI in una fase iniziale a vendor di sicurezza, organizzazioni e ricercatori verificati attraverso i livelli più alti del programma Trusted Access for Cyber, la disponibilità di queste tecnologie viene oggi gestita in modo selettivo e controllato, con una concentrazione iniziale soprattutto nell’ecosistema statunitense. Questo crea una nuova forma di asimmetria: non solo tra attaccanti e difensori, ma tra Stati e blocchi geopolitici.

I difensori devono quindi considerare l’accesso ai modelli AI come un fattore strategico, valutando dipendenze tecnologiche, limiti operativi e implicazioni di sovranità.

Dalla discovery all’abbassamento della soglia d’attacco

La prima fase della kill chain, la ricognizione e la scoperta delle vulnerabilità, è quella più radicalmente trasformata dall’AI per come la conosciamo oggi. Tradizionalmente, questa fase richiedeva competenze avanzate, tempo e strumenti di scanning statico o dinamico. Oggi, invece, modelli linguistici avanzati e agenti specializzati come Claude Mythos Preview e GPT-5.4-Cyber sono in grado di analizzare repository di codice, firmware o binari e individuare pattern di attacco con una velocità impensabile fino a pochi anni fa.

Il punto di svolta è la capacità dei nuovi modelli di ragionare sul codice, non solo di analizzarlo superficialmente. Questo ha ridotto drasticamente il costo cognitivo della vulnerability discovery, rendendo accessibile a un singolo attore ciò che prima richiedeva team interi di specialisti.

Un moderno approccio difensivo deve integrare l’AI nel ciclo di sviluppo sicuro, automatizzando code review e vulnerability discovery, ma senza affidarsi ciecamente ai risultati: ogni output va verificato con test indipendenti e validazioni umane per ridurre errori e falsi positivi.

L’accesso ai modelli AI più avanzati è oggi un fattore decisivo nella capacità di scoprire vulnerabilità su larga scala. Tuttavia, questi sistemi non sono disponibili in modo uniforme: Anthropic ha scelto una preview non resa generalmente disponibile, distribuita a partner di Project Glasswing, mentre OpenAI ha optato per un accesso graduato e verificato tramite Trusted Access for Cyber, con il modello più permissivo inizialmente riservato a specifici difensori autenticati.

Questo solleva una questione strategica: chi controlla questi modelli controlla indirettamente anche la velocità con cui le vulnerabilità possono essere sfruttate o neutralizzate.

Exploitation: il salto qualitativo degli agenti AI

La seconda fase della kill chain, l’exploitation, è quella che sta generando le maggiori preoccupazioni. Se la scoperta delle vulnerabilità è stata storicamente dominio di tool automatizzati, la creazione di exploit funzionanti richiedeva ancora forte intervento umano. Tuttavia, i nuovi modelli AI stanno iniziando a colmare questo gap.

Valutazioni rese pubbliche ad aprile mostrano che agenti basati su LLM possono trasformare descrizioni di vulnerabilità in exploit funzionanti, soprattutto quando supportati da informazioni contestuali come CVE o codice sorgente. In alcuni casi, sistemi avanzati hanno dimostrato la capacità di generare payload e script in grado di sfruttare vulnerabilità reali senza intervento umano diretto.

L’automazione non è ancora totale, ma la soglia di accesso si è abbassata: anche attaccanti meno esperti possono costruire attacchi complessi guidando i modelli con prompt strutturati.

Ciò implica sul fronte difesa, l’adozione di un approccio “assume breach”, rafforzando segmentazione, monitoraggio continuo e capacità di detection comportamentale per compensare la velocità degli attaccanti.

Tra weaponization, delivery e controllo umano

Anche la fase di weaponization, ovvero la creazione di strumenti malevoli riutilizzabili, sta beneficiando dell’AI. I modelli possono generare varianti di malware, adattare codice a diversi ambienti e automatizzare la creazione di payload polimorfici. Tuttavia, questa fase rimane ancora in parte vincolata da limiti tecnici e operativi.

In particolare, la necessità di bypassare sistemi di sicurezza, evadere sandbox e adattarsi a infrastrutture reali richiede ancora una supervisione umana significativa. L’AI può accelerare la generazione di varianti, ma non sempre garantisce robustezza contro ambienti difensivi complessi.

La delivery, cioè la distribuzione dell’attacco, rimane anch’essa fortemente ibrida. Phishing, social engineering e compromissione della supply chain possono essere ottimizzati tramite AI, ma la componente strategica e contestuale continua a dipendere dall’intelligenza umana.

I difensori devono quindi rafforzare la formazione degli utenti e adottare sistemi di rilevamento avanzati basati su anomalie, capaci di individuare contenuti e comportamenti generati da AI.

Le fasi ancora umane: strategia, obiettivi e adattamento

Nonostante i progressi, esistono ancora fasi della cyber kill chain difficilmente delegabili all’AI. La più evidente è la pianificazione strategica dell’attacco: selezionare obiettivi, valutare il rischio geopolitico, adattarsi a contesti mutevoli e decidere quando e come colpire.

Le AI attuali, anche nei modelli più avanzati, mancano di una comprensione autonoma del contesto politico, economico e operativo necessario per orchestrare campagne offensive su larga scala. Possono ottimizzare decisioni, ma non sostituire il giudizio umano nella scelta degli obiettivi o nella gestione del rischio operativo.

Un altro limite riguarda la capacità di adattamento in ambienti altamente dinamici. Le difese moderne reagiscono in tempo reale, e molte decisioni di attacco richiedono improvvisazione, intuizione e gestione dell’incertezza che restano prerogative umane.

Il nuovo equilibrio della cyber kill chain con l’AI

Se l’attacco sta diventando più automatizzato, anche la difesa sta evolvendo rapidamente. Modelli come Claude Mythos Preview e GPT-5.4-Cyber sono progettati per identificare vulnerabilità prima che vengano sfruttate, analizzare log in tempo reale e suggerire patch correttive.

Questo introduce un cambiamento strutturale: la sicurezza non è più solo una corsa tra attaccanti e difensori umani, ma una competizione tra sistemi AI opposti. In questo scenario, la velocità diventa il fattore critico. La finestra temporale tra scoperta e sfruttamento di una vulnerabilità si riduce da mesi a giorni, o addirittura ore.

Di conseguenza, le organizzazioni stanno iniziando a integrare AI nei processi di secure development lifecycle, automatizzando code review, fuzzing e vulnerability management. Tuttavia, questa automazione introduce a sua volta nuove superfici di attacco, come prompt injection o manipolazione dei modelli.

È quindi essenziale integrare l’AI nei SOC, ma anche sviluppare controlli specifici per i rischi introdotti dall’AI stessa.

Accesso ai modelli e nuovi squilibri strategici

La trasformazione più profonda, tuttavia, non è solo tecnica ma geopolitica. L’accesso ai modelli AI avanzati sta diventando un fattore di potere paragonabile all’accesso a tecnologie militari strategiche. Alcuni sistemi vengono distribuiti solo a un numero ristretto di partner industriali, vendor di sicurezza, organizzazioni e ricercatori verificati, mentre molti regolatori, in particolare in Europa, si trovano soprattutto nella posizione di valutarne i rischi e le implicazioni operative: lo mostrano le verifiche avviate in aprile dalla BCE e dal sistema bancario tedesco sul caso Mythos.

Questo crea un doppio squilibrio. Da un lato, gli attori che hanno accesso anticipato ai modelli possono rafforzare le proprie capacità difensive e offensive. Dall’altro, chi ne resta escluso rischia di trovarsi strutturalmente in ritardo nel comprendere le capacità reali delle nuove tecnologie.

La cybersecurity diventa così una questione di sovranità tecnologica: non solo proteggere infrastrutture digitali, ma anche garantire accesso a strumenti cognitivi avanzati. Senza questo accesso, la capacità di valutare rischi, testare sistemi e rispondere a minacce avanzate viene ridotta a una forma di dipendenza informativa.

La cyber kill chain AI nel futuro operativo

La domanda centrale è se, in futuro, l’essere umano rischi di diventare un semplice osservatore nei conflitti cibernetici. La risposta, almeno nel breve e medio termine, è negativa ma complessa.

L’AI sta certamente automatizzando le componenti operative della cyber kill chain, ma non ha ancora sostituito la dimensione decisionale e strategica. Inoltre, la stessa complessità dei sistemi moderni introduce incertezze che richiedono interpretazione umana.

Tuttavia, il rischio reale è un altro: la riduzione del vantaggio cognitivo dell’uomo. Se attaccanti e difensori delegano sempre più operazioni agli stessi tipi di modelli, la differenza non sarà più nella capacità tecnica, ma nell’accesso, nella governance e nella qualità dei dati.

Il ruolo dei difensori evolverà quindi verso supervisione, orchestrazione e controllo dei sistemi AI.

Cyber e AI: il bilancio finale

L’AI non sta solo migliorando la cybersecurity, ma la sta ridefinendo. Nelle fasi di discovery ed exploitation aumenta il vantaggio degli attaccanti, mentre la strategia resta umana. Il futuro sarà ibrido, con AI come moltiplicatore su entrambi i fronti. La vera frattura riguarderà l’accesso ai modelli più avanzati, con implicazioni geopolitiche. Per i difensori, la sfida sarà mantenere controllo umano in un contesto dominato da velocità, automazione e disponibilità dell’AI.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x