Anthropic ha annunciato Claude Mythos Preview, un modello AI destinato alla cybersecurity e al tempo stesso chiarito che non sarà rilasciato al pubblico, ma utilizzato nell’ambito di un’iniziativa selezionata denominata Project Glasswing, in collaborazione con grandi aziende tecnologiche e operatori di sicurezza, con l’obiettivo di trovare e correggere vulnerabilità in software ritenuti a vario titolo critici.
La notizia ha catturato l’attenzione degli esperti del settore non solo per la potenza del modello, ma soprattutto per il cambio di paradigma che rappresenta: i modelli AI di nuova generazione non sono più solo strumenti di supporto al coding o alla generazione di testi, ma diventano componenti essenziali nelle infrastrutture di sicurezza capaci di elevare drasticamente il livello di analisi in attività difensive quanto offensive.
La vicenda è iniziata quando Fortune ha scoperto materiale non pubblicato ma accessibile pubblicamente, con riferimenti a Mythos e a un incontro riservato tra CEO di importanti aziende del panorama tecnologico mondiale.
Anthropic ha immediatamente rimosso l’accesso ai contenuti e, pochi giorni dopo, ha confermato l’esistenza del modello e della strategia di distribuzione limitata.
Testate come il New York Times hanno definito Mythos un vero e proprio “cybersecurity reckoning”, sottolineando come il modello sia in grado di individuare vulnerabilità che molti controlli umani e automatizzati non avevano mai rilevato. In sostanza, Anthropic ha spostato il discorso dal semplice incidente di esposizione dati a una presa di coscienza globale: si dispone di una tecnologia che potrebbe trasformare radicalmente l’approccio alla cyber sicurezza.

Indice degli argomenti
Project Glasswing e Claude Mythos Preview, il senso nella difesa industriale su larga scala
Project Glasswing è il fulcro dell’applicazione pratica di Mythos. Anthropic ha radunato colossi tecnologici come Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks per proteggere software critico e infrastrutture condivise. Il modello Mythos Preview sarà utilizzato da un gruppo di oltre 40 organizzazioni per attività di sicurezza difensiva, tra cui vulnerability detection, black-box testing di binari, hardening di endpoint e penetration testing. Anthropic ha stanziato fino a 100 milioni di dollari in usage credits e donato altri 4 milioni per organizzazioni di open-source security, segnando un passaggio decisivo verso l’industrializzazione della difesa assistita dall’AI.
Il cambio di paradigma tra attacco e difesa
Ci troviamo quindi dinanzi ad un cambio di paradigma in cui il fulcro della rilevanza di Mythos non risiede solo nella sua potenza computazionale, ma nella sua capacità dei modelli AI di superare quasi tutti gli esseri umani nella scoperta e nello sfruttamento di vulnerabilità. Questo comporta un rischio evidente: gli stessi strumenti progettati per la difesa potrebbero essere sfruttati da attori ostili, inclusi nation state actor, per accelerare la ricerca di vulnerabilità, costruire codici per sfruttarle (exploit) e rendere più rapida qualsiasi fase dell’attacco. In altre parole, il confronto tra attacco e difesa si sta rapidamente trasformando in una competizione macchina-macchina, con l’essere umano relegato a un ruolo marginale.
Perché Claude Mythos Preview viene limitato
Limitare l’accesso a Mythos è coerente con il principio che la stessa tecnologia può essere usata sia per difendere sia per attaccare. Il modello ha già identificato migliaia di vulnerabilità, comprese quelle in sistemi operativi e browser principali. Una diffusione incontrollata potrebbe quindi accelerare le capacità offensive di attori malevoli, inclusi gruppi statali. La strategia di Glasswing, quindi, non mira a bloccare l’innovazione, ma a dare un vantaggio temporaneo ai difensori prima che la tecnologia si diffonda tra potenziali aggressori.
Gli effetti sul mercato e sulla sicurezza nazionale
L’annuncio di Mythos ha avuto effetti immediati sui mercati della cybersecurity: aziende operanti nella difesa digitale hanno visto oscillazioni dei titoli, poiché la disponibilità di un AI capace di individuare vulnerabilità più rapidamente può essere vista sia come acceleratore di spesa difensiva sia come moltiplicatore di rischio. Parallelamente, Anthropic ha riferito di dialogare con funzionari statunitensi sulle capacità offensive e difensive del modello, segnalando che il tema è ormai centrale per la sicurezza nazionale e non più confinato alla ricerca industriale.
La governance di Claude Mythos Preview e il controllo dell’AI
Il vero nodo non è se Mythos sia “buono” o “pericoloso”, ma chi ne controllerà l’accesso e con quali vincoli. Se strumenti come questo restano nelle mani di pochi partner affidabili, possono migliorare la difesa di software critico, supply chain e infrastrutture condivise. Se invece si diffondono senza regole, l’automazione diventa un moltiplicatore di vulnerabilità, exploit e campagne malevole. La governance proposta da Anthropic, quindi, punta a distribuire vantaggio tecnico selettivamente, evitando un rilascio indiscriminato.
Le conseguenze per i professionisti della cybersecurity
È quindi lecito chiedersi quali sono le conseguenze per i professionisti nella cybersecurity.
L’avanzamento dei modelli come Mythos impone una riflessione fondamentale: il confronto tradizionale tra attaccanti e difensori sta rapidamente diventando macchina-macchina, dove decisioni e exploit possono essere generati autonomamente in tempi millisecondi. L’essere umano rischia di diventare osservatore o supervisore, senza la capacità di intervenire in tempo reale. Questo cambiamento solleva questioni etiche, strategiche e operative: quale sarà il ruolo dei team di sicurezza in un ecosistema dominato da AI capaci di anticipare e rispondere a ogni azione ostile?
Claude Mythos Preview come spartiacque della cybersecurity
Claude Mythos Preview e Project Glasswing segnano uno spartiacque: non solo introducono un nuovo modello AI, ma mostrano come la cybersecurity si stia trasformando. Il messaggio è chiaro: chi controlla l’AI avrà un vantaggio strategico decisivo, e la sfida per i governi, le aziende e gli individui sarà capire come integrare queste tecnologie senza cedere completamente il controllo alle macchine.











