scenari

Claude Mythos Preview, perché la super-AI cyber riaccende la sfida globale



Indirizzo copiato

Claude Mythos Preview avrebbe mostrato capacità autonome di individuare e sfruttare vulnerabilità software, spingendo Anthropic a limitarne l’accesso tramite Project Glasswing. Dalla finanza alla farmaceutica, fino alla competizione tra Stati Uniti e Cina, il caso riapre il nodo della sicurezza e della concentrazione del potere nell’AI

Pubblicato il 4 mag 2026

Walter Tripi

Innovation Manager



Mexico,City,,Mexico,-,Apr,14,2026,:smartphone,Displaying,An
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

In un mondo di corse al lancio straordinario come quello dell’AI, l’idea che una Big possa fermarsi e decidere di non lanciare un prodotto poiché potenzialmente troppo efficace suona distorta. Eppure è quello che pare essere successo ad Anthropic con il suo nuovo modello, la cui pericolosità potenziale, emersa in documenti subito ritirati (se ad arte o meno, non sarà dato saperlo) e poi completamente esposti, ha subito acceso discussioni, curiosità, e ovviamente reazioni.

Claude Mythos Preview avrebbe dimostrato capacità di individuare e sfruttare vulnerabilità software a un livello tale da convincere la casa madre a limitarne l’uso ad un contesto di test chiamato Project Glasswing, che include Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks.

Claude Mythos Preview e le vulnerabilità zero-day

Il team di ricerca di Anthropic ha documentato come Mythos abbia individuato in modo autonomo migliaia di vulnerabilità zero-day in ogni sistema operativo e browser principale, tra cui un bug in OpenBSD vecchio di 27 anni e uno in FFmpeg che resisteva da 16 anni, oltre a exploit di alta sofisticazione: catene di privilege escalation multi-vulnerabilità nel kernel Linux, heap spray JIT che sfondano sandbox nei browser, e un exploit di remote code execution contro FreeBSD scritto interamente in autonomia.

Il punto pare essere principalmente il fatto che non ci sia stato un addestramento esplicito che giustificasse di per sé queste capacità: sarebbero piuttosto emerse come conseguenza indiretta di miglioramenti generali nel codice, nel ragionamento e nell’autonomia. È questo aspetto a rendere la vicenda strutturalmente diversa da ogni precedente: non si tratta di un sistema progettato per attaccare, ma di uno progettato per capire il codice talmente bene da poter però imparare da solo la capacità di violarlo. Magari con estrema facilità.

La tesi che vale la pena tenere ferma, prima di tutto il resto, è questa: Mythos non è un caso isolato. È la prima manifestazione pubblica e documentata di una classe di modelli che stanno per diventare una realtà diffusa. Altri modelli frontier come GPT-5.4-Cyber di OpenAI e Big Sleep di Google avrebbero già capacità comparabili su alcuni compiti. Ed ecco che, ancora una volta, vale la pena concentrarsi un po’ su questi scenari non così lontani.

Come il resto del mondo ha risposto all’annuncio di Mythos, tra paura e scetticismo

La reazione internazionale all’annuncio di Mythos ha seguito una traiettoria prevedibile nelle sue forme, ma più interessante nei dettagli.

Il Giappone, ad esempio, ha risposto attraverso canali sia regolatori che operativi. La Financial Services Agency ha convocato le principali banche del paese, assieme alla Bank of Japan e alla Tokyo Stock Exchange, per discutere i rischi legati a Mythos. L’Information-technology Promotion Agency aveva d’altronde incluso i rischi informatici legati all’IA tra le minacce organizzative prioritarie nei Top 10 Information Security Threats for 2026 e questo passaggio si sarebbe accentuato in modo piuttosto palese con la discussione sulle nuove frontiere dei modelli come Mythos.

Il World Economic Forum ha definito la vicenda Mythos come un segnale di un punto di svolta: i sistemi AI frontier stanno diventando più autonomi e potenti, ma anche più difficili da controllare una volta distribuiti. L’interpretazione che il Forum propone è che questi modelli vadano trattati non come prodotti consumer, ma come asset strategici. E fino ad ora un approccio di questo tipo non era affatto scontato.

Come riporta un recente articolo della BBC, organismi come il Fondo Monetario Internazionale e i vertici finanziari del G20 hanno discusso Mythos come rischio emergente per la stabilità finanziaria globale, citando la possibilità che vulnerabilità in sistemi bancari e di pagamento vengano scoperte ed eventualmente sfruttate a velocità senza precedenti.

Nel Parlamento Europeo, intanto, si sono discussi ordini del giorno sulla Cybersecurity in relazione a questi nuovi sistemi e nella discussione non è stato secondario un aspetto: ancora una volta, l’Europa rischia di essere fuori dal gioco, considerato anche che, essendo Mythos un prodotto non ancora ufficiale, di per sé sfugge ai test istituzionali e a ciò che concerne l’AI Act.

L’amplificazione di una serie di ragionamenti che già da tempo si andavano facendo e che adesso sembrano raggiungere nuovi livelli di attenzione.

Mythos, insomma, sembra aver accelerato il raggiungimento di una consapevolezza che era già in formazione, trasformando un’inquietudine diffusa in una questione reale con un nome e, per certi versi, una data.

La Cina: osservatrice silenziosa o concorrente in accelerazione?

Il silenzio ufficiale di Pechino sull’annuncio di Mythos è, in qualche modo, più eloquente di qualsiasi dichiarazione avrebbe potuto essere.

Nelle settimane successive all’annuncio di Anthropic, la Cina è rimasta in larga parte osservatrice. Molti commentatori cinesi hanno accusato l’azienda di creare un falso hype, interpretando i rischi di cybersecurity come una giustificazione per limitare l’accesso del modello a un gruppo ristretto di aziende americane e al governo statunitense. È una lettura comprensibile: vista da Pechino, l’intera architettura di Project Glasswing somiglia molto a una concentrazione strategica di vantaggio difensivo in mani occidentali. E non sarebbe un peccato pensare che ci sia un fondo di verità.

L’architettura regolatoria cinese, tuttavia, è già più prescrittiva di quanto sembri dall’esterno. Le regole della Cyberspace Administration of China per l’IA generativa richiedono ai fornitori di servizi di proteggere la sicurezza nazionale e l’interesse pubblico. In pratica, la risposta cinese agli abusi dell’IA rimane nel perimetro di licenze, etichettatura e supervisione statale.

Nel frattempo, la dinamica competitiva cinese si è spostata su un piano parallelo. Il 24 aprile 2026, DeepSeek ha rilasciato il modello V4, con 1,6 trilioni di parametri e una finestra di contesto di 1 milione di token, sviluppato in stretta collaborazione con Huawei per funzionare sui chip Ascend domestici. La startup riconosce che il modello è marginalmente inferiore ai modelli frontier occidentali, con un divario di sviluppo stimato tra tre e sei mesi.

Quello che conta però è la traiettoria sottesa. Secondo Joe Lin, co-fondatore di Twenty, firma che vende capacità offensive cyber al governo americano, dietro Mythos arriveranno il prossimo modello OpenAI, il prossimo Google Gemini, e qualche mese dopo i modelli open source cinesi. L’accesso alle capacità offensive AI, in altri termini, è una questione di mesi.

C’è poi un elemento che appesantisce ulteriormente il quadro: la distillazione avversariale. Il 23 aprile 2026, il Direttore dell’Ufficio per la Scienza e la Tecnologia della Casa Bianca, Michael Kratsios, ha pubblicato un memorandum sulla “distillazione avversariale dei modelli AI americani”, descrivendo come attori stranieri, principalmente basati in Cina, stiano abusando di pratiche di distillazione per replicare capacità dei modelli americani a una frazione del costo. E occorrerà vedere come questo aspetto inciderà relativamente ai modelli più potenti.

Il ricercatore di sicurezza Aaron Turner ha definito la situazione un “accelerante geopolitico nella corsa agli armamenti dell’IA agentiva”, in particolare dopo che Anthropic ha accidentalmente esposto quasi 2.000 file di codice sorgente e oltre 500.000 righe di codice associato a Claude Code nel marzo 2026. Un modello troppo pericoloso per essere distribuito ha avuto i propri file sorgente disponibili per tre ore su internet.

Il settore finanziario: la riunione d’emergenza che ha cambiato il registro

Quando il Segretario al Tesoro Scott Bessent e il presidente della Federal Reserve Jay Powell hanno convocato i CEO delle principali banche americane per discutere di Mythos, il segnale era inequivocabile: non si trattava di un incontro sull’innovazione, ma di un avvertimento. I modelli capaci di individuare e sfruttare vulnerabilità potrebbero essere un’arma importante (e usare questo termine, in questa fase storico-politica, è quanto mai tristemente azzeccato), ma anche porre un rischio materiale alle infrastrutture finanziarie centrali.

Le banche si sono affrettate a richiedere l’accesso a Mythos Preview. JPMorgan Chase è stata l’unica banca pubblicamente confermata tra i partner iniziali, mentre Bank of America pare aver avviato test interni.

Ma Fortune ha pubblicato un’analisi che sposta il problema su un piano ancora più profondo. L’attenzione si è concentrata sul rischio cyber, che è reale: quello che rischia di passare in secondo piano è l’impatto sull’ingegneria delle frodi. L’IA ha reso le frodi drasticamente più economiche, più facili da eseguire e molto più scalabili. Campagne di social engineering iper-personalizzate, spesso basate su agenti AI, operano già su più canali, giurisdizioni e identità. Insomma, i modelli super-potenti potrebbero essere anche talmente “furbi”, se il termine è concesso, da non aver neanche bisogno di forzare tecnicamente alcune procedure: potrebbero semplicemente riuscire ad aggirarle, come il miglior Lupin d’epoca. Potrebbe essere Mythos a venderci la Fontana di Trevi, se volessimo metterla da un altro punto di vista.

Il sistema finanziario, in altre parole, sta affrontando due piani di vulnerabilità simultaneamente: quello tecnico, che Mythos mette a nudo nelle infrastrutture software; e quello umano, dove le stesse capacità di linguaggio e personalizzazione dell’IA diventano leva di frode. Il confine tra i due piani è sempre più sottile.

Farmaceutica e intelligence: una vulnerabilità silenziosa

Nei settori farmaceutico e dell’intelligence, la risposta a Mythos è stata più silenziosa ma, pare, non meno preoccupata.

Il farmaceutico è un caso paradigmatico di settore ad altissima concentrazione di dati proprietari sensibili: sequenze genomiche, protocolli di sperimentazione clinica, molecole in sviluppo, dossier regolatori. Sistemi come Mythos, capaci di trovare vulnerabilità nel software che ospita questi dati, trasformano ogni gap di sicurezza in una potenziale finestra di accesso su anni di ricerca. In un contesto in cui la competizione sino-americana si gioca anche sul terreno dell’innovazione biomedica, il rischio c’è eccome.

Sarosh Nagar, responsabile di progetti tecnici nell’ufficio dell’ex CEO di Google Eric Schmidt, ha sottolineato come la capacità di Mythos di concatenare exploit in modo autonomo sia particolarmente significativa: il modello non si limita a identificare una debolezza, ma la arma dinamicamente, collegandola ad altre vulnerabilità e rimanendo potenzialmente inosservato a tempo indeterminato. Immaginiamo questo cosa possa voler dire laddove i dati siano di tipo medico-sanitario.

Fin qui, d’altronde, parliamo del settore farmaceutico prevalentemente come di un bersaglio vulnerabile, un ambito in cui i dati proprietari sensibili sono esposti ai rischi che Mythos ha reso più concreti. È una lettura corretta e necessaria, ma parziale. Il rapporto tra AI e farmaceutica nel 2026 è molto più articolato: è uno dei pochi contesti in cui la tecnologia sta cominciando a produrre risultati scientifici verificabili, non solo promesse di efficienza.

Il punto di partenza è una delle date più significative della storia recente della scienza applicata: ottobre 2024, quando il Premio Nobel per la Chimica è stato assegnato a Demis Hassabis e John Jumper di Google DeepMind per AlphaFold, il sistema AI che ha risolto il problema della predizione della struttura tridimensionale delle proteine. Un problema su cui la biologia computazionale lavorava da cinquant’anni. AlphaFold ha predetto strutture per oltre 200 milioni di proteine dalla sua messa in campo, accelerando la ricerca farmaceutica e biologica in tutto il mondo. Exscientia, in partnership con Sumitomo Dainippon Pharma, ha sviluppato un candidato molecola per il disturbo ossessivo compulsivo in meno di 12 mesi: è stato il primo farmaco progettato con AI a entrare in trial sull’uomo.

Senza entrare in esempi eccessivamente tecnici e specialistici, la questione è chi avrà accesso agli strumenti AI più capaci nel momento in cui diventano determinanti per la competitività farmaceutica globale. E pare che in queste settimane se ne stia parlando in modo decisamente più forte che nel recente passato.

La promessa della democratizzazione della scoperta scientifica attraverso l’AI si scontra, a questo livello, con gli stessi meccanismi di concentrazione del potere che caratterizzano il resto del settore.

Gli “AI Gods”, il potere e uno sguardo al mondo

Il tema del settore Farmaceutico ci apre la porta a quello più complessivo: la concentrazione del potere, appunto.

Anthropic ha definito Project Glasswing un “tentativo urgente” di usare le capacità dei modelli frontier per scopi difensivi prima che le stesse capacità vengano adottate da attori ostili, impegnando fino a 100 milioni di dollari in crediti di utilizzo e 4 milioni in donazioni dirette alle organizzazioni di sicurezza open source. Insomma, la scelta è quella di dare un vantaggio competitivo netto al bene, rispetto al male che comunque prima o poi avrà a disposizione questi strumenti.

Ma il nodo sta in ciò che il Council on Foreign Relations ha inquadrato con precisione: Project Glasswing è una risposta responsabile e necessaria a un rischio senza precedenti, ma resta il nodo centrale, ovvero la capacità di creare ha superato la capacità di controllare ciò che si crea, e il ritardo tra i due piani si misura ormai in settimane, non in anni.

Dario Amodei di Anthropic ha dichiarato pubblicamente di sentirsi “almeno in qualche misura a disagio” rispetto alla concentrazione di potere che sta accadendo nel settore dell’IA, descrivendola come avvenuta “quasi durante la notte, quasi per caso”. Ha tracciato un parallelo diretto con i periodi di estrema concentrazione aziendale della storia economica, osservando che una manciata di laboratori americani e cinesi domina oggi lo sviluppo AI con una forza tale che i semplici annunci di nuovi modelli provocano terremoti sui mercati globali.

Eppure, è la stessa azienda che ha valutato di mettere nelle mani di un “club” privato le valutazioni circa la pericolosità di un modello potentissimo, come qualcuno ha fatto notare non senza malizia.

Il tema degli “AI Gods” è il modo in cui una parte crescente della comunità di ricerca e policy sta cercando di nominare un fenomeno concreto: la possibilità che sistemi con capacità cognitive superiori alla media umana su quasi ogni dominio si trovino, di fatto, concentrati nelle mani di un numero estremamente ridotto di soggetti privati. Amodei ha descritto questo scenario con l’immagine di un “paese di geniosi”: immaginare 50 milioni di persone, tutte molto più capaci di qualsiasi vincitore del Premio Nobel, statista o tecnologo, materializzarsi improvvisamente nel mondo nel 2027.

La dimensione geopolitica si intreccia con quella aziendale in modo che rende entrambe più difficili da governare separatamente. La rivista Foreign Affairs ha analizzato come concentrare tale potere trasformativo in un unico paese genererebbe legittimi dubbi su come Washington utilizzerebbe tale vantaggio o se perseguirebbe un interesse nazionale più ristretto. Il compito degli Stati Uniti sarebbe di costruire e mantenere un ordine AI democratico che generi fiducia nella leadership americana sulla frontiera, un’impresa simile a quella affrontata nel 1945, ma enormemente più difficile nel panorama geopolitico attuale.

Quando una nazione si trovasse a disporre di una superintelligenza, ovvero un’AI vastamente più intelligente degli esseri umani in quasi ogni dominio, ciò costituirebbe un’emergenza di sicurezza nazionale per le nazioni rivali, che potrebbero ricorrere alla minaccia di sabotaggio piuttosto che cedere potere.

Mythos ha reso visibile questa struttura di rischio in un modo che le discussioni astratte sulla concentrazione del potere non riuscivano a fare. Un consorzio di undici aziende americane che detiene accesso esclusivo al modello di attacco AI più potente mai costruito è, in termini strutturali, esattamente la concentrazione di vantaggio difensivo che i paesi non inclusi nel perimetro di Project Glasswing stavano temendo in astratto: il tema della sovranità tecnologica è nuovamente centrale.

Il World Economic Forum ha identificato il problema al cuore della questione: la velocità dello sviluppo AI supera continuamente la governance, il coordinamento e le pratiche di sicurezza. Senza coordinamento internazionale, si rischia una frammentazione degli standard, livelli di protezione disomogenei e una vulnerabilità sistemica crescente.

La risposta di Pechino a tutto questo non arriverà probabilmente sotto forma di dichiarazioni ufficiali, ma di release. E il modello che arriverà non si chiamerà Mythos: si chiamerà qualcosa di diverso, girerà su chip Ascend, sarà open source, e qualcuno in un laboratorio di Hangzhou starà già lavorandoci da mesi.

È la logica della diffusione tecnologica, che nel tempo non ha mai trovato eccezioni durature. L’unica variabile su cui si può ancora agire è quella della preparazione: non fermare ciò che è già in moto, ma essere pronti quando arriva. E su questo fronte, dal settore finanziario a quello farmaceutico, dall’intelligence europea alle banche asiatiche, la risposta onesta è che non si è ancora abbastanza veloci. E, probabilmente, neanche pronti a correre.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x