Un modello di AI per la cyber security ha mostrato all’Europa nuove conseguenze della mancanza di una vera sovranità digitale. Ne va a pieno titolo anche della sicurezza nazionale. Di banche e altre istituzioni.
Indice degli argomenti
Mythos Preview e la cyber in Europa
Il 7 aprile 2026, Anthropic ha annunciato Claude Mythos Preview, un modello AI con capacità di cybersecurity senza precedenti. Secondo l’azienda, il modello è in grado di identificare e sfruttare vulnerabilità nei sistemi informatici che governano banche, reti energetiche e apparati governativi, gli stessi sistemi su cui si regge l’infrastruttura critica europea.
La decisione di Anthropic è stata di non rilasciare il modello al pubblico, ma di condividerlo con circa 40 organizzazioni selezionate, quasi tutte statunitensi: Amazon, Apple, Microsoft, JP Morgan, Goldman Sachs, Citigroup, Bank of America, Morgan Stanley.
L’unico paese al di fuori degli Stati Uniti ad aver ricevuto accesso è stato il Regno Unito, attraverso il suo AI Security Institute (AISI), che il 13 aprile ha pubblicato una valutazione indipendente confermando che Mythos rappresenta un salto qualitativo nelle capacità cyber offensive dell’AI.
Secondo l’AISI, Mythos è il primo sistema AI ad aver completato autonomamente un’intera simulazione di attacco a una rete aziendale in 32 passaggi, un’operazione che richiederebbe a professionisti umani circa 20 ore di lavoro. Il modello ha raggiunto il 73% di successo nelle sfide di tipo capture-the-flag a livello esperto, una soglia che nessun modello precedente aveva superato. L’Europa, intesa come Unione Europea? Fuori dalla porta.
L’Europa bussa ad Anthropic per Mythos, nessuno apre
La Commissione Europea ha incontrato Anthropic almeno tre volte dal rilascio di Mythos, senza ottenere accesso al modello. Le due parti, secondo fonti europee, non hanno raggiunto un accordo sulle modalità di condivisione. La Commissione si è limitata a dichiarare di stare valutando le possibili implicazioni di un modello che esibisce capacità cyber senza precedenti. Claudia Plattner, presidente della BSI, l’agenzia tedesca per la cybersecurity, ha incontrato dipendenti di Anthropic a San Francisco ottenendo informazioni significative sul funzionamento del modello, ma non accesso diretto.
Quando un Paese usa modelli progettati altrove, si intravede un rischio alla sua indipendenza ed è questo un’importante tema per il nostro governo, che vuole una certa sovranità digitale e tecnologica. Abbiamo dotato l’Italia di una legge nazionale, che sia anche vicina all’AI Act”. Alessio Butti, sottosegretario innovazione alla presidenza del Consiglio (22 aprile 2026)
Ha parlato di cambiamento di paradigma nella natura delle minacce cyber. Il presidente della Bundesbank Joachim Nagel ha chiesto pubblicamente che tutte le istituzioni abbiano accesso a Mythos per mantenere condizioni paritarie e prevenirne l’abuso. La BCE ha avviato un ciclo di confronto con le banche dell’Eurozona sulla preparazione ai rischi posti da Mythos, inserendo il tema nella lista delle priorità di vigilanza 2026-2028.
Ma il suo approccio è stato definito a basso profilo rispetto alla reazione statunitense, dove il Segretario al Tesoro Bessent e il presidente della Fed Powell hanno convocato direttamente i CEO delle principali banche.
Reuters ha riferito il 21 aprile che Anthropic prevede di estendere l’accesso alle banche europee a breve. Ma la tempistica resta nelle mani dell’azienda, non dell’Europa.
AI e cyber, il paradosso regolatorio europeo
Questo episodio rappresenta la dimostrazione più nitida di un paradosso che è al centro del dibattito sulla posizione dell’Europa nell’era dell’AI: l’Unione ha costruito il framework regolatorio più sofisticato al mondo, l’AI Act, il DSA, il DMA, il Cyber Resilience Act, ma nel momento in cui emerge una crisi di sicurezza concreta legata all’AI, non ha né i modelli, né l’infrastruttura computazionale, né il potere negoziale per sedersi al tavolo.
L’AI Act regola come i modelli AI possono essere immessi sul mercato europeo. Ma non dice nulla su cosa accade quando un modello non è immesso sul mercato, quando un’azienda decide unilateralmente di non condividerlo.
In quel caso, l’Europa non ha strumenti. L’AI Act è uno scudo progettato per proteggere i consumatori, non una leva strategica per accedere a capacità tecnologiche critiche. Eduardo Levy Yeyati, ex capo economista della Banca Centrale Argentina e consulente della Banca Interamericana di Sviluppo, ha sintetizzato il problema con precisione chirurgica: “L’idea che l’accesso all’AI frontier sia qualcosa che un’azienda può limitare unilateralmente, usando criteri opachi e senza possibilità di appello, dovrebbe essere una preoccupazione reale.”
L’Europa si trova nella stessa posizione della Cina, fa da spettatrice. Con una differenza cruciale però, la Cina sta investendo massicciamente nella costruzione di modelli propri, nonostante le restrizioni statunitensi sull’export di semiconduttori avanzati. L’Europa, per ora, investe in regolamentazione.
La scala spezzata della sovranità europea per il caso Mythos
Il caso Mythos illumina una frattura strutturale che va oltre la cybersecurity. È una manifestazione specifica di quello che potremmo chiamare la scala spezzata della sovranità digitale, l’interruzione della catena che dovrebbe collegare la capacità di ricerca, l’infrastruttura computazionale, lo sviluppo di frontier model e l’autonomia decisionale strategica. L’Europa ha talento, i laboratori di Parigi, Monaco, Zurigo, Londra, Genova, Torino, Pisa hanno formato alcuni dei migliori ricercatori AI al mondo. Ma il talento senza infrastruttura non genera frontier model. E senza frontier model, non c’è capacità autonoma di identificare vulnerabilità, di valutare rischi, di negoziare da una posizione di forza.
La stessa Anthropic lo ha dimostrato involontariamente, ha aperto uffici a Parigi, Monaco, Dublino, Zurigo e Londra per reclutare talento europeo. Il talento europeo costruisce i modelli americani che l’Europa non può poi utilizzare. Il confronto con il Regno Unito è istruttivo. Londra ha ottenuto accesso a Mythos non perché disponga di modelli propri, ma perché ha investito precocemente nella costruzione dell’AI Safety Institute, una struttura pubblica con capacità tecnica di valutazione indipendente. L’AISI aveva le competenze per testare Mythos in modo rigoroso, questo le ha dato un posto al tavolo. La lezione è chiara, anche senza modelli propri, la capacità tecnica pubblica di valutazione è un asset strategico. L’Europa non ne ha uno paragonabile a livello continentale.
Le implicazioni per l’Italia
Per l’Italia, il caso Mythos aggiunge urgenza a un’agenda che è già in ritardo. Il sistema bancario italiano, come quello europeo, gira su software le cui vulnerabilità sono state identificate da un modello a cui l’Italia non ha accesso. Le infrastrutture energetiche, le reti di telecomunicazione, i sistemi della pubblica amministrazione, tutti dipendono da catene software globali che Mythos ha dimostrato di poter compromettere.
L’Italia partecipa ai tavoli europei sulla cybersecurity attraverso l’ACN (Agenzia per la Cybersicurezza Nazionale), ma non dispone di una capacità autonoma di valutazione dei modelli AI frontier paragonabile a quella dell’AISI britannico. Il PNRR ha allocato risorse significative per la digitalizzazione, ma il tema della capacità computazionale sovrana, la disponibilità di GPU e data center per l’addestramento di modelli, resta largamente assente dal dibattito politico nazionale.
La sicurezza per esclusione non funziona
L’intera architettura di protezione scelta da Anthropic, accesso ristretto a pochi partner fidati, perimetro controllato, distribuzione graduale, si è dimostrata fragile nel modo più imbarazzante possibile. Il 21 aprile, Bloomberg ha rivelato che un piccolo gruppo di utenti non autorizzati ha ottenuto accesso a Mythos lo stesso giorno dell’annuncio pubblico del modello, il 7 aprile.
Non si trattava di una operazione sofisticata da parte di un attore statale. Il gruppo, attivo su un canale Discord dedicato alla raccolta di informazioni su modelli AI non rilasciati, ha semplicemente indovinato l’indirizzo online del modello basandosi sulla conoscenza delle convenzioni URL usate da Anthropic per i suoi altri prodotti. Da lì, hanno sfruttato account condivisi e chiavi API appartenenti a contractor autorizzati, con l’aiuto di un individuo impiegato presso un fornitore terzo dell’azienda.
Da quel momento, il gruppo ha usato Mythos regolarmente, fornendo a Bloomberg prove sotto forma di screenshot e di una dimostrazione live del software. Anthropic ha confermato di stare indagando, dichiarando di non aver trovato evidenze che l’attività si sia estesa oltre l’ambiente del fornitore terzo. L’ironia è stratificata e merita di essere esplicitata, perché contiene lezioni che vanno oltre la cronaca.
Sovranità digitale UE e Mythos: le lezioni
La prima è tecnica. Il modello progettato per trovare vulnerabilità nei sistemi altrui è diventato accessibile a causa di una vulnerabilità nel sistema di distribuzione di Anthropic stessa. L’azienda che ha costruito lo strumento di penetration testing più avanzato al mondo non ha protetto adeguatamente la propria catena di fornitura. La sicurezza della supply chain digitale, il tema su cui l’UE ha legiferato con il Cyber Resilience Act, si è dimostrata il punto di rottura proprio nell’azienda che avrebbe dovuto essere più preparata.
La seconda è politica. Un gruppo su Discord con un po’ di intuito ha fatto ciò che la Commissione Europea non è riuscita a ottenere in tre incontri formali. L’accesso non autorizzato è stato più efficace della diplomazia istituzionale. Una constatazione amara, ma illumina la realtà, in assenza di leva tecnologica o normativa, l’Europa non ha strumenti per forzare l’accesso a capacità che riguardano direttamente la sicurezza delle proprie infrastrutture.
La terza è sistemica, ed è la più rilevante per il nostro ragionamento sulla sovranità. Il modello di sicurezza basato sull’esclusione, pochi attori fidati, accesso controllato, perimetro ristretto, non scala. Quanto più un modello è potente, tanto più attrae tentativi di compromissione. Quanto più l’accesso è concentrato in poche mani, tanto meno il resto del mondo è preparato quando quel perimetro viene inevitabilmente violato. Chi è stato escluso per ragioni di sicurezza si ritrova contemporaneamente esposto ai rischi e privo degli strumenti per difendersi. Esattamente la posizione in cui si trova oggi l’Europa.
Cosa ci insegna Mythos
Il caso Mythos non è un episodio isolato. È il primo stress test reale di un mondo in cui le capacità AI più avanzate hanno implicazioni dirette di sicurezza nazionale, in cui la distribuzione di queste capacità segue logiche aziendali e geopolitiche, non principi di equità o di cooperazione internazionale. Anthropic stessa ha indicato che modelli con capacità cyber simili a Mythos saranno probabilmente disponibili ad altri attori entro 18 mesi. Il che significa che la finestra per rafforzare le difese è limitata, ma l’accesso agli strumenti per farlo resta asimmetrico. Le organizzazioni statunitensi avranno un vantaggio di mesi nell’identificare e correggere le vulnerabilità. L’Europa dovrà aspettare che qualcuno decida di condividere le informazioni, oppure che un gruppo su Discord le renda disponibili prima.
Il mondo non ha un equivalente del Trattato di Non-Proliferazione per l’AI. Non ha ispettori condivisi, regole concordate, meccanismi di distribuzione equa delle capacità difensive. Il caso Mythos mostra che questa lacuna non è più un tema per conferenze accademiche. Si tratta di un rischio operativo, concreto, immediato. Per l’Europa, la lezione è tanto semplice quanto scomoda: la regolamentazione senza capacità tecnologica è uno scudo di carta. Il continente che ha inventato il GDPR, l’AI Act e il Cyber Resilience Act si ritrova a bussare alla porta di un’azienda di San Francisco, senza nessuna leva per farla aprire. Mentre bussa, qualcuno è già entrato dalla finestra













