Il mondo vulnerabile

Claude Mythos Preview e il rischio di un potere senza contrappesi



Indirizzo copiato

Claude Mythos Preview riapre una questione che va oltre la potenza tecnica. Se un modello può leggere il codice e trovare vulnerabilità profonde, allora cambiano insieme la sicurezza digitale, il ruolo degli Stati e la responsabilità politica delle Big Tech

Pubblicato il 9 apr 2026

Alessandro Curioni

Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity – Data Protection



Salvador,,Brazil,-,March,18,,2026:,Claude,Logo,By,Anthropic,
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Qualcuno potrebbe dire “a star is born”, ma quando si tratta di Intelligenza artificiale a queste “nascite” assistiamo con frequenza ormai mensile, se non settimanale.

Claude Mythos Preview non è quindi un’eccezione e nemmeno stupisce che Anthropic lo consideri talmente potente da effettuare un rilascio controllato.

La straordinaria capacità di questo modello sarebbe leggere il codice e trovare bug e vulnerabilità invisibili a noi umani con la conseguenza di incidere direttamente sulla fragilità tecnologica del mondo che ormai, per contro, è ben visibile a chiunque.

Sul tema vale la pena fare qualche considerazione.

I rischi se l’etica smette di essere un confine

Le grandi società tecnologiche amano presentarsi come realtà predestinate a essere responsabili del futuro, ma troppo spesso la loro etica somiglia a una porta girevole. Entrano princìpi solenni, escono eccezioni operative. Un giorno si rivendica la prudenza e si trattiene un modello perché troppo potente; il giorno dopo si negoziano usi militari, ma “entro certi limiti”, che naturalmente vengono definiti da chi costruisce la macchina. Non è necessariamente mala fede, ma qualcosa di peggio: è una moralità elastica, che si adatta alla pressione del mercato, del regolatore, dell’opinione pubblica e della geopolitica.

A quel punto l’etica smette di essere un confine e diventa un cursore. Qui c’è un primo equivoco da smontare. Si continua a parlare di tecnologia come se fosse neutrale, e dei suoi produttori come di semplici fornitori di utensili, ma le infrastrutture digitali non sono mai neutrali: incorporano scelte, gerarchie, poteri, esclusioni. Anche le condizioni d’uso, in realtà, possono funzionare come piccoli atti di sovranità privata. Decidere chi accede a un modello, chi ne resta fuori, quali usi sono consentiti e quali no, è un gesto politico, anche quando indossa la felpa e parla il linguaggio della responsabilità.

Chi decide accesso, limiti e responsabilità

Il punto più delicato, però, è un altro: oggi chi costruisce la macchina è spesso anche chi misura e racconta il suo rischio, per poi stabilire a chi affidarla. In pratica il fabbricante si presenta insieme come ingegnere, collaudatore e vigile del fuoco. È una situazione che nel mondo fisico giudicheremmo con un sopracciglio alzato. Nel digitale, invece, la accettiamo con curiosa serenità. Il problema è che, in questi ecosistemi, la fiducia si concentra in pochi nodi e ogni nodo concentra anche il diritto di definire da solo il perimetro del bene e del male.

Per questo l’ambivalenza etica delle Big Tech non è una stranezza caratteriale, ma un problema di governance. Non basta che dichiarino di voler fare il bene; bisognerebbe capire chi verifica, chi controfirma, chi può dire di no. Quando i princìpi diventano discrezionali, la prudenza diventa privilegio e un’etica che vale soltanto finché conviene non è tale, ma somiglia di più a una policy con alle spalle una buona agenzia di comunicazione.

Perché Claude Mythos Preview riguarda anche la sicurezza nazionale

L’assenza degli Stati da questo dibattito è una scena muta piuttosto inquietante. Se un modello di intelligenza artificiale è davvero capace di scoprire vulnerabilità critiche, di accelerare la ricerca di exploit e di abbassare il costo dell’attacco, non siamo più nel cortile privato dell’innovazione, ma dentro il perimetro della sicurezza nazionale. Si parla di reti elettriche, ospedali, finanza, trasporti, difesa, pubblica amministrazione. In altre parole, di tutto ciò che regge la vita ordinaria e che ci accorgiamo di avere solo quando smette di funzionare.

Il paradosso, che sembra essere una costante nel digitale, è che gli Stati sembrano intervenire soprattutto quando il danno è già visibile. Eppure da anni sappiamo che il mondo digitale non è un “salotto buono”, ma un territorio ostile in cui criminali, servizi di intelligence, gruppi industriali e attori geopolitici si muovono con interessi diversi e spesso incompatibili. In questo scenario lasciare che siano soltanto le aziende produttrici a raccontare la portata del rischio significa accettare una delega assai singolare: affidare la valutazione della minaccia a chi, quella minaccia, la costruisce, la addestra e la commercializza.

Il vuoto istituzionale davanti ai rischi sistemici

C’è poi un elemento ancora più sottile. Gli Stati sono abituati a riconoscere il pericolo quando ha una divisa, una bandiera o almeno una catena di comando. L’intelligenza artificiale, invece, si presenta in abito civile. Non fa rumore come un carro armato, non sorvola i confini come un missile, ma può incidere ugualmente sulla stabilità di un paese, perché agisce sulla fragilità delle sue infrastrutture informative. È la vecchia illusione della modernità digitale: ciò che non esplode non sembra una minaccia. Quando poi salta, si blocca una rete ospedaliera e ci si ricorda che ci sono bombe che fanno danni, senza rumore.

Per questo il silenzio delle istituzioni non è neutrale. È un vuoto di potere che, in quanto tale, non resta mai vuoto a lungo. Dove lo Stato non definisce regole, soglie, verifiche e responsabilità, qualcuno lo farà al suo posto. Di solito un soggetto privato, transnazionale, opaco quanto basta e legittimato soltanto dalla propria superiorità tecnica. Se una fetta significativa della protezione di un paese dipende dal codice, ignorare chi scrive quel codice è un’innovativa forma di sonnambulismo istituzionale.

Claude Mythos Preview e la nuova lettura industriale del codice

L’idea che inquieta più di quanto stupisca è la lettura del codice. Per noi è ancora una lingua straniera, che alcuni imparano molto bene, ma per una macchina è un ambiente naturale di lavoro. Un essere umano legge il software come un testo tecnico, una struttura logica. Un sistema di intelligenza artificiale può attraversarlo in un altro modo: senza stanchezza, senza cali di attenzione, senza il peso della memoria biologica, senza quella fisiologica tendenza a fermarsi quando ci si incrocia la vista.

La differenza, qui, è solo di scala. Per anni abbiamo chiamato “sicuro” molto software che in realtà era soltanto poco esplorato. Se oggi arrivano strumenti capaci di leggere milioni di righe di codice, correlare comportamenti, simulare condizioni, inseguire eccezioni e testare combinazioni con una profondità che nessun team umano può sostenere, il vecchio equilibrio si rompe.

Le vulnerabilità “umanamente introvabili” forse non erano invisibili in senso assoluto, ma sepolte sotto un costo cognitivo e temporale che ci proteggeva più della qualità del software stesso.

La fine dell’illusione che la complessità protegga

Crolla così una comoda illusione antropocentrica. Ci piace pensare che la complessità ci difenda, perché immaginiamo la complessità come un bosco fitto in cui l’uomo si perde, ma non è il caso della macchina che non si annoia, non sbuffa, non si distrae, non va a prendere un caffè proprio mentre sta per trovare il bug che conta. Quando questa capacità si applica a sistemi operativi, browser, librerie open source, software industriale o infrastrutture critiche, il problema non è “se” c’è un difetto, ma “quando” la macchina lo troverà.

Non c’è bisogno di cadere nel misticismo e immaginare un nuovo oracolo del binario, perché il risultato si raggiunge anche abbattendo drasticamente il costo della ricerca delle vulnerabilità. A quel punto il paradigma muta, perché ciò che prima era artigianale diventa industriale. La soglia che stiamo attraversando potrebbe semplicemente essere l’emersione di un lettore instancabile delle nostre debolezze tecniche, mettendo a nudo i limiti della nostra presunzione.

I rischi di Claude Mythos Preview oltre il fascino della creatura

C’è sempre un momento in cui il creatore smette di guardare la creatura con severità e comincia a contemplarla con orgoglio. È umano, persino comprensibile. Il problema è che, nel campo dell’intelligenza artificiale, questo passaggio rischia di avere conseguenze inquietanti, perché quando ci si innamora di ciò che si è costruito, il giudizio perde nitidezza. I difetti sembrano dettagli, i rischi diventano incidenti di percorso, le critiche appaiono resistenze culturali di chi non ha capito il futuro.

Del resto, è difficile resistere. Chi lavora per anni a sistemi sempre più capaci finisce inevitabilmente per proiettare in essi una parte di sé: intelligenza, ambizione, fatica, perfino vanità. La macchina non è più soltanto un prodotto, diventa una prova, un’estensione della propria visione del mondo. Nasce così un problema molto particolare. Non si tratta soltanto del conflitto di interessi economico, che pure esiste ed è evidente, ma di una forma di accecamento affettivo.

Quando anche l’allarme diventa marketing

Come certi genitori che continuano a vedere nel figlio un prodigio anche quando ha appena sfondato una vetrina con una pietra, così alcuni creatori sembrano incapaci di distinguere con nettezza la potenza della loro creatura dalla bontà delle sue conseguenze. In questo clima la prudenza si degrada facilmente in narrazione: si dice che il modello è pericoloso, ma lo si annuncia con un certo compiacimento; si evocano i rischi, ma come si racconta un primato; si rinvia un rilascio e con lo stesso gesto si suggerisce al mondo di essere arrivati a una soglia nuova, superiore, quasi storica.

In altre parole, anche l’allarme diventa marketing. Non per cinismo puro, ma perché quando si è emotivamente e simbolicamente investiti in una tecnologia, ogni gesto intorno a essa finisce per rafforzarne il mito. Il problema, allora, non è soltanto che i creatori possano sbagliare valutazione, ma rischiano di non accorgersi più fino in fondo del proprio coinvolgimento. La macchina viene giudicata non per ciò che fa, ma per ciò che rappresenta. Non per i suoi effetti sistemici, ma per la promessa che incarna.

Quando un oggetto tecnologico entra così profondamente nell’identità di chi lo costruisce, la distanza critica evapora. Restano la competenza, il talento, la buona fede forse. Tuttavia, si dimentica che le creature più pericolose non sono sempre quelle nate dal male, ma quelle amate troppo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x