Qualcuno potrebbe dire “a star is born”, ma quando si tratta di Intelligenza artificiale a queste “nascite” assistiamo con frequenza ormai mensile, se non settimanale.
Claude Mythos Preview non è quindi un’eccezione e nemmeno stupisce che Anthropic lo consideri talmente potente da effettuare un rilascio controllato.
La straordinaria capacità di questo modello sarebbe leggere il codice e trovare bug e vulnerabilità invisibili a noi umani con la conseguenza di incidere direttamente sulla fragilità tecnologica del mondo che ormai, per contro, è ben visibile a chiunque.
Sul tema vale la pena fare qualche considerazione.
Indice degli argomenti
I rischi se l’etica smette di essere un confine
Le grandi società tecnologiche amano presentarsi come realtà predestinate a essere responsabili del futuro, ma troppo spesso la loro etica somiglia a una porta girevole. Entrano princìpi solenni, escono eccezioni operative. Un giorno si rivendica la prudenza e si trattiene un modello perché troppo potente; il giorno dopo si negoziano usi militari, ma “entro certi limiti”, che naturalmente vengono definiti da chi costruisce la macchina. Non è necessariamente mala fede, ma qualcosa di peggio: è una moralità elastica, che si adatta alla pressione del mercato, del regolatore, dell’opinione pubblica e della geopolitica.
A quel punto l’etica smette di essere un confine e diventa un cursore. Qui c’è un primo equivoco da smontare. Si continua a parlare di tecnologia come se fosse neutrale, e dei suoi produttori come di semplici fornitori di utensili, ma le infrastrutture digitali non sono mai neutrali: incorporano scelte, gerarchie, poteri, esclusioni. Anche le condizioni d’uso, in realtà, possono funzionare come piccoli atti di sovranità privata. Decidere chi accede a un modello, chi ne resta fuori, quali usi sono consentiti e quali no, è un gesto politico, anche quando indossa la felpa e parla il linguaggio della responsabilità.
Chi decide accesso, limiti e responsabilità
Il punto più delicato, però, è un altro: oggi chi costruisce la macchina è spesso anche chi misura e racconta il suo rischio, per poi stabilire a chi affidarla. In pratica il fabbricante si presenta insieme come ingegnere, collaudatore e vigile del fuoco. È una situazione che nel mondo fisico giudicheremmo con un sopracciglio alzato. Nel digitale, invece, la accettiamo con curiosa serenità. Il problema è che, in questi ecosistemi, la fiducia si concentra in pochi nodi e ogni nodo concentra anche il diritto di definire da solo il perimetro del bene e del male.
Per questo l’ambivalenza etica delle Big Tech non è una stranezza caratteriale, ma un problema di governance. Non basta che dichiarino di voler fare il bene; bisognerebbe capire chi verifica, chi controfirma, chi può dire di no. Quando i princìpi diventano discrezionali, la prudenza diventa privilegio e un’etica che vale soltanto finché conviene non è tale, ma somiglia di più a una policy con alle spalle una buona agenzia di comunicazione.
Perché Claude Mythos Preview riguarda anche la sicurezza nazionale
L’assenza degli Stati da questo dibattito è una scena muta piuttosto inquietante. Se un modello di intelligenza artificiale è davvero capace di scoprire vulnerabilità critiche, di accelerare la ricerca di exploit e di abbassare il costo dell’attacco, non siamo più nel cortile privato dell’innovazione, ma dentro il perimetro della sicurezza nazionale. Si parla di reti elettriche, ospedali, finanza, trasporti, difesa, pubblica amministrazione. In altre parole, di tutto ciò che regge la vita ordinaria e che ci accorgiamo di avere solo quando smette di funzionare.
Il paradosso, che sembra essere una costante nel digitale, è che gli Stati sembrano intervenire soprattutto quando il danno è già visibile. Eppure da anni sappiamo che il mondo digitale non è un “salotto buono”, ma un territorio ostile in cui criminali, servizi di intelligence, gruppi industriali e attori geopolitici si muovono con interessi diversi e spesso incompatibili. In questo scenario lasciare che siano soltanto le aziende produttrici a raccontare la portata del rischio significa accettare una delega assai singolare: affidare la valutazione della minaccia a chi, quella minaccia, la costruisce, la addestra e la commercializza.
Il vuoto istituzionale davanti ai rischi sistemici
C’è poi un elemento ancora più sottile. Gli Stati sono abituati a riconoscere il pericolo quando ha una divisa, una bandiera o almeno una catena di comando. L’intelligenza artificiale, invece, si presenta in abito civile. Non fa rumore come un carro armato, non sorvola i confini come un missile, ma può incidere ugualmente sulla stabilità di un paese, perché agisce sulla fragilità delle sue infrastrutture informative. È la vecchia illusione della modernità digitale: ciò che non esplode non sembra una minaccia. Quando poi salta, si blocca una rete ospedaliera e ci si ricorda che ci sono bombe che fanno danni, senza rumore.
Per questo il silenzio delle istituzioni non è neutrale. È un vuoto di potere che, in quanto tale, non resta mai vuoto a lungo. Dove lo Stato non definisce regole, soglie, verifiche e responsabilità, qualcuno lo farà al suo posto. Di solito un soggetto privato, transnazionale, opaco quanto basta e legittimato soltanto dalla propria superiorità tecnica. Se una fetta significativa della protezione di un paese dipende dal codice, ignorare chi scrive quel codice è un’innovativa forma di sonnambulismo istituzionale.
Claude Mythos Preview e la nuova lettura industriale del codice
L’idea che inquieta più di quanto stupisca è la lettura del codice. Per noi è ancora una lingua straniera, che alcuni imparano molto bene, ma per una macchina è un ambiente naturale di lavoro. Un essere umano legge il software come un testo tecnico, una struttura logica. Un sistema di intelligenza artificiale può attraversarlo in un altro modo: senza stanchezza, senza cali di attenzione, senza il peso della memoria biologica, senza quella fisiologica tendenza a fermarsi quando ci si incrocia la vista.
La differenza, qui, è solo di scala. Per anni abbiamo chiamato “sicuro” molto software che in realtà era soltanto poco esplorato. Se oggi arrivano strumenti capaci di leggere milioni di righe di codice, correlare comportamenti, simulare condizioni, inseguire eccezioni e testare combinazioni con una profondità che nessun team umano può sostenere, il vecchio equilibrio si rompe.
Le vulnerabilità “umanamente introvabili” forse non erano invisibili in senso assoluto, ma sepolte sotto un costo cognitivo e temporale che ci proteggeva più della qualità del software stesso.
La fine dell’illusione che la complessità protegga
Crolla così una comoda illusione antropocentrica. Ci piace pensare che la complessità ci difenda, perché immaginiamo la complessità come un bosco fitto in cui l’uomo si perde, ma non è il caso della macchina che non si annoia, non sbuffa, non si distrae, non va a prendere un caffè proprio mentre sta per trovare il bug che conta. Quando questa capacità si applica a sistemi operativi, browser, librerie open source, software industriale o infrastrutture critiche, il problema non è “se” c’è un difetto, ma “quando” la macchina lo troverà.
Non c’è bisogno di cadere nel misticismo e immaginare un nuovo oracolo del binario, perché il risultato si raggiunge anche abbattendo drasticamente il costo della ricerca delle vulnerabilità. A quel punto il paradigma muta, perché ciò che prima era artigianale diventa industriale. La soglia che stiamo attraversando potrebbe semplicemente essere l’emersione di un lettore instancabile delle nostre debolezze tecniche, mettendo a nudo i limiti della nostra presunzione.
I rischi di Claude Mythos Preview oltre il fascino della creatura
C’è sempre un momento in cui il creatore smette di guardare la creatura con severità e comincia a contemplarla con orgoglio. È umano, persino comprensibile. Il problema è che, nel campo dell’intelligenza artificiale, questo passaggio rischia di avere conseguenze inquietanti, perché quando ci si innamora di ciò che si è costruito, il giudizio perde nitidezza. I difetti sembrano dettagli, i rischi diventano incidenti di percorso, le critiche appaiono resistenze culturali di chi non ha capito il futuro.
Del resto, è difficile resistere. Chi lavora per anni a sistemi sempre più capaci finisce inevitabilmente per proiettare in essi una parte di sé: intelligenza, ambizione, fatica, perfino vanità. La macchina non è più soltanto un prodotto, diventa una prova, un’estensione della propria visione del mondo. Nasce così un problema molto particolare. Non si tratta soltanto del conflitto di interessi economico, che pure esiste ed è evidente, ma di una forma di accecamento affettivo.
Quando anche l’allarme diventa marketing
Come certi genitori che continuano a vedere nel figlio un prodigio anche quando ha appena sfondato una vetrina con una pietra, così alcuni creatori sembrano incapaci di distinguere con nettezza la potenza della loro creatura dalla bontà delle sue conseguenze. In questo clima la prudenza si degrada facilmente in narrazione: si dice che il modello è pericoloso, ma lo si annuncia con un certo compiacimento; si evocano i rischi, ma come si racconta un primato; si rinvia un rilascio e con lo stesso gesto si suggerisce al mondo di essere arrivati a una soglia nuova, superiore, quasi storica.
In altre parole, anche l’allarme diventa marketing. Non per cinismo puro, ma perché quando si è emotivamente e simbolicamente investiti in una tecnologia, ogni gesto intorno a essa finisce per rafforzarne il mito. Il problema, allora, non è soltanto che i creatori possano sbagliare valutazione, ma rischiano di non accorgersi più fino in fondo del proprio coinvolgimento. La macchina viene giudicata non per ciò che fa, ma per ciò che rappresenta. Non per i suoi effetti sistemici, ma per la promessa che incarna.
Quando un oggetto tecnologico entra così profondamente nell’identità di chi lo costruisce, la distanza critica evapora. Restano la competenza, il talento, la buona fede forse. Tuttavia, si dimentica che le creature più pericolose non sono sempre quelle nate dal male, ma quelle amate troppo.
Il valore di Mythos è economico e politico
Anthropic sostiene che Mythos abbia capacità molto superiori a quelle dei suoi modelli precedenti, soprattutto nel campo della cybersicurezza: il sistema sarebbe in grado sia di trovare e correggere vulnerabilità come difensore, sia di sfruttarle come attaccante. In generale, affermazioni di questo tipo andrebbero accolte con cautela, perché provengono dalla stessa azienda che ha sviluppato e testato il modello, e che ha interesse a rafforzare la percezione della propria superiorità in una fase di forte crescita commerciale.
Tuttavia, ci sono elementi che rendono credibili gli avvertimenti di Anthropic. Il primo è la portata delle sue dichiarazioni: secondo il laboratorio, Mythos avrebbe già individuato falle gravi in tutti i principali sistemi operativi e browser, compresa una vulnerabilità rimasta nascosta per 27 anni.
Il secondo è la reazione dell’industria. Insieme alla sospensione del rilascio più ampio del modello, Anthropic ha lanciato Project Glasswing, iniziativa pensata per consentire alle aziende di usare Mythos in anticipo per rafforzare le proprie difese. Il coinvolgimento di soggetti come Apple, Linux Foundation, CrowdStrike e perfino Google suggerisce che il rischio venga preso sul serio anche dai concorrenti.
L’idea di Dario Amodei è offrire un vantaggio temporaneo ai difensori: usare il modello per analizzare codice non ancora pubblicato, trovare punti deboli e correggerli prima che finiscano nelle mani sbagliate. Ma Glasswing non è solo una misura di sicurezza: per Anthropic è anche un’opportunità economica, visto che dopo un suo investimento iniziale di 100 milioni, i partecipanti pagheranno un prezzo molto più alto rispetto al modello Opus.
Il nodo, però, è anche geopolitico. Modelli simili arriveranno comunque, forse con meno cautele, soprattutto in ambito open source o da laboratori cinesi. Inoltre, se Glasswing riducesse davvero il numero di vulnerabilità sfruttabili, potrebbe danneggiare anche l’interesse del governo americano, che da anni conserva “zero day” da usare in chiave offensiva. Per questo Anthropic rischia di scontrarsi non solo con gli hacker, ma anche con parti dell’apparato di sicurezza statunitense, con i quali ci sono già ferri corti.
Redazione












