intelligenza artificiale

AI sicura o disruptive? Così due opposte visioni si contendono i destini del mondo



Indirizzo copiato

La sicurezza dell’AI è diventata il criterio che separa due visioni industriali opposti: da una parte il rilascio rapido con correzioni successive, dall’altra l’idea che alcune capacità vadano limitate prima di arrivare sul mercato. Il caso Anthropic-Mythos è emblematico. Soprattutto al confronto con opposta visione, che emerge da un nuovo documento OpenAI

Pubblicato il 10 apr 2026

Alessandro Longo
Alessandro Longo

Direttore agendadigitale.eu



Intelligenza artificiale in conflitto
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La decisione di Anthropic di non distribuire al pubblico Claude Mythos Preview, annunciata il 7 aprile, è un salto di qualità in uno scontro tra due diverse visioni dell’AI. E’ la prima volta, nella storia recente dell’AI, che una big tech rinuncia a lanciare un modello al mondo perché giudicato troppo pericoloso.

Negli stessi giorni OpenAI (il 6 aprile) pubblica un documento (Industrial Policy for the Intelligence Age) dove la transizione verso sistemi sempre più potenti, fino alla superintelligenza, è trattata come già in corso. Il compito della politica per OpenAI non è fermare la traiettoria ma costruire un nuovo assetto economico e istituzionale capace di reggerla.

Succede che si stanno formando due squadre di attori abbastanza definite, in una partita da cui dipende che tipo di intelligenza artificiale avremo.

Ne avremo una più dirompente nell’immediato (lasciando alla società solo il ruolo di gestire le conseguenze)? Oppure una più sicura e rispettosa by design di certi valori ed equilibri?

Badate bene. L’impatto può essere totale: sul lavoro, la Sanità, la disinformazione. La sicurezza informatica e non solo.

Conflitto nell’AI: due modelli di pensiero (e azione)

Vediamo quindi le forze in campo.

Da una parte ci sono Sam Altman (OpenAI) ed Elon Musk (xAI con Grok), convinti che i modelli vadano portati sul mercato in fretta e che i rischi si gestiscano lungo il percorso. Dall’altra ci sono Demis Hassabis (Google Deepmind) e Dario Amodei (Anthropic), secondo cui i sistemi più potenti devono superare soglie di rischio, revisioni formali e restrizioni di accesso prima di una diffusione ampia.

Non è più solo una divergenza teorica.

Si vede nei prodotti, nei rapporti con i governi, nelle cause legali e perfino nei modelli che non arrivano al pubblico. Il caso più chiaro è quello di Anthropic.

Claude Mythos Preview non sarà distribuito pubblicamente, dopo aver sostenuto nel report tecnico che il modello era in grado di individuare e sfruttare vulnerabilità zero-day nei principali sistemi operativi e browser.

Ecco perché non ha pubblicato il modello ma lo ha inserito dentro Project Glasswing, con accesso ristretto a partner selezionati e a più di 40 organizzazioni che gestiscono software critico. Pochi giorni prima, il 31 marzo, Anthropic aveva anche firmato in Australia un accordo sulla sicurezza dell’AI e sulla valutazione congiunta dei rischi. E già a gennaio, come noto, aveva rifiutato di allentare alcuni guardrail richiesti dal Pentagono per impieghi legati alla sorveglianza domestica e alle armi autonome. E ricordiamo che Anthropic è il solo modello ad avere una costituzione.

Non è un caso che Hassabis e Amodei hanno un’impostazione figlia di laboratori e accademia, mentre Musk e Altman sono tipici esponenti dell’imprenditoria dell’innovazione tech.

La velocità come vantaggio strategico: Altman

Nel campo della velocità, Sam Altman resta il caso più importante.

A dicembre 2025 OpenAI è entrata in “code red” per accelerare lo sviluppo di GPT-5 in risposta a Gemini 3, sospendendo progetti non centrali e riallocando risorse. Già nel marzo 2025 Altman aveva inoltre annunciato l’intenzione di rilasciare un modello open-weight con capacità di ragionamento, cioè una scelta che amplia l’accesso degli sviluppatori ai pesi del modello.

L’open-weight secondo alcuni aumenta i rischi di sicurezza che l’AI pone sul mondo perché permette più facilmente usi pericolosi, nelle mani sbagliate. Dall’altro punto di vista può facilitare la corsa all’innovazione, motivo per cui è favorito da Meta e dalla Cina.

Il documento Industrial Policy for the Intelligence Age

Il documento pubblicato da OpenAI il 6 aprile 2026 conferma che il passaggio verso sistemi sempre più potenti non viene messo in discussione, mentre il focus si sposta su istituzioni, redistribuzione, lavoro e protezioni pubbliche da adattare a quell’accelerazione. In questa visione, il problema principale non è se rallentare la traiettoria, ma come reggere le sue conseguenze.

Propone insomma di costruire un nuovo assetto istituzionale capace di assorbirne gli effetti. L’idea è che l’AI possa aumentare enormemente produttività e ricchezza, ma anche concentrare potere economico, erodere la base fiscale legata al lavoro e allargare le disuguaglianze.

Da qui una serie di proposte: più voce ai lavoratori nell’adozione dei sistemi, accesso diffuso ai modelli come infrastruttura di base, una fiscalità più spostata verso capitale e rendimenti dell’AI, e perfino un fondo pubblico che redistribuisca una parte dei guadagni della nuova economia.

La sicurezza, in questa cornice, non scompare. Ma viene pensata come auditing, tracciabilità, risposta ai rischi e resilienza istituzionale. Dentro una logica di gestione dell’accelerazione, non di freno preventivo ai laboratori.

Quando la sicurezza dell’AI arriva dopo il rilascio: Musk

Elon Musk incarna una versione ancora più esplicita della stessa logica e con conseguenze già visibili, perché si manifesta in prodotti già finiti nelle mani degli utenti. A gennaio Reuters ha raccontato che xAI ha limitato alcune funzioni di editing di immagini di Grok solo dopo la pressione dei regolatori e le proteste per la generazione di contenuti sessualizzati non consensuali. Il 26 marzo un tribunale olandese ha poi ordinato a xAI e a Grok di non creare né distribuire immagini che “spogliano” adulti o minori senza consenso nei Paesi Bassi, con una sanzione da 100 mila euro al giorno in caso di violazione.

Grok è nel mirino anche di indagini della Commissione UE.

Il caso Grok ha mostrato una dinamica ormai familiare in parte della Silicon Valley: prima si apre il rubinetto, poi si interviene quando arrivano il danno reputazionale, le inchieste o i giudici.

La prudenza trasformata in procedura: Hassabis

Sull’altro versante, Demis Hassabis prova da tempo a fare della cautela un elemento strutturale del prodotto. Nel settembre 2025 Google DeepMind ha aggiornato il proprio Frontier Safety Framework introducendo nuovi Critical Capability Levels, compreso un livello dedicato alla manipolazione dannosa, e ha stabilito safety case reviews prima dei lanci esterni quando vengono raggiunte determinate soglie di capacità.

Significa che la valutazione del rischio entra formalmente nella catena di sviluppo e può incidere sul rilascio. A Davos, nel gennaio 2026, Hassabis ha poi collocato l’AGI a una distanza di cinque-dieci anni, una previsione più prudente rispetto ai tempi evocati da altri leader del settore. Anche qui il punto non è il rifiuto della corsa, ma l’idea che la corsa debba passare attraverso cancelli più stretti.

Come cambia la sicurezza dell’AI con Anthropic

Dario Amodei, dal canto suo, sta spingendo quella stessa impostazione su un piano insieme commerciale, geopolitico e regolatorio. Anthropic non si è limitata a difendere in astratto la safety: ha respinto richieste del Dipartimento della Difesa americano, ha firmato accordi con governi e istituti di sicurezza, e nel caso Mythos ha scelto di non rendere il modello generalmente disponibile proprio perché ritiene che un rilascio ampio aumenterebbe il rischio di cyberattacchi offensivi.

È questa la differenza che conta davvero. Per Amodei e, in larga misura, per Hassabis, i guardrail non sono un accessorio da comunicato stampa né una toppa da applicare dopo. Sono una condizione di accesso. Prima si testano le capacità, poi si decide chi può usare il sistema e a quali condizioni.

Il nodo politico prima del mercato

Per questo sarebbe fuorviante raccontare il conflitto come uno scontro infantile tra “innovatori” e “regolatori”. Altman pubblica documenti di policy; Musk continua a evocare rischi esistenziali; Hassabis guida comunque uno dei laboratori più ambiziosi al mondo; Amodei non ha certo smesso di costruire modelli sempre più potenti e di recente ha rinunciato alla regola di massima che si debba bloccare.

In quale momento il rischio deve diventare un vincolo industriale? Per Altman e Musk, in forme diverse, il sistema tende a correggersi lungo il percorso. Per Hassabis e Amodei, alcune capacità fanno scattare un filtro prima del mercato. Ed è qui che la vicenda Mythos assume un peso che va oltre Anthropic: per la prima volta, uno dei laboratori di frontiera ha detto apertamente che un modello general purpose può essere troppo potente per una distribuzione generale.

Perché la sicurezza dell’AI riguarda l’Europa

Per i governi, e soprattutto per l’Europa, il punto ormai è questo. Se prevale la grammatica classica della piattaforma tecnologica, le regole arrivano dopo il rilascio, quando il prodotto è già diffuso e il costo politico, economico e sociale del rientro è molto più alto.

Se invece prende piede la linea che oggi si vede emergere tra DeepMind e Anthropic, allora la regolazione entra prima: nei contratti pubblici, nelle soglie di rischio, nelle revisioni tecniche, nelle autorizzazioni di accesso.

By design. Ex ante.

In tutto questo scontro, comunque e chiunque si tifi, è inevitabile alla fine restare con l’amaro in bocca, per noi europei. Perché la partita al momento è decisa altrove, da squadre lontane.

Non per questo bisogna rassegnarsi a un destino di spettatori.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x