il vertice di pechino

L’Europa fuori dal tavolo AI: così USA e Cina decidono il futuro



Indirizzo copiato

Il summit di Pechino del 14-15 maggio introduce l’AI come dossier strategico autonomo nei rapporti USA-Cina. Il modello Mythos di Anthropic ha accelerato la crisi di governance. L’Europa, pur dotata di AI Act, rischia di restare esclusa dai negoziati che contano

Pubblicato il 11 mag 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



Trump,Vs,Xi,Jinping,Geopolitical,Battleground,Usa,Blue,China,Red
trump vs xi jinping Geopolitical Battleground USA Blue China Red
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il vertice di Pechino del 14-15 maggio tra Donald Trump e Xi Jinping non riguarda solo dazi e Taiwan: per la prima volta, l’AI è un dossier a sé stante, con consultazioni bilaterali ricorrenti già in discussione. Capire cosa sta accadendo — e perché l’Europa rischia di restarne fuori — è oggi più urgente che mai.


Il vertice di Pechino porta l’AI nell’agenda diplomatica globale

Quando Donald Trump e Xi Jinping si siederanno al tavolo il 14 e 15 maggio, l’intelligenza artificiale sarà dunque formalmente in agenda.

Non come corollario tecnologico dei rapporti commerciali, ma come dossier strategico a sé stante. I due governi stanno valutando l’avvio di consultazioni bilaterali ricorrenti sull’AI, le prime del secondo mandato Trump. Un fatto senza precedenti nell’era dell’AI generativa, un segnale che merita di essere letto con attenzione anche da questa parte dell’Atlantico.

Mythos, il modello Anthropic che ha accelerato la crisi di governance

A rendere urgente la questione è stata una convergenza di fattori. Sul piano tecnico, il catalizzatore ha un nome: Mythos, il modello di Anthropic che ha reso tangibile e mediatico il rischio di una AI offensivamente capace nel dominio cyber.

Sul piano politico, la crescente consapevolezza, in entrambe le capitali, che la corsa all’AI rischia di sfuggire a qualsiasi forma di governance se non si stabiliscono almeno dei canali di comunicazione.

Il caso Mythos: capacità offensive, fuga di documenti e reazioni internazionali

Il caso Mythos è istruttivo. Anthropic ha dichiarato ad aprile di aver sviluppato un modello talmente efficace nell’individuare vulnerabilità nelle difese informatiche da non poterlo rilasciare al pubblico. Il modello è stato messo a disposizione di un consorzio ristretto di aziende, tra cui Amazon, Apple, Cisco, CrowdStrike, Microsoft e Palo Alto Networks, nell’ambito del Project Glasswing, un programma di cybersecurity difensiva. La scoperta, peraltro, era emersa inizialmente per via di una fuga accidentale di documenti interni, il che aggiunge un livello di ironia alla narrativa sulla sicurezza dell’AI.

Dalla bomba atomica all’AI: le reazioni di Pechino, Mosca e Washington

Le reazioni internazionali sono state rivelatrici. I media di Stato cinesi hanno segnalato le capacità di attacco informatico senza precedenti del modello. Un’emittente russa lo ha definito peggio di una bomba nucleare. L’amministrazione Trump, che fino a quel momento manteneva un approccio sostanzialmente deregolatorio verso l’AI, ha cominciato a valutare l’introduzione di esami governativi sui nuovi modelli prima del rilascio. Un’inversione notevole per un’amministrazione che aveva smantellato quasi tutte le iniziative di governance dell’AI ereditate da Biden.

Tre livelli di cooperazione possibile tra USA e Cina sull’AI

In questo contesto, la discussione tra esperti e diplomatici sta convergendo su tre livelli possibili di cooperazione tra Stati Uniti e Cina. Il primo è il dialogo: una forma di rassicurazione strategica, come la definiscono i funzionari occidentali. L’idea è che le due potenze discutano apertamente i rispettivi approcci alla gestione del rischio, non necessariamente coordinandosi, ma leggendo gli stessi documenti tecnici e condividendo una base comune di riferimento. Come ha osservato Karson Elmgren dell’Institute for AI Policy and Strategy, se entrambe le parti partono dagli stessi dati, possono arrivare a risposte ragionevoli anche senza un accordo formale.

Il secondo livello riguarda la convergenza sui test di sicurezza. Senza condividere i risultati specifici, le due parti potrebbero adottare metriche comuni per misurare i comportamenti pericolosi dei modelli o per individuare obiettivi non allineati con quelli dei creatori. Jeffrey Ding della George Washington University ha notato che il problema cruciale è la difficoltà di separare i dati sulla sicurezza da quelli utili allo sviluppo: trattenere i risultati dei test potrebbe però attenuare il timore reciproco di fughe tecnologiche.

Trust but verify: il modello AIEA applicato all’intelligenza artificiale

Il terzo livello, il più ambizioso e il meno probabile, è quello del trust but verify: test di sicurezza comuni con condivisione dei risultati e meccanismi di verifica, potenzialmente affidati a un arbitro internazionale. Il modello evocato è quello dell’Agenzia internazionale per l’energia atomica, che monitora il materiale nucleare. Ma qui si entra nel territorio dell’aspirazione più che della negoziazione concreta.

Perché l’analogia nucleare non regge: i limiti del modello di non proliferazione

Proprio su questo punto, l’analogia con il controllo degli armamenti nucleari, evocata da molti commentatori, mostra i suoi limiti. Le testate nucleari si possono contare, i siti di arricchimento si possono ispezionare, i test si possono rilevare sismicamente. L’AI non ha nulla di tutto questo. I modelli sono software, non hardware. Sono dual-use per definizione: lo stesso sistema che ottimizza una supply chain può individuare vulnerabilità zero-day. Inoltre, molti dei modelli più potenti, in particolare quelli cinesi come DeepSeek, sono open source: i pesi vengono pubblicati liberamente, rendendo qualsiasi tentativo di contenimento strutturalmente diverso dal regime di non proliferazione nucleare.

Asimmetrie e sospetti: perché la sfiducia tra USA e Cina rimane profonda

A questo si aggiunge un problema di asimmetria nella cultura della sicurezza. I documenti che accompagnano il modello v4 di DeepSeek, rilasciato il mese scorso, omettevano misure di salvaguardia che sono ormai standard nei laboratori americani. Gli scettici, tra cui ex funzionari dell’amministrazione Biden come Ryan Fedasiuk, suggeriscono che le preoccupazioni cinesi sulla sicurezza dell’AI siano più tattiche che sostanziali, finalizzate a ottenere la revoca dei controlli americani sulle esportazioni di chip avanzati. Un sospetto alimentato dal precedente dei colloqui di Ginevra del 2024, quando la delegazione cinese rifiutò di discutere di sicurezza dell’AI finché non fossero stati rimossi i vincoli sui semiconduttori.

Il rischio di subalternità strategica dell’Europa nell’era dell’AI

C’è poi la questione che più dovrebbe interessare i lettori europei. Il dato strutturale è netto: Stati Uniti e Cina ospitano il 90% della potenza di calcolo di frontiera mondiale. Questo significa che sono le uniche due entità con un reale peso normativo nella governance dell’AI. L’Unione Europea ha l’AI Act, il quadro regolatorio più avanzato al mondo, ma regolare l’uso dell’AI non è la stessa cosa che negoziarne le regole di sviluppo con chi la realizza.

Il rischio per l’Europa è quello di una subalternità strategica: subire le conseguenze di accordi (o non-accordi) bilaterali su una tecnologia che ridefinisce produttività, occupazione e sicurezza, senza avere voce in capitolo nella loro definizione. L’AI Act disciplina il mercato interno, ma non dà a Bruxelles un posto al tavolo dove si discute se e come testare i modelli di frontiera, quali soglie di capacità richiedono supervisione governativa, o come gestire la proliferazione di modelli open source con capacità offensive.

Nessun accordo in vista, ma il dialogo è già un risultato

La verità è che nessuna delle due parti è pronta per un accordo strutturato. La sfiducia è profonda, le asimmetrie sono reali, le poste in gioco, economiche e militari, sono troppo alte per concessioni significative. Il Segretario al Tesoro americano ha dichiarato ad aprile che perdere la battaglia dell’AI sarebbe una catastrofe. Xi ha salutato l’AI come un’epoca che ridefinisce tutto. Quando entrambi i contendenti considerano la tecnologia esistenziale per la propria supremazia, il terreno per il compromesso è esiguo.

Eppure, come ha osservato Jeffrey Ding, le prove storiche suggeriscono che la vera spinta verso la governance internazionale arriva solo dopo un incidente grave, come i regolamenti chimici dopo Bhopal nel 1984, quelli nucleari dopo Chernobyl nel 1986. L’equivalente nell’AI potrebbe essere un attacco informatico su larga scala condotto da un modello autonomo, un incidente di perdita di controllo con conseguenze reali. La domanda non è se, ma quando e se la diplomazia avrà costruito abbastanza infrastruttura di dialogo per reagire prima che sia troppo tardi. In questo, il vertice di Pechino è un inizio. Ma solo un inizio.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x