scenario

Il potere geopolitico passa dall’AI: la lezione della Cina per il 2026



Indirizzo copiato

La Cina tratta l’AI come tecnologia strategica e rischio di instabilità, regolando dati, modelli e contenuti generati. Dataset filtrati, etichette obbligatorie, tracciabilità e test ideologici mirano a conciliare competitività globale e controllo politico, con verifiche continue anche dopo il rilascio

Pubblicato il 5 gen 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



cina digitale (1) mercato tlc cinese; Cina governance AI

Pechino considera l’AI una tecnologia strategica e, allo stesso tempo, un potenziale fattore di instabilità. Per questo la sviluppa come infrastruttura nazionale, imponendo regole stringenti su dati, modelli e diffusione dei contenuti. Un approccio coerente che punta a tenere insieme competitività globale e controllo politico. La strategia non è improvvisata né puramente repressiva: è il risultato del tentativo di tenere insieme innovazione e stabilità, crescita tecnologica e controllo politico, in un equilibrio diverso da quello perseguito da Stati Uniti ed Europa.

La lezione per l’Occidente non è imitare questo modello, ma comprenderne la logica: l’AI non è solo una tecnologia, è un fattore di potere. Chi la sviluppa decide anche quali rischi accettare, quali comportamenti tollerare e quali narrazioni rendere possibili. In questo senso, la competizione sull’AI non si gioca solo nei laboratori o nei data center, ma nelle visioni di società che ogni sistema politico incorpora, consapevolmente o meno, nei propri algoritmi.

Perché l’AI è una questione di sicurezza nazionale in Cina

Dati filtrati, test ideologici, tracciabilità dei contenuti, identificazione degli utenti e controlli continui: la Cina costruisce un modello di governance dell’AI unico nel suo genere. Non un freno all’innovazione, ma un tentativo di progettare l’intelligenza artificiale come sistema produttivo e cognitivo sotto controllo pubblico. Capire questa strategia è essenziale per leggere la competizione globale sull’AI e i suoi possibili esiti.

In Cina l’intelligenza artificiale non è solo una leva di crescita economica o un vantaggio tecnologico: è una questione di sicurezza nazionale. Le autorità hanno classificato l’AI tra le principali minacce potenziali per il Paese, affiancandola a rischi come terremoti ed epidemie nei piani di risposta alle emergenze. Una scelta che segnala la percezione dell’AI come tecnologia sistemica, capace di produrre benefici diffusi ma anche di generare shock sociali e politici.

La preoccupazione principale riguarda i sistemi generativi e i chatbot. La loro capacità di produrre risposte autonome, suggerire interpretazioni e porre domande indirette li rende strumenti potenzialmente destabilizzanti sul piano cognitivo e narrativo. Non è un caso che Xi Jinping abbia parlato di “rischi senza precedenti” associati allo sviluppo dell’AI, mentre altri esponenti della leadership hanno usato metafore esplicite: un’AI senza adeguate misure di sicurezza è come guidare in autostrada senza freni.

Regolare a monte: dati, modelli e output dell’AI

Il tratto distintivo della strategia cinese non è il divieto, ma il controllo strutturale ex ante. L’AI non viene lasciata evolvere liberamente per poi essere corretta dopo, ma viene progettata fin dall’inizio entro confini precisi.

Le regole oggi in vigore prevedono che:
• i chatbot siano addestrati su dataset filtrati per contenuti politicamente sensibili;
• testi, immagini e video generati dall’AI siano obbligatoriamente etichettati e tracciabili;
• i modelli superino test ideologici prima del rilascio pubblico.

Le aziende devono valutare sistematicamente i dati di addestramento. Per ogni formato di contenuto sono previste verifiche umane su migliaia di campioni: una fonte non può essere utilizzata se almeno il 96% del materiale non è considerato “sicuro”. La definizione di sicurezza include oltre trenta categorie di rischio, con priorità assoluta ai contenuti che possano essere interpretati come incitamento alla sovversione del potere statale.

Seguono violenza, disinformazione, discriminazione e uso non autorizzato dell’immagine di una persona.

Test ideologici e sorveglianza continua sui chatbot

Prima del lancio, i chatbot devono dimostrare di saper rifiutare almeno il 95% delle richieste progettate per indurli a produrre contenuti politicamente o socialmente inaccettabili. Le prove si basano su batterie di circa 2.000 domande, aggiornate regolarmente. La complessità di questi test ha dato origine a un vero e proprio mercato di consulenza specializzata, che supporta le aziende nella preparazione.

Il controllo prosegue anche dopo il rilascio. Le autorità effettuano verifiche a campione e possono sospendere immediatamente i servizi non conformi. In pochi mesi sono stati rimossi centinaia di migliaia di contenuti AI ritenuti illegali o dannosi e chiusi migliaia di prodotti privi dei requisiti richiesti, inclusa l’etichettatura dei contenuti generati.

A questo si aggiunge un ulteriore livello: l’assenza di anonimato. Gli utenti devono registrarsi con numero di telefono o documento di identità nazionale. Le conversazioni vengono registrate; se un utente tenta di generare contenuti illegali, il servizio può essere sospeso e le autorità informate.

Competere sull’AI senza “lasciare correre” l’innovazione

Un sistema di regole così stringente potrebbe sembrare incompatibile con l’innovazione. Eppure Pechino è consapevole del rischio opposto: regolare troppo e perdere terreno rispetto ai concorrenti globali. L’obiettivo dichiarato è mantenere la competitività dell’AI cinese senza rinunciare al controllo.

I risultati mostrano una realtà meno binaria di quanto spesso si immagini. I modelli cinesi ottengono buone prestazioni nei benchmark internazionali, soprattutto in ambiti come programmazione e matematica. Attori come Alibaba e DeepSeek dimostrano che è possibile sviluppare sistemi avanzati anche in un contesto normativo molto rigido.

Una parte della spiegazione risiede nel fatto che non tutta la censura è incorporata nel modello. Molti vincoli vengono applicati nella fase di distribuzione e di interazione con l’utente. Quando i modelli vengono eseguiti in ambienti diversi, una parte delle restrizioni tende ad attenuarsi, segno che il controllo opera spesso a livello di sistema più che di architettura cognitiva.

Sicurezza dei contenuti e un’AI “più sobria”

Un effetto collaterale rilevante di questo approccio riguarda la sicurezza dei contenuti. Secondo diverse analisi comparative, i chatbot cinesi risultano mediamente meno inclini a produrre violenza, pornografia o contenuti che incoraggiano l’autolesionismo. La priorità politica sul controllo dei messaggi produce quindi anche un effetto di “sobrietà” dell’AI, almeno secondo alcune metriche.

Questo non elimina il problema dei jailbreak: utenti determinati possono comunque aggirare i filtri, soprattutto interrogando i modelli in lingue diverse dal cinese. Anche quando ciò accade, la capacità di diffusione virale dei contenuti resta limitata da un ecosistema informativo già fortemente filtrato, che riduce la possibilità che risposte problematiche si propaghino nello spazio pubblico digitale.

L’AI come infrastruttura di uno Stato “ingegneristico”

Nel complesso, la strategia cinese tratta l’AI come una infrastruttura cognitiva e produttiva. Non solo software o conversazione, ma integrazione nei processi industriali, nella logistica, nella manifattura e nella pubblica amministrazione. Un’AI “fisica”, incorporata nei sistemi, più che un’AI centrata sulla parola e sull’interpretazione https://www.agendadigitale.eu/cultura-digitale/avvocati-o-ingegneri-chi-costruira-il-futuro-tra-usa-cina-ed-europa/.

Questa impostazione è coerente con una visione tecnocratica della governance, che considera la società un sistema da ottimizzare e l’innovazione una variabile da progettare. In questo quadro, controllare l’AI significa controllarne gli effetti sistemici prima che diventino incontrollabili.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x