La Cina ha introdotto il primo sistema vincolante al mondo per l’etichettatura dei contenuti generati da IA, imponendo a provider, piattaforme e utenti obblighi precisi su metadati, watermark e segnali visivi.
Il confronto con l’AI Act europeo rivela approcci divergenti alla trasparenza digitale. Un’analisi delle misure, tra innovazione, sorveglianza e sfida regolatoria globale.
Indice degli argomenti
La svolta normativa di Pechino sull’etichettatura dei contenuti generati dall’IA
Dal primo settembre 2025, la Cina è diventata il primo Paese al mondo a imporre un obbligo vincolante di etichettatura per tutti i contenuti generati da intelligenza artificiale. Le nuove “Misure per l’identificazione dei contenuti sintetici generati dall’IA” [1] – emanate dalla Cyberspace Administration of China (CAC) con il coinvolgimento del Ministero dell’Industria e dell’Information Technology, del Ministero della Pubblica Sicurezza e della National Radio and Television Administration – obbligano provider, piattaforme online, app store e utenti a identificare chiaramente tutti i contenuti prodotti da IA, indipendentemente dal formato (testo, audio, video, immagini, realtà virtuale).
In coordinamento con le Misure, lo standard tecnico GB 45438-2025 [2], entrato in vigore con le stesse, definisce i metodi concreti (etichette testuali, simboli grafici, segnali audio, metadati strutturali embedded) a cui le principali aziende cinesi del settore digitale si sono già conformate. Si tratta di un salto di qualità normativo notevole nel campo della governance delle intelligenze artificiali generative, che fa della Cina un apripista globale in materia di trasparenza e responsabilità nella produzione e distribuzione di contenuti sintetizzati da LLM.
Cosa prevedono le nuove regole cinesi sull’etichettatura AI
La normativa cinese del 2025 – sottoposta a consultazione pubblica in una versione preliminare a partire dal settembre 2024 [3] – introduce un sistema completo di responsabilità condivise lungo tutta la filiera dei contenuti generati dall’IA. In particolare, individua quattro categorie di soggetti chiave, ciascuna con obblighi specifici di identificazione dei contenuti sintetici:
Fornitori di servizi di generazione di contenuti AI
Sono le organizzazioni o gli individui che mettono a disposizione del pubblico strumenti di generazione/sintesi di testo, immagini, audio, video o altri contenuti tramite IA (ad esempio, servizi di deepfake o chatbot avanzati) .
Essi devono inserire etichette esplicite e/o implicite nei contenuti sintetici prodotti, a seconda dei casi. In particolare, etichette esplicite (visibili) sono obbligatorie quando il servizio di IA genera contenuti che possano confondere o indurre in errore il pubblico rispetto alla loro autenticità. Ciò include scenari come chatbot testuali avanzati, sistemi di sintesi vocale o imitazione di voce, generazione di volti artificiali o manipolazione di video/immagini realistiche (i classici deepfake). Ad esempio, un’immagine creata dall’IA dovrà contenere una dicitura o un simbolo “AI” ben visibile (con altezza del testo almeno pari al 5% del lato corto dell’immagine); un audio sintetico dovrà includere un breve messaggio vocale che avvisa “audio generato da IA” oppure un segnale sonoro codificato.
I fornitori devono garantire che tali etichette esplicite rimangano associate al contenuto anche quando questo viene scaricato, condiviso o esportato dagli utenti. Inoltre, tutti i contenuti generati mediante i loro servizi – nessuno escluso – devono recare un’etichetta implicita inserita nei metadati digitali. In pratica, il file dovrà contenere informazioni nascoste come un attributo “AIGC” (Artificially-Generated Content) e l’identificativo del fornitore (ad esempio il codice univoco dell’azienda o l’ID del cittadino creatore) insieme a un identificatore univoco del contenuto assegnato dal servizio generativo. È incoraggiato (ma non imposto esplicitamente) anche l’utilizzo di ulteriori watermark digitali incorporati nei media, per aumentarne la tracciabilità.
In base all’art. 6 delle Misure, i fornitori di servizi di diffusione di contenuti online (come piattaforme che ospitano, distribuiscono o raccomandano contenuti, social network, siti di video sharing, portali di news, forum online devono implementare misure per verificare la presenza di etichette nei contenuti che gli utenti caricano e per regolare la distribuzione dei contenuti generati da IA.
Nel concreto, una piattaforma deve controllare i metadati di ogni file multimediale in upload alla ricerca dell’indicatore implicito di origine AI. Se trova nei metadati conferma che il contenuto è generato dall’IA, deve a sua volta aggiungere il proprio identificativo (della piattaforma) e uno speciale ID univoco al metadato del file, e soprattutto avvisare gli utenti in modo evidente che quel contenuto è stato generato da intelligenza artificiale. Ad esempio, il social network dovrà esporre un’etichetta o un disclaimer visibile intorno al post/video per segnalare l’origine sintetica.
Ma cosa accade se il file multimediale non contiene metadati oppure l’utente non dichiara nulla? La normativa cinese prevede che, in assenza di etichette implicite, la piattaforma debba comunque agire: se l’utente dichiara manualmente che il contenuto è generato da IA (es. spuntando un’opzione in fase di pubblicazione), la piattaforma aggiungerà i propri dati nei metadati e segnalerà pubblicamente l’origine AI; se invece l’utente non dichiara nulla, ma la piattaforma rileva indicatori espliciti o altri indizi che facciano sospettare l’origine artificiale, dovrà comunque aggiungere le sue informazioni nel metadato e avvisare gli utenti che il contenuto potrebbe essere stato generato da IA.
Oltre a ciò, i provider di diffusione devono fornire meccanismi che invitino attivamente gli utenti a dichiarare se il materiale pubblicato contiene contenuti sintetici, nonché funzionalità per segnalare contenuti non etichettati (ad esempio, un pulsante “Segnala contenuto AI non identificato” a disposizione degli utenti). In caso di infrazioni – ad esempio, contenuti AI pubblicati senza etichetta – le piattaforme possono essere ritenute responsabili e sono previste sanzioni amministrative, a riprova della serietà con cui le autorità intendono far rispettare la norma.
Controlli di app store e marketplace
Gli app store e i marketplace rientrano anch’essi tra i soggetti obbligati in base all’art. 7 delle Misure. Durante il processo di approvazione e pubblicazione di nuove app, queste piattaforme devono verificare se l’app offre servizi di generazione di contenuti AI. In caso affermativo, l’app store è tenuto a esaminare la documentazione fornita dallo sviluppatore riguardo alle misure di etichettatura implementate nell’app. In altre parole, prima di ammettere un’app generativa (come un editor di immagini AI, un servizio di chatbot, ecc.), lo store deve assicurarsi che essa sia conforme agli obblighi di etichettatura (esplicita e implicita) previsti dalla normativa. Pur senza dettagliare esattamente quali materiali vadano visionati, è ragionevole attendersi che le piattaforme richiedano prove e descrizioni delle soluzioni tecniche di watermarking/etichettatura adottate dall’app per ottemperare alla legge.
Questo meccanismo sposta quindi l’onere di vigilanza anche a monte, all’atto dell’immissione sul mercato di servizi IA: un’app che generi contenuti senza prevedere adeguati marcatori rischia di non essere nemmeno autorizzata alla distribuzione sugli store cinesi.
Responsabilità degli utenti e divieti di manomissione
Anche gli utenti comuni sono responsabili secondo l’art. 10 delle Misure. Infatti, chiunque utilizzi una piattaforma online per pubblicare contenuti generati da IA deve dichiararlo e utilizzare le funzioni di etichettatura messe a disposizione dal servizio. Ad esempio, un utente che condivida sui social una foto creata con un algoritmo di generative AI o un testo scritto da ChatGPT è tenuto a segnalarlo, selezionando l’apposita opzione o tag fornito dalla piattaforma.
Parallelamente, viene introdotto un divieto assoluto di manomissione dolosa delle etichette: nessuna organizzazione o individuo può cancellare, alterare, contraffare o occultare gli identificatori di contenuti AI. È altresì proibito fornire strumenti o servizi che aiutino terzi a rimuovere/alterare tali etichette, così come utilizzare metodi di identificazione “impropri” nel tentativo di ledere i diritti altrui. In pratica, togliere un watermark o eliminare metadati da un’immagine generata dall’IA è espressamente vietato, e lo stesso vale per chi creasse software “anti-watermark” e simili.
I margini di flessibilità della normativa cinese
Va notato che, nonostante la rigidità delle regole, esiste una certa flessibilità per motivi estetici o pratici: se un utente non desidera che un’etichetta visiva (ad esempio la scritta “AI-generated”) compaia sul contenuto di propria generazione, può fare istanza al fornitore del servizio di generazione per rimuovere l’etichetta esplicita. In tal caso, il servizio potrà accordare la rimozione visiva e trasferire sull’utente l’obbligo contrattuale di rispettare gli altri requisiti di etichettatura, mantenendo però traccia nei log di questa scelta per almeno sei mesi. Questo espediente consente, ad esempio, ad artisti digitali – noti per una certa litigiosità nelle corti cinesi – di evitare watermark esteticamente invasivi sul loro output, pur continuando a garantire la tracciabilità del contenuto via metadati e log.
Il sistema cinese impone standard tecnici e obblighi chiari a tutti gli attori coinvolti nella creazione e diffusione di contenuti digitali: ogni contenuto artificiale deve avere de facto un “ID digitale” che ne riveli l’origine IA, e tutti devono fare la loro parte nel mantenerlo intatto lungo la catena. Le principali piattaforme cinesi – da WeChat a Douyin (la versione locale di TikTok), da Weibo a Xiaohongshu – si sono adeguate tempestivamente, implementando strumenti di rilevamento automatico e avvisi di etichettatura per gli utenti.
È stato predisposto anche un sistema di segnalazione partecipativa, affinché gli utenti possano notificare eventuali contenuti sintetici non etichettati che sfuggano ai controlli automatizzati. Questo robusto apparato normativo mira a promuovere la trasparenza nell’ecosistema online e ad arginare sul nascere abusi dell’IA come deepfake malevoli, frodi, disinformazione e manipolazione dell’opinione pubblica. Le autorità cinesi, infatti, presentano l’etichettatura obbligatoria come uno strumento per tutelare gli utenti (diritto a sapere se un contenuto è artificiale) e insieme per guidare uno sviluppo “sano” dell’industria dell’IA, ponendo argini ai rischi senza soffocare le potenzialità innovative.
L’Europa segue, ma con più cautela: il confronto con l’AI Act
Il dibattito sulla trasparenza dei contenuti sintetici è aperto, come è noto, anche in Europa: nell’AI Act, approvato nel 2024 ma ancora entro una difficile facile d’implementazione, sono previste disposizioni sulla segnalazione dei contenuti generati da IA, ma con portata e tempistiche ben diverse rispetto al caso cinese. Anzitutto, le norme europee entreranno in vigore – solo – nell’agosto 2026, dando agli attori coinvolti più tempo per adeguarsi. L’AI Act, all’articolo 52 (già art. 50 in bozze precedenti), introduce obblighi di trasparenza su due livelli: da un lato per i fornitori di sistemi di IA generativa, dall’altro per i “deployers” (utilizzatori professionali) di tali sistemi. Una differenza immediata è che, a differenza della Cina, non vengono imposti obblighi diretti ai gestori di piattaforme o canali di diffusione dei contenuti generati, né agli app store: l’UE mirerebbe, cioè, a responsabilizzare chi sviluppa e offre modelli generativi e chi li utilizza in certi contesti, ma senza coinvolgere gli intermediari online con obblighi specifici di etichettatura lungo la catena (sebbene restino applicabili norme generali come il Digital Services Act, ad esempio per rimuovere contenuti illegali o disinformazione).
Deepfake, testi e soggetti in Europa
L’altro pilastro europeo riguarda i “deployers” di sistemi di IA, termine che indica i soggetti (diversi dai fornitori) che impiegano un sistema di IA nell’erogazione di un servizio o nella produzione di contenuti. Qui l’obbligo europeo è molto più circostanziato: solo se un sistema di IA viene utilizzato per generare contenuti audio, video o immagini che impersonano falsamente la realtà – i cosiddetti deepfake – allora chi li diffonde deve dichiararne la natura artificiale in modo evidente. La norma cita esplicitamente «contenuti audio, video o immagini che somigliano a persone, oggetti, luoghi, eventi esistenti e che apparirebbero falsamente autentici a un osservatore»: in tali casi, il deployer deve informare che il contenuto è stato generato o manipolato artificialmente. Questa definizione di deep fake risulta piuttosto più ristretta rispetto alla nozione cinese di contenuto “che può causare confusione o misunderstanding nel pubblico”.
Ad esempio, un’immagine totalmente sintetica non somigliante a nulla di reale (pensiamo a un’illustrazione fantastica generata da IA) non rientrerebbe nell’obbligo di disclosure in UE, mentre in Cina sarebbe comunque etichettata come “contenuto AI”. Inoltre, l’obbligo europeo sui deepfake copre solo media visivi e sonori, ma per la maggior parte dei testi: quindi output testuali generati dall’IA (es. articoli scritti dall’IA) non sono soggetti a etichettatura forzata dall’AI Act, salvo che questi sono rivolti a informare il pubblico su questioni di interesse pubblico e in assenza di una revisione umana/editoriale.
Un’ulteriore differenza è che il campo di applicazione soggettivo in UE è più ristretto: l’AI Act esclude dall’obbligo i normali individui che agiscono in ambito personale e non professionale. Solo chi utilizza sistemi di IA nel contesto della propria attività professionale o commerciale dovrà rispettare la regola del disclosure per i deepfake. In Cina, al contrario, la norma si applica a tutti gli utenti che diffondono contenuti online, anche persone comuni nella sfera non professionale.
Filosofie regolatorie a confronto
Il quadro europeo appare, dunque, meno dettagliato e meno onnicomprensivo di quello cinese. L’UE ha preferito un approccio per ora più circoscritto, focalizzato sui casi a maggior rischio (deepfake ingannevoli) e sugli attori principali (sviluppatori di AI e utilizzatori commerciali), evitando di estendere obblighi generalizzati a tutte le piattaforme o agli utenti individuali. Questo riflette in parte una diversa filosofia di regolazione: l’Europa tende a intervenire in modo proporzionato al rischio e a coinvolgere gli stakeholder nell’elaborazione di soluzioni (attraverso standard volontari, codici di condotta, ecc.), mentre il modello cinese è più prescrittivo, fissando da subito regole puntuali per ogni evenienza. Ovviamente, alcune lacune nell’impianto UE potranno essere colmate con atti successivi: la Commissione europea dovrà emanare linee guida e facilitare la convergenza verso standard comuni di watermarking e tracciabilità, e non si esclude che future modifiche normative possano ampliare gli obblighi di trasparenza man mano che la tecnologia evolve.
Stato dell’arte globale e pressioni esterne
Resta il fatto che, ad oggi, la Cina dispone di un regime più organico e già operativo sull’identificazione dei contenuti AI, mentre l’AI Act – pur rappresentando un importante passo avanti concettuale – richiederà ancora tempo e lavoro attuativo per dispiegare pienamente i suoi effetti. Nel frattempo, anche negli USA il tema è in fermento: mancando una legge federale specifica, si punta su iniziative volontarie (ad esempio, accordi con le big tech perché inseriscano watermark nei contenuti generativi) e su leggi statali mirate contro i deepfake (specialmente se usati per scopi illeciti come truffe o manipolazioni elettorali). L’impressione generale è che l’“effetto dimostrazione” cinese stia aumentando la pressione anche in Occidente per adottare soluzioni più concrete a breve termine. L’UE, che spesso si propone come regulatory leader nel digitale, si trova in questo caso a inseguire: la partita dell’“etichetta AI” è appena iniziata a livello globale, e sviluppi in Cina potrebbero influenzare scelte europee nei prossimi mesi/anni.
Regolare per innovare: il segnale politico
L’introduzione di queste regole confuta (o dovrebbe confutare) una convinzione tanto diffusa quanto semplicistica: che regolare l’IA significhi soffocare l’innovazione. Al contrario, la Cina dimostra di muoversi con rapidità sia sul fronte tecnologico sia su quello normativo. Nell’ultimo anno, Pechino ha accelerato sullo sviluppo di modelli generativi e applicazioni AI, ma parallelamente ha saputo emanare in tempi stretti una normativa dettagliata per governarne gli effetti. Mentre l’Europa ancora dibatte – con tutte le cautele del caso – su come garantire trasparenza e accountability nell’uso dell’IA, la Cina è passata all’azione, lanciando il sasso nello stagno e diventando il primo Paese al mondo a dotarsi di obblighi vincolanti di etichettatura. Pechino ha lanciato il sasso nello stagno: regolamentare l’IA è possibile, e lasciare che sia solo la legge del mercato a plasmare il futuro digitale non è l’unica via.
Il contrasto è netto e merita riflessione. Non si tratta, sia chiaro, di elogiare modelli autoritari o proporre di copiare soluzioni “sia come siano” in contesti democratici molto diversi. Si tratta piuttosto di prendere sul serio la sfida del presente: se le democrazie intendono mantenere un ruolo attivo nella definizione dell’ordine digitale globale, non possono limitarsi a rincorrere l’innovazione privata affidandosi a strumenti giuridici lenti o inadeguati. Servirebbero, al contrario, invece standard tecnici comuni, obblighi chiari e una governance efficace che non si fermi alla proclamazione di principi astratti, ma riesca a tradurli in regole applicabili e controllabili nella pratica. In questo senso, la mossa cinese lancia un segnale preciso: è possibile innovare velocemente e regolare efficacemente, se c’è volontà politica e visione strategica.
Crescita tecnologica e controllo informativo
Va anche evidenziato che la spinta cinese all’etichettatura dei contenuti AI risponde a una duplice logica interna: promuovere lo sviluppo dell’IA come volano economico e al contempo mantenere saldo il controllo sul flusso informativo nell’Impero del Centro (Zhongguo 中国). La trasparenza forzata sui contenuti sintetici funge da antidoto a fake news e truffe digitali, ma rappresenta anche uno strumento di sorveglianza e classificazione che ben si integra con l’approccio di Pechino alla stabilità sociale e alla sicurezza nazionale. Insomma, l’etichettatura obbligatoria consente allo Stato di sapere chi produce cosa nel nuovo ecosistema mediatico alimentato dall’IA, scongiurando l’anarchia informativa che potrebbe minare la fiducia nel digitale.
Diritti, rischi e lezioni operative
Dal punto di vista occidentale, è naturale nutrire riserve: regole tanto pervasive potrebbero implicare rischi di soverchia ingerenza governativa e impatti sulla libertà di espressione (ad esempio, attraverso un’applicazione arbitraria delle etichette per delegittimare certi contenuti scomodi). Tuttavia, al netto delle differenze di contesto politico, l’esperienza cinese offre un case study concreto su come si potrebbe affrontare tecnicamente il problema della tracciabilità dei contenuti generati dall’IA. Nei prossimi mesi, gli occhi di regolatori e aziende di tutto il mondo saranno puntati sull’effettiva implementazione di queste misure in Cina: eventuali criticità (ad esempio in termini di fattibilità tecnica, costi, falsi positivi nel rilevamento) forniranno lezioni preziose. Allo stesso tempo, se l’iniziativa avrà successo, il modello cinese potrebbe esercitare un’influenza sugli standard internazionali e spingere altri paesi – volenti o nolenti – ad adeguarsi per non restare indietro.
Trasparenza dell’IA e futuro dell’infosfera: le questioni aperte
L’obbligo di identificare i contenuti generati da IA solleva una serie di interrogativi che vanno ben oltre la tecnica, toccando nodi giuridici, tecnologici ed etici di fondo. Ad esempio: chi decide che cosa è “vero” online? Se un contenuto è marchiato come sintetico, implicitamente si dichiara che il resto è autentico: ma esiste un arbitro ultimo della veridicità in rete? E chi certifica l’origine di un contenuto, soprattutto man mano che l’IA verrà utilizzata anche per rifinire o modificare produzioni umane? Chi ha il potere di etichettare, in ultima analisi, e chi quello di sorvegliare le etichette? Affidarsi a meccanismi automatizzati di detection e watermarking comporta rischi di errore: contenuti umani potrebbero essere bollati come artificiali (false positive) e viceversa. Inoltre, un sistema di labeling centralizzato potrebbe diventare esso stesso strumento di controllo politico: in uno scenario estremo, chi detiene le chiavi per marcare i contenuti potrebbe declassare idee scomode etichettandole come “non autentiche” o addirittura impedendone la diffusione.
Le risposte a queste domande aperte modelleranno l’infosfera non solo nei prossimi anni, ma nell’immediato futuro. Ignorarle equivarrebbe a consegnare la comunicazione digitale di domani nelle mani altrui – siano esse grandi potenze tecnologiche o governi meno avvezzi alla rule of law – rinunciando a esercitare una sovranità democratica sul mondo online. Affrontarle con consapevolezza, competenza e una sana pluralità di voci è invece una responsabilità pubblica imprescindibile per gli Stati che intendono dirsi democratici. In gioco non c’è solo la tutela degli utenti contro deepfake e menzogne algoritmiche, ma anche la capacità delle società aperte di governare l’innovazione senza subirla passivamente.
La mossa della Cina costringe l’Europa e l’Occidente a interrogarsi: vogliamo essere protagonisti, assieme le istanze che provengono da quello che un tempo si chiamava “Sud globale”, nel definire standard globali per un’IA trasparente e affidabile, oppure limitarci a reagire ai modelli altrui? La strada auspicabile – per quanto complessa – è la prima. Significa investire da subito in soluzioni tecniche interoperabili per la tracciabilità dei media digitali, sviluppare normative agili ma incisive come complemento alle nostre garanzie di libertà, e cooperare a livello internazionale per evitare che l’ecosistema informativo diventi il selvaggio West delle manipolazioni. Solo così potremo garantire un futuro in cui l’IA sia al servizio della verità e della fiducia, e non arma opaca nelle mani di pochi.
Cche cosa dovrebbe fare l’Europa ora
La Cina ha fatto la sua mossa; all’Europa spetta ora dimostrare di saper raccogliere la sfida, innovando la propria governance con la stessa rapidità con cui l’IA sta innovando la nostra realtà.
Note
[1] 国家互联网信息办公室 [Cyberspace Administration of China]. (2024, 14 settembre). 国家互联网信息办公室关于〈人工智能生成合成内容标识办法(征求意见稿)〉公开征求意见的通知 [Avviso della Cyberspace Administration of China relativo alla consultazione pubblica sulla “Misura per l’identificazione dei contenuti sintetici generati dall’intelligenza artificiale (bozza per consultazione pubblica)”]. 中国网信网. Recuperato da https://www.cac.gov.cn/2024-09/14/c_1728000676244628.htm.
[2] National Technical Committee 260 for Cybersecurity of the Standardization Administration of China [Technical Committee 260 per la Cyber‑sicurezza dell’Amministrazione della Standardizzazione della Cina]. (2025, 15 marzo). 网络安全技术人工智能生成合成内容标识方法 [Metodologia per l’identificazione dei contenuti sintetici generati da intelligenza artificiale – standard tecnico per la cybersicurezza]. Recuperato da https://www.tc260.org.cn/upload/2025-03-15/1742009439794081593.pdf.
[3] 国家互联网信息办公室 [Cyberspace Administration of China]. (2024, 14 settembre). 国家互联网信息办公室关于〈人工智能生成合成内容标识办法(征求意见稿)〉公开征求意见的通知 [Avviso della Cyberspace Administration of China sulla consultazione pubblica delle «Misure per l’identificazione dei contenuti sintetici generati dall’intelligenza artificiale (bozza per consultazione pubblica)»]. 中国网信网. Recuperato da https://www.cac.gov.cn/2024-09/14/c_1728000676244628.htm.
Bibliografia
Ding, J. (2018). Deciphering China’s AI dream. Future of Humanity Institute Technical Report.
Zeng, J. (2022). Artificial intelligence with Chinese characteristics: National strategy, security and authoritarian governance. London: Palgrave Macmillan.
Sheehan, M. (2023). China’s AI regulations and how they get made. Horizons: Journal of International Relations and Sustainable Development, (24), 108-125.
Franks, E., Lee, B., & Xu, H. (2024). Report: China’s new ai regulations. Global Privacy Law Review, 5(1).
Prenga, K. (2024). AI regulation in the EU, the US and China: An NLP quantitative and qualitative lexical analysis of the official documents. Journal of Ethics and Legal Technologies, 6(JELT-Volume 6 Issue 2), 131-161.
Filipova, I. A. (2024). Legal regulation of artificial intelligence: Experience of China. Journal of Digital Technologies and Law, 2(1), 46-73.












