Gli influencer cinesi che trattano argomenti sensibili (medicina, diritto, finanza) devono certificare le loro qualifiche, una mossa che mira a combattere la disinformazione e si integra con le norme che impongono l’etichettatura dei contenuti generati dall’AI.
Tali regole, pur promuovendo la responsabilità, si inseriscono nel quadro del rigido controllo di Pechino sul cyberspazio, sollevando preoccupazioni sul potenziale di soffocamento del dissenso politico.
Indice degli argomenti
La stretta della Cina sugli influencer
In particolare gli influencer che trattano medicina, diritto, istruzione o finanza — saranno obbligati a certificare di avere una formazione formale in questi campi. Questa mossa legislativa è basata sul “Codice di condotta per i conduttori online” del 2022 (anche se alcuni giornali parlano di novità che scattano a ottobre 2025, non se ne trova riscontro nei testi giuridici ufficiali cinesi: è una legge già in vigore da anni).
Con quella norma la Cina ha segnato un punto di non ritorno: l’era del contenuto non filtrato è finita, sostituita da un sistema che privilegia la competenza verificata.
I requisiti per gli influencer su temi critici e i motivi
Il requisito non è una “patente” universale per tutti i creator, ma un filtro mirato per settori che hanno un impatto diretto sulla salute, la sicurezza o la stabilità finanziaria dei cittadini.
La Cina, conscia che il live streaming è un settore fiorente (stimato a circa 156 miliardi di dollari nel 2020), ha deciso di governare il caos e l’incoerenza dei contenuti, innalzando la soglia di accesso e combattendo i professionisti improvvisati. Parallelamente, il quadro normativo si è esteso alla tecnologia emergente, imponendo agli influencer di specificare chiaramente se i contenuti includono elementi generati dall’Intelligenza Artificiale, un requisito di trasparenza che si allinea alle più recenti e severe leggi sull’AI generativa. L’obiettivo ultimo, come si vedrà, è duplice: garantire la veridicità delle informazioni e mantenere il controllo ideologico e sociale sul cyberspazio.
Lo scenario della nuova regolamentazione influencer e gli obblighi del Codice di Condotta in Cina
L’introduzione dei requisiti di qualifica professionale non è un atto isolato, ma si inserisce in un contesto di maggiore controllo sul settore tecnologico e su tutte le aree che influenzano la società. Il mercato cinese dello streaming live ha visto la rapida ascesa di influencer con un potere persuasivo enorme, cosa che le autorità hanno ritenuto eccessivamente influente e caotica.
La soglia di competenza e i settori critici
Il “Codice di condotta per i conduttori online”, pubblicato congiuntamente dall’Amministrazione nazionale della radiotelevisione e dal Ministero della cultura e del turismo a metà del 2022 e rivisto nel 2023, è il documento che stabilisce l’obbligo di ottenere “qualifiche pertinenti” prima di parlare di argomenti che richiedono un “elevato livello di professionalità”. I settori interessati sono:
- Medicina/Sanità;
- Diritto;
- Finanza;
- Istruzione.
L’obiettivo dichiarato è prevenire la diffusione di informazioni false e fuorvianti, che in ambiti come la finanza e la medicina hanno un impatto diretto sul sostentamento e sulla sicurezza personale dei cittadini. Un rafforzamento della supervisione dei contenuti scientifici sulla salute online è stato annunciato dagli enti regolatori cinesi del cyberspazio e della sanità, per promuovere la diffusione di conoscenze sanitarie scientificamente accurate.
I divieti etici e politici
Il Codice di condotta va ben oltre le sole qualifiche, imponendo severi limiti di contenuto per plasmare uno “spazio internet positivo, sano, ordinato e armonioso”. Tra i divieti principali figurano:
- Contenuti che “indeboliscano, distorcano o neghino la leadership del Partito Comunista Cinese e del sistema socialista”;
- La promozione del gioco d’azzardo, della violenza o l’uso di droghe;
- La dimostrazione di spreco alimentare e abbuffate (“mukbang”);
- L’ostentazione di beni di lusso o di uno stile di vita stravagante;
- L’uso di tecnologia deep fake per manipolare i dati di leader di partito o di stato.
Inoltre, tutte le forme di pubblicità relative a servizi medici, prodotti farmaceutici, dispositivi medici o alimenti salutari, sono vietate.
Il ruolo dei “Gatekeeper” (le piattaforme)
Le piattaforme come Douyin, Kuaishou e WeChat non sono esonerate; al contrario, assumono un ruolo attivo di “gatekeeper”. Sono tenute a verificare e archiviare le qualifiche del conduttore, informare gli influencer delle loro responsabilità legali e scientifiche e adottare misure punitive (blocco dell’account, cessazione della trasmissione) in caso di violazione. Questo rigore è volto a eliminare alcuni “falsi” anchor e a rafforzare l’ordine del settore, promuovendo uno sviluppo sostenibile e sano.
L’Impatto Critico con l’Intelligenza Artificiale (AI)
L’intersezione tra la competenza professionale degli influencer e l’uso dell’Intelligenza Artificiale generativa (AIGC) è la frontiera più recente della regolamentazione cinese.
La norma specifica sull’AI: L’obbligo di trasparenza
Il requisito per gli influencer di citare le fonti e specificare se i contenuti includono materiali generati dall’AI deriva direttamente da una normativa specifica: le “Misure provvisorie per la gestione dei servizi di Intelligenza Artificiale generativa“ (生成式人工智能服务管理暂行办法), entrate in vigore nell’agosto 2023.
Queste Misure, emanate dalla Cyberspace Administration of China (CAC), rappresentano il primo regolamento organico cinese sull’AI generativa.
In particolare, l’Articolo 12 stabilisce che i fornitori di servizi di AI generativa (e quindi anche i creatori di contenuti che li utilizzano per la diffusione pubblica) devono adottare misure tecniche per garantire l’autenticità dei contenuti e che l’uso dell’AI per produrre contenuti deepfake, in particolare, deve essere etichettato con marcatori visibili e facilmente identificabili.
Influencer e Cina, la convergenza normativa e l’AI generativa
Il doppio requisito (qualifica professionale più trasparenza AI) è una strategia per limitare i rischi connessi all’uso incontrollato della tecnologia:
- Lotta alla disinformazione e ai deepfake. L’etichettatura obbligatoria mira a contrastare la disinformazione, specie l’uso di deepfake per distorcere volti o voci, un rischio amplificato in settori ad alto impatto come la sanità e la finanza.
- Responsabilità del creator. Inserendo l’obbligo di etichettatura nel contesto del “lavoro basato sui certificati,” la Cina attribuisce una responsabilità ancora maggiore al professionista qualificato. Non basta essere un medico, bisogna anche dichiarare che il consiglio è stato fornito da un essere umano e non da un chatbot medico non verificato, ponendo la tutela della veridicità al centro del processo di creazione del contenuto.
- Governance algoritmica. Le piattaforme sono ora spinte a investire nello sviluppo dei propri algoritmi per rilevare e segnalare i contenuti AIGC non etichettati, utilizzando la tecnologia (AI) per sorvegliare la tecnologia stessa.
Il rischio del controllo pervasivo e la censura di stato
Sebbene la necessità di combattere la disinformazione in ambiti critici (come la salute o la finanza) sia internazionalmente riconosciuta come un obiettivo legittimo, l’applicazione di queste regole nel contesto del sistema politico cinese solleva seri interrogativi sul potenziale di controllo pervasivo e di limitazione del dissenso. La preoccupazione centrale è che norme concepite per garantire la “qualità” possano facilmente trasformarsi in strumenti di “controllo politico”.
La strumentalizzazione dei requisiti tecnici
La clausola che vieta i contenuti che “indeboliscano, distorcano o neghino la leadership del Partito Comunista Cinese” non è solo un divieto, ma la lente attraverso cui viene interpretata l’intera regolamentazione.
- Qualifica come barriera al dissenso. Il requisito di avere una qualifica professionale per parlare di finanza o diritto, per esempio, può essere utilizzato per impedire a figure non istituzionalizzate o critiche di esprimere opinioni. Un economista indipendente, che non sia formalmente impiegato in un’istituzione approvata dallo Stato o che esprima critiche alla politica economica governativa, può essere facilmente bandito dalla piattaforma non per la qualità del suo contenuto, ma per la mancanza del “certificato” o per un presunto fallimento nella citazione della fonte appropriata, trasformando la regola sulla competenza in un meccanismo di silenziamento.
- L’Etichettatura AI come pretesto. Similmente, l’obbligo di etichettare con precisione il contenuto generato dall’AI, sebbene tecnicamente razionale, introduce un nuovo punto di vulnerabilità per i creator sgraditi. Un’omissione accidentale o una controversia sull’accuratezza tecnica dell’etichetta (un “watermark” digitale non chiarissimo) possono diventare un pretesto sufficiente per sanzionare o eliminare un contenuto il cui vero “crimine” è l’essere politicamente sensibile o critico.
L’Effetto dissuasivo (Chilling Effect)
Il rischio più significativo è il cosiddetto chilling effect (effetto dissuasivo): la paura di incorrere nelle sanzioni o di perdere l’accesso alla piattaforma porta all’auto-censura.
Gli influencer, sapendo che le piattaforme agiscono da “gatekeeper” sotto stretta supervisione della CAC, saranno portati a evitare argomenti anche solo lontanamente controversi, per paura di veder svanire la propria fonte di reddito e il proprio seguito. Questa auto-regolamentazione da parte dei creator è spesso più efficace della censura diretta, poiché riduce drasticamente il volume di voci critiche o alternative senza che lo Stato debba intervenire apertamente su ogni singolo caso. Precedenti storici, come la scomparsa temporanea di influencer di spicco per mere incomprensioni legate a simboli politicamente sensibili, dimostrano la prontezza delle piattaforme nell’applicare la censura per mantenere l’allineamento con il Partito.
In sintesi, mentre queste regole forniscono una base solida per combattere la disinformazione e le truffe (un beneficio per il pubblico), il contesto legislativo cinese le rende inevitabilmente strumenti a doppio uso. La chiarezza delle qualifiche e l’obbligo di trasparenza sull’AI, pur promuovendo la responsabilità, sono incapsulate in un quadro normativo che pone la stabilità politica al di sopra della libertà di espressione, garantendo di fatto al governo un controllo pervasivo e altamente selettivo sulla narrazione online in tutti i settori.











