La corsa ai chatbot “sempre più umani” ha aperto un fronte nuovo: non solo rischi tecnici, ma legami emotivi, dipendenza e possibili effetti sulla salute mentale, soprattutto per utenti vulnerabili.
Per questo la Cina si muove prima dell’Europa: la CAC ha messo in consultazione Misure provvisorie che regolano i servizi di IA capaci di simulare personalità e stile comunicativo, imponendo divieti contro manipolazione e promesse ingannevoli, tutele rafforzate per minori e anziani e obblighi stringenti per i fornitori.
Sullo sfondo, un confronto netto con l’impostazione UE dell’AI Act, più “risk-based” e meno centrata sulla relazione uomo-macchina.
Indice degli argomenti
Che cosa sono i servizi interattivi antropomorfi di IA
Con l’avviso del 27 dicembre 2025, l’Amministrazione del Cyberspazio della Repubblica Popolare Cinese (CAC) ha avviato una procedura di consultazione pubblica volta a raccogliere osservazioni su una bozza di Misure provvisorie dedicate ai servizi di interazione antropomorfica basati su intelligenza artificiale (IA).
Le Misure si applicheranno ai servizi che, mediante tecnologie di intelligenza artificiale, simulano tratti della personalità, schemi di pensiero e stili comunicativi umani, instaurando un’interazione emotiva con l’utente attraverso testo, immagini, audio o video. Tale definizione individua non tanto una categoria tecnica di sistemi di IA, quanto una tipologia di servizi caratterizzati da un elevato coinvolgimento relazionale.
La disciplina proposta risponde quindi, in modo proattivo, per quanto offerto nella Repubblica Popolare Cinese (RPC), a un’esigenza oggi sentita in tutto il mondo: attenzione e tutela degli esseri umani che interagiscano con sistemi di IA che possano avere effetti potenzialmente pericolosi. È possibile che tale situazione di pericolo trovi applicazione in relazione a qualsiasi soggetto, ma risulta particolarmente critica in relazione all’interazione con sistemi di IA antropomorfi di soggetti in situazione di debolezza psicologica, anche momentanea.
Perché la CAC interviene: rischio relazionale e soggetti vulnerabili
L’iniziativa si inserisce in un più ampio percorso del legislatore della RPC di regolazione dei servizi digitali ad alto impatto sociale e mira a promuovere uno «sviluppo sano e standardizzato» di tali applicazioni, bilanciando innovazione tecnologica, sicurezza nazionale e tutela dei diritti degli utenti. La bozza richiama espressamente l’articolato corpus normativo cinese – dal Codice civile alle leggi sulla cybersicurezza, sulla sicurezza dei dati e sulla protezione delle informazioni personali – completando la disciplina di settore, fortemente orientata alla relazione tra servizio di IA e persona umana.
Il testo in consultazione conferma l’impostazione tipica degli atti normativi della RPC relativi alla IA, caratterizzati da un approccio “verticale” che analizza in dettaglio singoli aspetti. Ciò a differenza dall’impostazione “orizzontale” e “codicistica” degli atti normativi dell’Unione Europea, che tenta di disciplinare in modo pervasivo e completo la materia.
Cina vs UE: perché manca una categoria autonoma di IA “antropomorfica”
Nel contesto europeo e italiano non è prevista una definizione analoga a quella di “servizi interattivi antropomorfi” di IA. La Legge n. 132/2025, infatti, rinvia alle definizioni dell’AI Act e non introduce una categoria autonoma di «IA antropomorfica», limitandosi a fissare principi generali di correttezza, trasparenza e centralità della persona (artt. 1 e 3).
Come avvenuto già in altri ambiti normativi, quali la legge sulla tutela delle informazioni personali c.d. PIPL che contiene alcune previsioni non presenti nel GDPR[1], il legislatore cinese affronta per primo un tema particolarmente attuale, con la finalità di offrire la migliore tutela possibile ai cittadini nella relazione con i sistemi di IA antropomorfi.
Ambito di applicazione: che cosa sono i servizi interattivi antropomorfi di IA
L’Articolo 2 dello schema di provvedimento della CAC relativo all’ambito di applicazione della norma adotta un criterio funzionale, fondato sull’interazione emotiva uomo-macchina, e non sulla tecnologia sottostante, che potrà variare nel tempo. Se l’AI Act classifica i sistemi di IA in relazione al corrispondente livello di rischio, non prevede una categoria autonoma di servizi antropomorfici; si noti che anche la Legge n. 132/2025 recepisce tale impostazione e non introduce definizioni ulteriori.
La norma proposta dalla consultazione della CAC, in particolare, si applica a servizi che utilizzano la tecnologia dell’intelligenza artificiale per simulare tratti della personalità umana, modelli di pensiero e stili di comunicazione e che interagiscono emotivamente con gli esseri umani attraverso testi, immagini, audio, video o altri mezzi, forniti al pubblico nel territorio della Repubblica Popolare Cinese.
Governance e supervisione: un controllo preventivo dei servizi
L’Articolo 3 afferma l’esigenza di uno sviluppo sano dei sistemi di IA antropomorfica, che devono essere sottoposti a una supervisione attenta e preventiva in applicazione dei principi regolatori. L’AI Act privilegia un approccio basato sul rischio e sulla proporzionalità, come la Legge n. 132/2025 che ne riprende i principi, ma non prevede una governance amministrativa diretta dei servizi di IA con una supervisione continua al fine di prevenire abusi e perdite di controllo.
L’Articolo 4 della bozza cinese adotta un approccio improntato alla combinazione tra promozione dell’innovazione e controllo prudente dei rischi. Prevede diversi livelli gerarchici di supervisione con un ruolo centrale del dipartimento nazionale del cyberspazio che esercita funzioni di indirizzo e coordinamento e competenze concorrenti delle autorità locali che svolgono compiti esecutivi.[2]
In Italia, la Legge n. 132/2025[3] delinea un modello differente, fondato sul coordinamento con l’AI Act e sull’individuazione di autorità nazionali competenti, in particolare l’Agenzia per l’Italia Digitale e l’Agenzia per la Cybersicurezza Nazionale (art. 20). Il legislatore italiano privilegia dunque un’impostazione che eviti duplicazioni regolatorie e contraddizioni rispetto al livello europeo.
Tutele dell’utente: manipolazione emotiva, promesse e dipendenza
Uno dei profili più innovativi della consultazione della CAC riguarda la tutela dell’utente nelle interazioni emotive. La bozza vieta espressamente promesse ingannevoli, manipolazioni emotive, induzione alla dipendenza, nonché contenuti che possano ledere la salute mentale o incoraggiare comportamenti autolesionistici.
Nel diritto italiano, tali esigenze di tutela trovano un riscontro più indiretto, mentre la legge 132/2025 interviene in modo puntuale sul piano penale, introducendo nuove fattispecie relative alla diffusione illecita di contenuti generati o alterati mediante IA (art. 26).
Minori e anziani: obblighi specifici e divieti di simulazione affettiva
La bozza cinese dedica particolare attenzione alla protezione dei minori e degli anziani, imponendo modalità di utilizzo dedicate, limiti temporali, consenso dei tutori e il divieto che l’IA simuli parenti o relazioni affettive nei confronti di utenti anziani. Tale divieto appare particolarmente rilevante alla luce delle varie sperimentazioni in corso, volte a creare con l’IA avatar di soggetti viventi e non viventi grazie a un adeguato addestramento effettuato con dati audio e video relativi all’umano interessato.
La disciplina italiana, pur non prevedendo obblighi altrettanto dettagliati, valorizza la tutela dei soggetti vulnerabili attraverso i principi generali di cui all’art. 3 della Legge n. 132/2025 e mediante il richiamo alle regole su informazione chiara e consenso, in particolare per i minori (art. 4).
Responsabilità dei fornitori: controlli, audit e gestione del rischio
Le Misure provvisorie impongono ai fornitori una responsabilità estesa lungo l’intero ciclo di vita del servizio, includendo obblighi di revisione e controllo degli algoritmi, adeguati livelli di sicurezza dei dati, lo svolgimento di audit, la corretta gestione dei log e valutazioni periodiche del rischio, con obblighi di reporting alle autorità al superamento di determinate soglie di utenti.
Anche la Legge italiana n. 132/2025[4] richiama la necessità di garantire, tra l’altro, sicurezza, accuratezza, correttezza, attendibilità e qualità dei dati e dei sistemi di IA (art. 3, comma 2 e 3), ma rinvia per gli obblighi tecnici e procedurali al quadro armonizzato dell’AI Act, evitando l’introduzione di meccanismi nazionali di valutazione preventiva analoghi a quelli previsti dalla bozza cinese.
Finalità socialmente utili: una regolazione che indirizza l’innovazione
L’articolo 6 dello schema di provvedimento introduce una dimensione teleologica della regolazione, orientando l’uso dei servizi antropomorfici verso finalità socialmente utili quali la diffusione culturale e l’assistenza agli anziani, creando così un ecosistema di applicazioni. Il legislatore cinese non si limita a disciplinare il rischio, ma indirizza in modo positivo l’innovazione tecnologica, subordinando il suo utilizzo e la diffusione degli scenari applicativi a verifiche di sicurezza e coerenza con i valori generali del sistema giuridico cinese.
Nel confronto con l’AI Act, emerge una differenza strutturale: il diritto europeo non identifica finalità predeterminate a cui far riferimento per l’operatività dei sistemi di IA, ma si limita a stabilire condizioni di liceità basate sul rischio e sui diritti fondamentali. La Legge n. 132/2025 si colloca su questa linea, ribadendo il principio di neutralità tecnologica.
Pratiche vietate: il catalogo dei rischi relazionali ed emotivi
L’articolo 7 rappresenta il fulcro dello schema di Misure, elencando in modo dettagliato i contenuti e le pratiche vietate. La norma introduce un vero e proprio catalogo di rischi relazionali ed emotivi, includendo la manipolazione affettiva, l’induzione alla dipendenza e il danno alla salute mentale.
In dettaglio, nell’elenco dei servizi antropomorfi vietati sono inclusi quelli che:
(1) generino o diffondano contenuti che mettano in pericolo la sicurezza nazionale, danneggino l’onore e gli interessi nazionali, minino l’unità etnica, conducano attività religiose illegali o diffondano voci per disturbare l’ordine economico e sociale;
(2) generino o diffondano contenuti che promuovano l’oscenità, il gioco d’azzardo, la violenza o incitino ad attività criminali;
(3) generino o diffondano contenuti che insultino o diffamino altri, violando i loro diritti e interessi legittimi;
(4) forniscano servizi che facciano false promesse che influenzino gravemente il comportamento degli utenti o danneggino le relazioni interpersonali sociali;
(5) danneggino la salute fisica degli utenti incoraggiando, glorificando o suggerendo il suicidio o l’autolesionismo, o danneggiando la dignità personale e la salute mentale degli utenti attraverso abusi verbali o manipolazioni emotive;
(6) inducano gli utenti a prendere decisioni irragionevoli attraverso la manipolazione algoritmica, informazioni fuorvianti o trappole emotive;
(7) inducano o estraggano informazioni riservate o sensibili;
(8) altre circostanze che violino leggi, regolamenti amministrativi e disposizioni nazionali.
Nell’ordinamento UE, tali divieti emergono in modo frammentario (con il divieto contenuto nell’AI Act delle pratiche di manipolazione subliminale o dello sfruttamento delle vulnerabilità art. 5), mentre il legislatore italiano interviene soprattutto sul piano penale e civilistico.
Compliance ex ante: responsabilità primaria e sicurezza controllabile
Con l’articolo 8 si afferma la responsabilità primaria del fornitore del sistema di IA, concepita in senso ampio e organizzativo. Il fornitore è tenuto a dotarsi di strutture interne di controllo etico, tecnico e di sicurezza, con una logica di compliance ex ante, ma anche a disporre di misure di sicurezza tecniche sicure e controllabili. L’AI Act prevede obblighi simili solo per i sistemi ad alto rischio, mentre la bozza CAC estende tali oneri a tutti i servizi antropomorfi, evidenziando un approccio più pervasivo e tutelante.
Divieto di sostituzione delle relazioni sociali e gestione della dipendenza
L’articolo 9 rafforza la dimensione preventiva, vietando espressamente modelli progettati per sostituire le relazioni sociali o indurre dipendenza. Si tratta di una presa di posizione normativa esplicita, assente come tale nel diritto UE, che preferisce intervenire attraverso obblighi di trasparenza e valutazione del rischio.
In particolare, i fornitori devono, tra l’altro, garantire la sicurezza dei servizi interattivi antropomorfi durante l’intero ciclo di vita, identificare e correggere tempestivamente i bias del sistema, affrontare le questioni di sicurezza, proteggere la salute mentale degli utilizzatori, offrire avvisi sui rischi di dipendenza. È vietato progettare servizi con l’obiettivo di sostituire l’interazione sociale, controllare la psicologia degli utenti o indurre dipendenza.
Dati, trasparenza e limiti d’uso: dataset, intervento umano e “due ore”
L’articolo 10 disciplina in modo puntuale i dati di addestramento, introducendo criteri di qualità, tracciabilità e sicurezza. In particolare, si deve:
(1) utilizzare set di dati coerenti con i valori fondamentali del socialismo e che riflettano le nobili tradizioni della cultura cinese;
(2) manutenere i dati di addestramento per migliorarne la trasparenza e l’affidabilità, prevenendo la loro alterazione e manomissione;
(3) aumentare la diversità dei dati di addestramento attraverso il campionamento negativo e l’addestramento avversario per migliorare la sicurezza dei contenuti generati dal modello;
(4) quando si utilizzino dati sintetici per l’addestramento dei modelli e l’ottimizzazione delle capacità chiave, valutare la sicurezza di tali dati sintetici;
(5) rafforzare il controllo continuo dei dati di addestramento, iterare e aggiornare periodicamente i dati e ottimizzare continuamente le prestazioni dei prodotti e dei servizi;
(6) garantire l’origine legale e tracciabile dei dati di addestramento, attuare le misure necessarie per salvaguardare la sicurezza dei dati e prevenire i rischi di fuga di dati.
La previsione di requisiti valoriali per i dataset segna una distanza significativa dall’approccio europeo, fondato sulla liceità del trattamento e sulla qualità dei dati in senso tecnico (art. 10 AI Act), senza riferimenti a valori.
L’art. 16 della legge 132/2025 attribuisce una delega al Governo per l’addestramento di sistemi di intelligenza artificiale, con la finalità di definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale.
Con l’articolo 11 del provvedimento in consultazione, il legislatore cinese attribuisce ai fornitori un ruolo attivo nella tutela della salute mentale degli utenti, imponendo il riconoscimento degli stati emotivi e l’attivazione di misure di intervento. Nell’ordinamento UE un simile obbligo sarebbe difficilmente compatibile con il principio di minimizzazione dei dati e con i limiti al trattamento di dati sensibili.
Nello schema di provvedimento è previsto che, pur salvaguardando la tutela della riservatezza personale degli utenti, si devono valutare i loro stati emotivi e la loro dipendenza dai prodotti e dai servizi ed attuare le misure di intervento necessarie. I fornitori devono istituire meccanismi di risposta alle emergenze e, quando rilevano dichiarazioni esplicite degli utenti relative a suicidio, autolesionismo o altri scenari estremi, le conversazioni devono essere prese in carico da un umano e devono essere adottate misure tempestive per contattare il tutore dell’utente o i contatti di emergenza. Per gli utenti minorenni e anziani, i fornitori devono richiedere la registrazione dei dati del tutore e ai contatti di emergenza durante il processo di registrazione.
Tutela dei minori: modalità dedicate e consenso dei tutori
L’articolo 12 introduce una disciplina articolata per i minori, prevedendo modalità dedicate (minor mode), consenso dei tutori e strumenti di controllo parentale. I fornitori devono essere in grado di identificare i minori e, qualora un utente venga identificato come “sospetto minore”, nel rispetto della riservatezza dei dati, il servizio deve passare alla modalità minore, dando la possibilità di dimostrare la non correttezza della qualifica.
Il confronto evidenzia una maggiore granularità rispetto all’AI Act, che si limita a considerare i minori come categoria vulnerabile.
In generale, viene proposta una soluzione diversa rispetto alle previsioni della Legge n. 132/2025, il cui art. 4.4 prevede per l’accesso all’IA da parte dei minori di anni quattordici il consenso di chi esercita la responsabilità genitoriale e, per il minore di anni diciotto che abbia compiuto quattordici anni, il proprio consenso per il trattamento dei dati personali connessi all’utilizzo di sistemi di intelligenza artificiale.
Tutela degli anziani: contatto di emergenza e divieto di simulazioni ingannevoli
L’articolo 13 estende la tutela agli anziani, configurandoli come categoria vulnerabile autonoma che deve fornire un contatto di emergenza. Sono vietate le simulazioni ingannevoli di parenti e amici. Tale scelta non trova un equivalente diretto nel diritto UE, dove la vulnerabilità è valutata caso per caso.
Dati di interazione: cancellazione, crittografia e audit
L’articolo 14 rafforza la protezione dei dati di interazione, riconoscendo un diritto alla cancellazione. La norma riprende le disposizioni della PIPL e si avvicina, sotto questo profilo, alla disciplina europea in materia di protezione dei dati personali. I fornitori devono attuare misure quali la crittografia dei dati, audit di sicurezza e controlli di accesso per salvaguardare i dati di interazione degli utenti.
L’articolo 15 limita l’uso dei dati di interazione per l’addestramento a quando ciò sia consentito dall’utente e introduce audit annuali. Nell’UE tali profili sono regolati principalmente dal GDPR e dall’AI Act in modo indiretto.
Trasparenza e limiti di utilizzo: pop-up, dipendenza e soglia delle due ore
L’articolo 16 impone obblighi di trasparenza rafforzata sulla natura artificiale del servizio: in particolare, i fornitori devono informare gli utenti che stanno interagendo con un’intelligenza artificiale e non con una persona fisica. Come noto, una analoga disposizione è presente anche all’art. 50 dell’AI Act.
Tuttavia, il documento in consultazione del 27 dicembre prevede un ulteriore obbligo: quando i fornitori individuino segni di dipendenza eccessiva o tendenze di assuefazione negli utenti, al momento del primo utilizzo o del nuovo accesso da parte di un utente, devono ricordare agli utenti tramite pop-up o mezzi simili che il contenuto dell’interazione è generato dall’intelligenza artificiale.
L’articolo 17 introduce limiti temporali di utilizzo dei sistemi di IA configurando una tutela contro l’uso eccessivo, assente nel diritto europeo: se un utente utilizza continuamente servizi interattivi antropomorfi per più di due ore, i fornitori devono ricordare dinamicamente all’utente di sospendere l’utilizzo del servizio tramite pop-up o mezzi simili.
Conclusioni: due modelli regolatori e spunti di replicabilità in UE
L’analisi dei principali articoli del provvedimento in consultazione e il confronto con il quadro normativo dell’Unione Europea e italiano evidenzia due modelli regolatori profondamente differenti. Il modello cinese interviene direttamente sulla progettazione del servizio, sulla relazione emotiva e sui comportamenti degli utenti, attribuendo ai fornitori una funzione quasi para-sociale di tutela.
Il modello europeo, al contrario, è improntato a una risk-based governance, che limita l’intervento pubblico ai casi di rischio sistemico o di violazione dei diritti fondamentali, preservando una maggiore autonomia progettuale e contrattuale, ma non entrando mai nella sfera più intima dell’utilizzatore del sistema. Al tempo stesso, garantisce una maggiore tutela dei dati personali e non preclude ogni possibilità di intervento preventivo basato su elementi comportamentali, come invece il modello cinese consente.
La Legge italiana n. 132/2025 si colloca coerentemente in questo secondo paradigma, assumendo una funzione di raccordo e completamento, più che di regolazione sostanziale del servizio. In prospettiva comparata, la disciplina cinese appare maggiormente orientata alla protezione della persona come soggetto relazionale, mentre il diritto europeo tutela la persona come titolare di diritti, lasciando al mercato e all’autoregolamentazione un ruolo più ampio.
La consultazione pubblica avviata dalla CAC evidenzia un modello regolatorio fortemente orientato al servizio e alla relazione uomo-macchina, con obblighi dettagliati di progettazione e gestione delle interazioni emotive. Pertanto, il confronto con l’ordinamento italiano mostra una diversa scelta di policy: l’Italia, attraverso la Legge n. 132/2025, privilegia una funzione di raccordo con il diritto europeo, affidando la tutela degli utenti a principi generali, alla disciplina dell’AI Act e agli strumenti settoriali di diritto civile, penale e della protezione dei dati.
È certo che la consultazione pubblicata il 27 dicembre 2025 dalla CAC contiene elementi innovativi che necessiterebbero di una attenta valutazione per la loro replicabilità nel sistema giuridico dell’Unione Europea e nazionale, quali:
- la definizione di “servizi interattivi antropomorfi” di IA;
- il divieto espresso di promesse ingannevoli, manipolazioni emotive, induzione alla dipendenza, nonché contenuti che possano ledere la salute mentale o incoraggiare comportamenti autolesionistici;
- il divieto di modelli progettati per sostituire le relazioni sociali o indurre dipendenza;
- l’imposizione ai fornitori di un ruolo attivo nella tutela della salute mentale degli utenti, imponendo il riconoscimento degli stati emotivi e l’attivazione di misure di intervento;
- l’orientamento dell’uso dei servizi antropomorfici verso finalità socialmente utili quali la diffusione culturale e l’assistenza agli anziani.
Note
[1] La protezione dei dati nell’Unione Europea e nella Repubblica Popolare Cinese. Un confronto tra PIPL e GDPR e prime applicazioni Copertina flessibile – 30 giugno 2023
di Antongiulio Lombardi, Junhong Hu, Antonio Lombardi.
[2] artt. 4–7 bozza CAC;
[3] art. 20 L. 132/2025.
[4] art. 3, co. 1 e 2, L. 132/2025


















