L’intelligenza artificiale è entrata stabilmente nella vita quotidiana e sta cambiando lavoro, servizi e relazioni. Per questo, la sfida non è più solo tecnologica ma regolatoria: come governare i rischi senza frenare l’innovazione.
Indice degli argomenti
Dall’AI Act europeo al modello cinese: il cambio di paradigma
L’Unione Europea, tramite l’AI Act, è stata la prima a cimentarsi nella regolamentazione di tale fenomeno, ponendo la tutela dell’uomo come pilastro fondamentale della propria legislazione.
Tale approccio, di recente, è stato adottato anche dalla Cina, la quale, tramite la Cyberspace Administration of China (C.A.C.), ossia l’agenzia che si occupa della supervisione e della regolamentazione di Internet all’interno della Repubblica Popolare Cinese, ha pubblicato una bozza di regolamento preordinata a disciplinare i servizi di intelligenza artificiale umano-interattivi; vale a dire quei servizi volti a simulare interazioni umane.
Che cos’è la bozza della C.A.C. e a chi si applica
Il predetto documento, denominato “Administrative Measures for Human Like Interactive AI Services” (Draft for Comment), si rivolge ai fornitori che sviluppano e offrono sul mercato sistemi di AI in grado di dialogare con gli esseri umani.
L’ambizioso progetto varato dalla C.A.C. coinvolge vari settori del diritto, quali la privacy, la tutela dei minori e la sicurezza nazionale.
Esso delinea un sistema di governance in materia di AI volto a tutelare la difesa dei valori fondanti della Repubblica Popolare Cinese.
L’obiettivo della predetta regolamentazione è infatti quello di considerare la tecnologia non già come un mero oggetto di mercato, ma come un insieme di norme atte a proteggere gli interessi collettivi.
Regolamento cinese sull’AI interattiva e fonti: il corpus normativo richiamato
Il progetto varato dalla C.A.C. si fonda sui principi enucleati da un ampio corpus normativo di matrice statuale come il Codice Civile cinese, la Cybersecurity Law, la Data Security Law, la Personal Information Protection Law e specifici altri regolamenti in materia di tutela dei minori e dei servizi Internet.
Il testo, per certi versi, adotta un approccio simile a quello dell’AI Act, giacché si fonda su una visione classificata e differenziata del rischio associato alle diverse tipologie di servizi.
Detta bozza è finalizzata a promuovere uno sviluppo sano e regolato dell’AI che non leda gli interessi di cittadini e organizzazioni e che, allo stesso tempo, garantisca l’ordine pubblico.
Ciò che invece la rende differente dalla normativa europea è l’introduzione di una tutela preventiva a carattere pubblico, il cui scopo è quello di evitare i rischi sociali e psicologici connessi all’uso incontrollato dell’AI.
Il punto di partenza del legislatore cinese, nella stesura della bozza di regolamento, verte sulla constatazione del fatto che l’AI non è più un semplice strumento di mera produttività o un supporto tecnico, ma sta diventando sempre più spesso una sorta di compagno digitale, vale a dire un assistente con cui le persone parlano, si confidano e, in alcuni casi, costruiscono una relazione continuativa anche di natura affettiva.
Tutela dei minori: prevenire dipendenza e danni psicologici
Per questo motivo, uno degli elementi più innovativi previsti dalla bozza di regolamento riguarda la tutela dei minori, ai quali è dedicata una specifica disciplina.
I fornitori di servizi di AI interattivi, secondo le disposizioni della predetta bozza legislativa, sono chiamati ad adottare una serie di misure tecnico-organizzative volte a prevenire il rischio di dipendenza dai chatbot da parte dei minori.
Questi ultimi, sempre più spesso, sono le principali vittime di danni psicologici derivanti da interazioni prolungate con chatbot o sistemi di c.d. “compagnia emotiva” (si pensi al caso del giovane americano Sewell Setzer, morto suicida a causa di una relazione tossica con un chatbot).
La “modalità minori” e i vincoli d’uso
Per evitare il verificarsi delle anzidette situazioni, la bozza di regolamento cinese prevede l’introduzione da parte dei sistemi di AI della c.d. “modalità minori”, che si attiva automaticamente nel momento in cui un utente è identificato come potenzialmente minorenne e prevede: a) un utilizzo del sistema di AI soggetto a limiti temporali; b) controlli di parental consent; c) modalità di supervisione da parte del tutore legale.
Inoltre, i provider, in presenza di conversazioni che mostrano segnali di pericolo, come ad esempio il caso in cui l’utente manifesta intenzioni autolesioniste o suicide, sono obbligati a prevedere l’intervento umano immediato.
Ciò significa che essi devono mettersi subito in contatto con i tutori o una persona di riferimento e fornire loro modalità di supporto sicure.
I predetti obblighi, da un lato, rispecchiano i valori etici su cui si basa la società e, dall’altro lato, assumono un rilievo giuridico di una certa entità, poiché fungono da garanzia per i fornitori, i quali sono così messi nelle condizioni di poter prevenire determinati rischi di danno.
In poche parole, il quadro giuridico de quo rimodella il concetto di responsabilità nei servizi digitali che, da rischio latente di eventi lesivi ex post, diviene una sorta di obbligo proattivo nella progettazione di servizi dotati di un elevato gradiente protettivo, capace di prevenire il danno prima che quest’ultimo si verifichi.
Contenuti vietati e controllo preventivo della circolazione online
La bozza del regolamento, oltre alla tutela dei minori, si occupa altresì di vietare contenuti che possono minacciare l’ordine pubblico, la sicurezza nazionale, la coesione sociale e l’onore nazionale.
In particolare, il regolamento vieta contenuti che promuovono qualsiasi tipo di violenza, il gambling o gioco d’azzardo, l’adozione di un linguaggio osceno, nonché ogni forma di incitamento al crimine o manipolazione emotiva.
Questa disposizione è strettamente correlata alla scia di una lunga tradizione normativa cinese che verte sul controllo dei contenuti digitali, il cui obiettivo è quello di preservare i valori socialisti su cui si basa l’unità nazionale.
La scelta di inserire tali divieti in un regolamento specifico per i servizi di AI rappresenta quindi una vera e propria restrizione legislativa preventiva dei contenuti che possono circolare in rete.
Ne consegue che i provider, oltre ad essere soggetti a un obbligo di diligenza, sono investiti di responsabilità diretta inerente al profilo dell’adeguatezza semantica nella produzione automatica di linguaggi e simboli all’interno dei sistemi di AI.
Governance dei provider: audit, gestione rischi e poteri sanzionatori
Le misure delineate nel progetto della C.A.C. prevedono un robusto sistema di supervisione al quale sono soggetti i fornitori di servizi AI.
Questi ultimi sono chiamati a istituire meccanismi di controllo interno quali audit periodici, sistemi di gestione dei rischi, tecnologie di contenimento e a dotarsi di una struttura di emergenza che consenta di affrontare situazioni potenzialmente pericolose.
A tal fine, la bozza di regolamento elenca i criteri da seguire, tra cui figurano la revisione dei modelli algoritmici e la periodicità con cui devono svolgersi gli audit.
Inoltre, i fornitori sono soggetti a obblighi di trasparenza verso le autorità competenti circa l’esecuzione delle misure di protezione dei minori e di controllo dei contenuti.
Nel caso in cui vengano riscontrate violazioni, gli organi competenti preposti al controllo possono ordinare la sospensione dei servizi, imporre multe o restrizioni e, nei casi più gravi, promuovere interventi correttivi obbligatori.
Conclusioni: un diritto tecnologico pubblico tra garanzie e limiti
La bozza di regolamento pubblicata dal governo cinese rappresenta un significativo sviluppo nel diritto dell’intelligenza artificiale, poiché mette in luce un approccio che lega la protezione dei soggetti vulnerabili al controllo dei contenuti e alla responsabilità strutturale dei fornitori.
Le misure proposte disciplinano gli obblighi delle imprese tecnologiche e, al contempo, definiscono il ruolo dello Stato nella governance delle tecnologie digitali.
In poche parole, la bozza configura una nuova forma di diritto tecnologico pubblico che mira a controllare in anticipo i rischi sociali e psicologici dell’AI.
Essa differisce dalle normative occidentali come l’AI Act, giacché queste ultime definiscono i principi etici per poi lasciare ampio spazio alla c.d. autoregolamentazione.
Il progetto cinese, invece, con l’istituzione di un obbligo per i fornitori di monitorare in maniera attiva l’impatto dei loro prodotti sugli utenti e di intervenire in caso di problemi, si pone l’obiettivo di riconoscere segnali di dipendenza o di uso problematico dell’AI.
Al contempo, richiede ai provider l’adozione di metriche, sistemi di analisi e decisioni delicate su quando e come intervenire, il che, da un punto di vista pratico, comporta sforzi e oneri di una certa entità.
Prossimi passi del legislatore e impatti pratici per i provider
Ne consegue che tale approccio, anche se in linea teorica appare foriero di costituire una garanzia in termini di sicurezza, in realtà rischia di limitare alcune applicazioni utili e legittime dei sistemi di AI, in quanto altamente restrittivo.
Pertanto, allo stato dei fatti, non ci resta che aspettare i prossimi passi del legislatore cinese per capire se il modello ideato sia o meno in grado di disciplinare l’innovazione tecnologica rappresentata dall’AI senza pregiudicarne lo sviluppo.



















