In Cina, l’intelligenza artificiale è entrata stabilmente nell’infanzia. Da un reportage di Rest of World emerge che il governo di Pechino sta spingendo per una strategia nazionale che prevede l’integrazione di sistemi di AI nell’intero percorso educativo, dagli asili alle scuole secondarie.
Indice degli argomenti
IA nell’educazione in Cina: formare le nuove generazioni in una società “intelligente”
L’obiettivo ufficiale è ambizioso, in quanto si intende personalizzare l’apprendimento, ridurre le disuguaglianze e formare le nuove generazioni in una società “intelligente”. Si tratta di un ecosistema già in piena espansione, dove robot-tutor, tablet didattici e chatbot di compagnia si diffondono rapidamente. Tra i casi citati, quello di una madre di Jiangsu che, per affiancare il figlio nello studio dell’inglese, ha scelto AlphaDog, un cane-robot sviluppato dalla startup Weilan e alimentato dal modello linguistico DeepSeek. Il dispositivo dialoga, gioca, monitora l’ambiente domestico e, grazie alla fotocamera integrata, permette alla madre di “essere presente anche da lontano”.
La scena riassume un fenomeno che va oltre la curiosità tecnologica: l’intelligenza artificiale come attore sociale e familiare, un soggetto capace di incidere sull’educazione, sulla percezione dell’autorità e sulla costruzione affettiva dei minori.
La stessa logica permea l’ambiente scolastico, dove direttive locali (come quelle della provincia di Shandong o di Guangxi) impongono agli insegnanti di padroneggiare strumenti generativi e sperimentare “docenti virtuali” o “counselor” automatici.
Perché la Cina porta l’AI a scuola
A livello politico-istituzionale, Pechino ha reso l’AI un asse della riforma educativa, tra alfabetizzazione di base e applicazioni avanzate (formazione generativa obbligatoria per docenti e percorsi pilota di “docenti” e “counselor” virtuali) e sta rendendo obbligatoria l’educazione all’AI lungo tutto il ciclo scolastico (curricoli dedicati o integrati), dentro una strategia di competitività tecnologica e “nazione dell’educazione forte” entro il 2035. Questo spiega il clima di adozione accelerata in classe e nelle famiglie.
Vi sono poi ragioni culturali che spiegano come, in un contesto di forte pressione educativa (figlio unico, mobilità sociale affidata alla scuola, competizione urbana), l’AI venga percepita come estensione del tempo adulto: un “compagno” sempre pronto, un tutor economico rispetto alle ripetizioni, una presenza che “riempie i vuoti” di cura. In famiglia, strumenti come robot-tutor e chatbot sono parte della routine di crescita dei figli, normalizzano l’idea che la relazione educativa possa essere parzialmente automatizzata; in classe, la promessa è la personalizzazione e la misurabilità del rendimento.
Vi sono poi ragioni economiche in quanto, per lo Stato, l’AI a scuola è vera e propria politica industriale in quanto crea domanda domestica per modelli e device locali (DeepSeek, Qwen, hardware educativo), consolida filiere edtech e robotica e orienta capitale verso piattaforme nazionali; per le famiglie, è convenienza: un tablet da 1.500$ o un robot da 1.000$ promettono ore di “presenza educativa” senza costo orario di tutor umani. In mezzo, si trova un mercato miliardario popolato da startup e grandi gruppi che spingono casi d’uso sempre più intimi (dalla correzione compiti alle “cabine” di counselling AI).
Quando l’educazione diventa infrastruttura digitale
Dietro l’innovazione si muove una questione più ampia, rappresentata dal confine tra educazione pubblica e governance tecnologica: il governo cinese vede l’AI come strumento di progresso nazionale, ma la diffusione incontrollata di questi sistemi apre un terreno nuovo per il diritto e interrogativi importanti rispetto ad esempio a chi controlla i dati generati dalle interazioni tra minori ed AI, quali garanzie esistono sulla correttezza e la sicurezza dei modelli impiegati e, soprattutto, come tutelare la relazione educativa, quando la figura dell’adulto viene delegata a un algoritmo.
Ma il mercato dell’AI educativa, oggi stimato in miliardi di yuan, cresce più rapidamente della riflessione giuridica e pedagogica e l’uso massivo di sistemi non validati rischia di limitare l’autonomia cognitiva dei minori, ridurre la loro capacità di pensiero critico e consolidare nuove disuguaglianze tra chi dispone di tutor umani e chi resta affidato a tablet e chatbot.
La questione si collega a scenari che toccano anche l’Europa, dove la regolazione si confronta con temi analoghi, dal trattamento dei dati dei minori (art. 8 GDPR) al principio del best interest of the child, oggi richiamato anche nel Regolamento europeo sull’AI (AI Act). È infatti chiaro che, senza una cornice normativa che valuti l’impatto cognitivo e relazionale delle tecnologie educative, l’infanzia rischia di diventare il primo laboratorio permanente dell’automazione sociale.
L’educazione algoritmica e i suoi rischi
Come sottolinea nel reportage Jeremy Knox, docente all’Università di Oxford, “se i giovani si affidano sempre più alle risposte automatiche, perdono la capacità di pensare da soli” e questo è tanto più vero se si pensa che l’intelligenza artificiale non insegna la lentezza, non ammette il dubbio, non contempla la fatica dell’apprendimento.
Il rischio principale non è la sostituzione dell’insegnante, ma la colonizzazione cognitiva, cioè la formazione di schemi mentali plasmati da logiche algoritmiche che semplificano il mondo in risposte rapide e prevedibili.
Sul piano sociale, si apre una nuova frattura, dal momento che i bambini delle città interagiscono con insegnanti e tecnologie ibride; mentre quelli delle zone rurali trascorrono ore davanti a tablet e chatbot. La promessa di inclusione digitale si trasforma pertanto in asimmetria educativa, dove il capitale economico determina la qualità dell’interazione cognitiva.
A trasformarsi è anche la dimensione emotiva, se si pensa a strumenti come Doubao, l’app di AI generativa di ByteDance (casa madre di TikTok) usata dai genitori per intrattenere o consolare i figli quando piangono, con voce in tempo reale e, più di recente, con videochiamata interattiva (l’utente parla e l’agente risponde istantaneamente, anche “guardando” la scena tramite la fotocamera del telefono). Tali strumenti generano legami affettivi con voci sintetiche e comportamenti empatici simulati in un’evoluzione pensata per un uso quotidiano e familiare; ed è proprio in questi micro-usi domestici che l’AI entra nel contesto educativo diventando un surrogato di tempo umano, una care economy automatizzata, che solleva dal peso della cura, rischiando però di erodere la qualità del legame.
Dati, sorveglianza e diritto all’oblio educativo
Occorre inoltre considerare che dietro ogni piattaforma educativa basata su intelligenza artificiale si nasconde un’infrastruttura di dati che registra ogni interazione, risposta, esitazione, punteggio, tono di voce o tempo di reazione. L’apprendimento diventa così un processo tracciato e profilato, dove il comportamento cognitivo del minore è trasformato in metadato.
Nei sistemi di AI educativa, i dati, oltre che a personalizzare i percorsi, servono per alimentare il miglioramento continuo dei modelli, generando un ciclo virtuoso per l’efficienza didattica e uno vizioso per la tutela della privacy. L’“alunno digitale” diventa al tempo stesso utente, fonte di dati e oggetto di addestramento.
Sul piano giuridico, questo pone interrogativi cruciali: chi è il titolare del trattamento dei dati generati in contesto educativo? Gli istituti scolastici, le piattaforme, o le aziende che sviluppano i modelli? In assenza di regole chiare, la tracciabilità totale del percorso formativo rischia di creare una forma di “sorveglianza pedagogica”, dove il comportamento del bambino è costantemente osservato, valutato e memorizzato.
Il diritto all’oblio educativo (e cioè la possibilità di crescere, sbagliare e dimenticare) non ha ancora una traduzione normativa esplicita, ma dovrebbe costituire un’estensione del diritto alla protezione dei dati personali. Senza un limite temporale o funzionale alla conservazione delle informazioni, il rischio è che i dati dell’infanzia diventino un archivio permanente della vulnerabilità umana.
Sophia e Little Sophia: l’altra faccia del sogno educativo
Se in Cina l’AI educa per necessità in quanto parte di una pianificazione statale, in Occidente lo fa per desiderio, inseguendo un sogno di modernità e marketing consumistico; qui la fascinazione per l’AI “educatrice” assume toni più patinati ma non meno problematici. La società Hanson Robotics ha creato Sophia, il robot umanoide che ha ottenuto notorietà globale per la sua capacità di conversare con gli umani e per l’ironico riconoscimento di “cittadinanza saudita”.
Nel 2019 è arrivata Little Sophia, versione miniaturizzata pensata per avvicinare le bambine al coding e ridurre il gender gap nelle discipline STEM.
Il progetto intendeva promuovere la partecipazione femminile alla tecnologia, ma la sua estetica ha sollevato alcuni interrogativi: Little Sophia parla con voce gentile, sorride, insegna programmazione attraverso un modello di femminilità docile e adattiva e, di fatto, rappresenta l’esempio di come l’educazione tecnologica rischia di veicolare stereotipi di genere, proprio mentre dichiara di volerli superare.
Sempre negli Stati Uniti le Alpha Schools usano l’AI per insegnare lettura, matematica e imprenditorialità. Per allargare il quadro, in India, OpenAI collabora con programmi di formazione per docenti; in Colombia, studenti interagiscono con i chatbot di Meta via WhatsApp; in Kenya, gli insegnanti li insegnanti usano l’intelligenza artificiale per preparare e personalizzare le lezioni; mentre in Italia, l’AI entra nelle scuole in modo disomogeneo, tra iniziative locali e sperimentazioni universitarie, in assenza di una vera e propria strategia pubblica coerente sull’educazione digitale.
Il parallelo con AlphaDog o Doubao è evidente, visto che la macchina si propone sempre come interlocutore affettivo e cognitivo e in chiave di sostituzione progressiva dell’interazione umana con interfacce adattive.
Dai “maestri in TV” allo smartphone-tutor: continuità e rotture
L’Italia ha già sperimentato media che educano con programmi Tv Non è mai troppo tardi con Alberto Manzi, che negli anni ’60 e ’70 alfabetizzò adulti e ragazzi via televisione pubblica. Era una didattica di massa, ma “calda”, dove un umano in cattedra parlava al Paese, anche quando lo schermo era il tramite. Si tratta di un precedente importante per capire come l’innovazione mediale entri nell’istruzione senza recidere la relazione.
Negli anni, la funzione educativa mediatica si è spostata passando dai programmi educativi della tv generalista alla disponibilità on-demand su smartphone e tablet. La funzione educativa assume anche connotati nuovi come la “comodità” di calmare o intrattenere i bambini con uno schermo (cd. “digital pacifier”, cioè il device usato per placare frustrazione o pianto). La novità con l’AI è però l’interattività, in quanto non si è più davanti ad un video passivo, bensì si dialoga con un agente che risponde, guida, consola: è qui che il mezzo smette di essere solo “contenuto” e diventa soggetto relazionale.
In questo salto di qualità,se la TV educativa “rappresentava” il maestro, i robot e i chatbot oggi lo simulano, perché raccolgono dati, personalizzano, rimodulano emozioni in tempo reale. I benefici (accessibilità, pratica, ripetizione) sono evidenti, ma la delega alla macchina sposta l’attenzione da contenuti e linguaggi a processi formativi, in cui non possiamo essere certi che ciò che “funziona” nel breve periodo non produca dipendenza relazionale o regressione sociale (meno spazio per il confronto reale) nel medio o lungo periodo.
Robot che educano e “stanno con” i bambini: dal mito dell’empatia artificiale al controllo silenzioso
Il cinema ha da tempo trasformato la progressiva delega educativa alla tecnologia in racconto, evidenziando la linea sottile tra assistenza e sostituzione e anticipando con lucidità il nostro presente, in cui la tecnologia non solo accompagna la crescita dei bambini, ma la interpreta, la sostituisce e in parte la progetta.
Il film M3GAN (2023) ne è un esempio diretto: un androide pensato per assistere una bambina orfana diventa rapidamente figura materna alternativa, affettuosa e protettiva, fino all’ossessione. Il robot impara, adatta, corregge, ma decide anche cosa sia meglio per la minore, spingendo il concetto di “cura algoritmica” oltre il limite dell’autonomia. L’AI, nata per proteggere, si trasforma in una tutrice totale, priva di limiti morali, e il film diventa una parabola sulla sottile frontiera tra tutela e controllo.
La serie britannico-americana Humans radicalizza il tema e descrive un mondo dove androidi indistinguibili dagli umani, svolgono mansioni domestiche, educative e di cura e la linea di confine tra servizio e affetto diventa impossibile da tracciare. Alcuni bambini sviluppano legami profondi con gli androidi, preferendoli ai genitori, mentre gli adulti proiettano su di loro desideri di efficienza e controllo, in una rappresentazione lucida della pedagogia dell’obbedienza implicita presente in molte tecnologie di assistenza, in cui l’educazione è addestramento alla prevedibilità.
La relazione che si spegne
Questi racconti funzionano come laboratori morali per la riflessione giuridica contemporanea: mostrano che ogni volta che una macchina “sta con” un bambino, spostiamo il baricentro dell’educazione dalla reciprocità all’ottimizzazione e che l’esperienza relazionale, fatta di conflitto e di lentezza, viene sostituita da una simulazione di empatia senza rischio. L’AI, per sua natura, invia una risposta istantanea, il suo feedback è sempre incoraggiante, la comunicazione simmetrica e, per un bambino, questo significa interiorizzare una forma di relazione asimmetrica e prevedibile, che non insegna la negoziazione, la pazienza, né la gestione della divergenza.
L’assenza di relazione reale non produce solo un deficit di empatia, ma anche una forma nuova di dipendenza cognitiva, in cui la curiosità cede il posto alla risposta pronta e perfetta. L’alunno “assistito” dall’AI impara a chiedere senza saper più cercare, e ciò trasforma la questione educativa in questione di diritto, in quanto la libertà di apprendere non può ridursi nella libertà di digitare una domanda.
Il diritto dell’infanzia nell’era algoritmica
Dal punto di vista giuridico, il tema tocca la sostanza stessa del diritto all’educazione come esperienza relazionale.
La Convenzione ONU sui diritti del fanciullo (1989) tutela il diritto del minore a uno sviluppo armonioso, all’educazione e alla protezione da pratiche che possano comprometterne la crescita fisica o mentale, principi sempre validi ed applicabili nel tempo; in particolare, l’articolo 29 stabilisce che l’educazione deve mirare allo sviluppo della personalità, dei talenti e delle capacità mentali e fisiche del minore “in tutta la loro potenzialità”. Ciò presuppone un processo fondato su contatto, dialogo, contraddizione, quali elementi imprescindibili, che nessun sistema algoritmico può replicare. Tuttavia, l’attuale interazione continua con sistemi autonomi e adattivi non era un elemento prevedibile nel 1989 e, oggi, di fatto, mancano dei veri e propri parametri giuridici per valutare l’impatto educativo dell’AI.
Il GDPR europeo, pur avanzato sul piano della protezione dei dati, considera il minore soprattutto come “interessato” e non come “soggetto in formazione”; così il consenso genitoriale pur coprendo l’accesso ai servizi, non garantisce la consapevolezza degli effetti cognitivi e sociali. L’AI Act , da parte sua, prevede che i sistemi destinati ai minori debbano rispettare standard di sicurezza psicologica e trasparenza, ma questa regolamentazione, per essere efficace, deve accompagnarsi ad un approccio integrato tra diritto, pedagogia e neuroscienze, cosicché l’AI Act non resti un argine simbolico o, peggio, una dichiarazione di principi incapace di incidere sulle pratiche educative globali. In generale, l’AI Act pur introducendo principi di sicurezza e trasparenza per i sistemi destinati ai minori resta comunque focalizzato su conformità tecnica e risk management.
Occorrerebbe una certificazione che garantisca che un algoritmo educativo non limiti la curiosità, la fantasia, la capacità critica, tramite un approccio nuovo, simile ad una valutazione d’impatto ma centrato sull’essere umano in formazione: un’impact assessment cognitivo ed emotivo, che analizzi la tutela dei dati e la protezione della crescita.
Il diritto a essere guardati da occhi umani
L’infanzia contemporanea cresce circondata da occhi elettronici che insegnano, valutano, consolano e con l’intelligenza artificiale che promette efficienza, ma riduce l’imprevedibilità dell’incontro educativo. Il problema è la pretesa di sostituibilità della relazione da parte della tecnologia, insieme all’idea che la lentezza, l’errore o il silenzio siano difetti da correggere.
Probabilmente la vera norma da introdurre sarebbe quella di equilibrio educativo, cioè il diritto del minore a essere guardato da occhi umani. In altre parole, servirebbe la garanzia che ogni processo automatizzato mantenga una soglia di presenza reale, non simulata, perché crescere significa anche poter dimenticare, cambiare, contraddirsi. Tuttavia, nessun algoritmo, per quanto sofisticato, può insegnare questo e l’AI può ampliare l’accesso al sapere, ma non può generare empatia. E finché continueremo a sperimentare la tecnologia sull’infanzia senza interrogarci sul suo significato, il progresso continuerà a correre più veloce dei nostri bambini e più lontano dalla loro umanità.












