intelligenza artificiale

Come difendere i minori dai chatbot, senza divieti totali



Indirizzo copiato

Sempre più minori usano chatbot e assistenti vocali come amici, psicologi improvvisati o persino partner virtuali, mentre non mancano casi di risposte pericolose. Il quadro normativo europeo fissa divieti e obblighi, ma la sfida è applicare le regole e progettare sistemi davvero sicuri

Pubblicato il 5 dic 2025

Giulia Pastorella

Deputata della Repubblica italiana, vicepresidente di Azione e Consigliera comunale a Milano



chatbot minori Scrittura digitale divieto di social under 14
ht.

Bambini e adolescenti, sempre più di frequente, chiedono consigli, conforto e perfino supporto emotivo a sistemi di intelligenza artificiale. La soluzione, per proteggerli, non sta nel divieto: il vero nodo sta nei legami che l’AI può costruire con i più giovani, tra opportunità educative e rischi emotivi ancora poco compresi.

Dai videogiochi violenti ai chatbot: il rischio di inseguire la cronaca

Uno degli errori più comuni che fa chi legifera e governa è quello di ritrovarsi a inseguire i fatti di cronaca. È una tentazione comprensibile: i fatti di cronaca colpiscono, preoccupano, mobilitano. Ma bisogna stare ben attenti a non confondere l’attualità con i fenomeni strutturali. Un esempio su tutti? Si pensi al diffuso allarme di qualche anno fa sui videogiochi violenti: un tema amplificato dal dibattito pubblico, ma successivamente ridimensionato da meta analisi e studi indipendenti – tra cui quelli dell’Oxford Internet Institute e dell’American Psychological Association – che non hanno riscontrato un legame causale tra uso di videogiochi e violenza minorile.

Tuttavia, talvolta, i fatti di cronaca sono invece avvisaglie di fenomeni e tendenze emergenti, di cui non conosciamo ancora la portata e che il legislatore farebbe bene a non ignorare. Le interazioni tra minori e sistemi di intelligenza artificiale – che si tratti di chatbot, assistenti vocali o giocattoli “intelligenti” – sembrano appartenere esattamente a questa categoria.

Chatbot e minori, dal vecchio allarme ai nuovi rischi

Negli ultimi mesi, i fatti di cronaca preoccupanti si sono fatti sempre più frequenti: bambini che chiedono consigli a un assistente vocale, adolescenti che confidano ansie e fragilità emotive a un chatbot, sistemi che rispondono in modo inappropriato o persino pericoloso.

I casi emblematici di risposte pericolose

Come quando Alexa ha suggerito a una bambina di inserire una moneta in una presa elettrica, replicando una challenge virale senza comprenderne la pericolosità, o la prima versione dell’AI companion di Snapchat che forniva consigli su temi emotivi e comportamentali senza alcuna capacità di valutare l’età o il contesto.

Dalla cronaca alla ricerca su chatbot e minori

Questi casi sono stati per molti il primo campanello d’allarme. Ma la ricerca sta iniziando a confermare che il tema è più profondo. Studi condotti da organizzazioni come Save the Children, insieme a ricerche di centri accademici come il MIT Media Lab, mostrano come l’IA stia diventando, per un numero sempre più alto di minori, un sostituto relazionale: un amico immaginario evoluto, un confidente, talvolta persino un fidanzato virtuale.

Chatbot e minori tra sostituti relazionali e psicologi fai-da-te

Ma non solo. Come rivela l’ultimo Atlante dell’infanzia a rischio” di Save the Children, il 41,8% dei ragazzi ricorre ai chatbot quando è in crisi, si sente solo o vive momenti di tristezza; l’AI come psicologo fai-da-te, ma senza le giuste competenze.

O ancora, i chatbot vengono vissuti come una sorta di genitore digitale, a cui i più piccoli rivolgono domande sul mondo, su come comportarsi, o su come “diventare grandi” (il 42% dei giovani li usa per chiedere consigli su scelte importanti legate ai sentimenti, alla scuola o al lavoro).

Non voglio dipingere un quadro solo negativo: esistono anche interazioni positive, e l’IA può aiutare nell’apprendimento, nell’inclusione e nel sostegno alla disabilità. Ma proprio perché il terreno è ambivalente, non possiamo ignorare il problema o addirittura accontentarci di tenere i minori lontani dai chatbot.

Il quadro europeo dell’intelligenza artificiale per i più giovani

Il quadro di riferimento europeo, in questa fase di grosso cambiamento tecnologico, prova a rispondere in duplice modo: da un lato assecondando le necessità delle software house che sviluppano i chatbot tramite il Regolamento Digital Omnibus, che punta ad alleggerire alcuni standard di privacy per favorire lo sviluppo di modelli linguistici avanzati; dall’altro con l’AI Act, il regolamento che classifica i sistemi di intelligenza artificiale in base al rischio e impone obblighi diversi a seconda della loro pericolosità.

A questi due regolamenti, inoltre, si affianca il Digital Services Act, che si applica anche ai modelli generativi quando integrati all’interno di servizi cloud: questo comporta obblighi di rimozione di contenuti illegali, valutazioni sui rischi sistemici – inclusi quelli sulla salute mentale dei minori – e requisiti di trasparenza. Significa che, almeno sulla carta, anche strumenti come i chatbot dovrebbero essere valutati per il loro impatto sui più giovani.

L’AI Act, come dicevamo prima, approfondisce ulteriormente questi aspetti e include un divieto molto chiaro: sistemi che sfruttano le vulnerabilità dei minori, come giocattoli o applicazioni manipolative, non possono essere commercializzati. È un principio importante, ma non risolve alcune questioni cruciali, come la capacità dei chatbot di instaurare legami emotivi persistenti con un minorenne.

Sul fronte del supporto psicologico, infine, il regolamento impone che nei casi identificati come critici il chatbot indirizzi l’utente verso professionisti umani. Anche qui, tuttavia, resta un margine ampio di interpretazione e applicazione.

Ciò che manca è una risposta a due domande essenziali: come verranno applicate queste norme? E saranno sufficienti a prevenire gli abusi e proteggere davvero i minori?

Enforcement, memoria dei chatbot e limiti progettuali

L’esperienza ci insegna che il successo di una regolazione non dipende solo dalla bontà dei principi, ma dalla capacità di enforcement, dalla trasparenza delle piattaforme e dalla coerenza con cui i regolatori intervengono nei confronti degli attori globali.

Per questo, accanto all’attuazione rigorosa del quadro esistente descritto poco sopra, credo serviranno anche norme più specifiche. A tal proposito, in più sedi ho proposto di limitare la memoria dei chatbot destinati ai minori: conservare le conversazioni per non più di pochi giorni, impedendo che si creino continuità emotive tali da sfociare in un rapporto quasi personale.

Chatbot e minori, come proteggere senza demonizzare

Credo sia fondamentale evitare approcci troppo drastici e vuoti normativi. Nell’incertezza, infatti, rischiamo di assistere a decisioni come quelle adottate da Character.AI, che ha semplicemente deciso di escludere completamente i minori dall’uso dei suoi servizi.

La soluzione non può essere solo il divieto. I ragazzi continueranno comunque a usare queste tecnologie, e un ecosistema maturo deve permettere loro di farlo in modo sicuro, con versioni dedicate, filtri robusti, supervisione adulta per le fasce più piccole e un chiaro confine tra ciò che può fare un chatbot e ciò che deve invece fare una figura umana.

L’obiettivo, in definitiva, è costruire un equilibrio intelligente: proteggere senza paralizzare, accompagnare senza sostituire, responsabilizzare senza demonizzare.

L’innovazione offre opportunità straordinarie, ma chiede altrettanta responsabilità. Per tutelare i più giovani non basta reagire ai singoli episodi: dobbiamo anticipare, progettare e regolare con lungimiranza. Perché la tecnologia cresce, i minori la esplorano con rapidità e il compito delle istituzioni è garantire che questo incontro avvenga in condizioni di sicurezza, trasparenza e rispetto della loro vulnerabilità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati