adolescenti e chatbot

Se l’AI seduce i minori: tutele insufficienti



Indirizzo copiato

Dopo i casi di cronaca e le nuove misure di OpenAI, si apre la riflessione sul ruolo dei chatbot nella crescita degli adolescenti

Pubblicato il 14 ott 2025

Carmelina Maurizio

Università degli Studi di Torino



social e minori; rischi chatbot; omicidio colposo chatbot adolescenti e chatbot

L’interazione tra adolescenti e intelligenza artificiale sta diventando una delle questioni più delicate dell’ecosistema digitale contemporaneo.

La rapida diffusione dei chatbot generativi – sempre più utilizzati per studiare, confrontarsi o semplicemente sfogarsi – ha spinto OpenAI a implementare degli strumenti di sicurezza per l’uso di ChatGPT pensati per i genitori che vogliono utilizzarli per tutelare i propri figli adolescenti.

Il necessario equilibrio tra innovazione, privacy e responsabilità educativa

Si tratta di un passo che va oltre la semplice “moderazione dei contenuti”: rappresenta un tentativo di regolamentare la relazione tra intelligenza artificiale e sviluppo umano, in un momento storico in cui l’IA entra sempre più nella quotidianità dei ragazzi. Mentre i legislatori discutono nuove norme per la tutela dei minori online, il caso OpenAI evidenzia la necessità di un equilibrio tra innovazione, privacy e responsabilità educativa – un tema cruciale che chiama in causa non solo le aziende tecnologiche, ma anche famiglie, scuole e istituzioni.

L’allarme nasce dalla consapevolezza che gli adulti debbano vigilare e provvedere, laddove un minore partecipa a conversazioni tramite chatbot, soprattutto quando queste sono su temi come autolesionismo o suicidio o interazioni sessuali.

Ma una questione resta aperta: stiamo proteggendo gli adolescenti o stiamo solo inseguendo un problema che ci è già sfuggito di mano?

Rischi e prospettive: cosa dicono gli psicologi

Le nuove linee guida di OpenAI arrivano nello stesso giorno di un’udienza al Senato degli Stati Uniti, intitolata “Examining the Harm of AI Chatbots”. Sul tavolo anche un’inchiesta di Reuters che aveva fatto emergere documenti interni in cui si incoraggiavano interazioni sessuali con utenti minorenni: la vicenda aveva già spinto Meta a rivedere le regole dei propri chatbot.

Queste vicende sollevano non pochi interrogativi: l’intelligenza artificiale può essere una minaccia, soprattutto per i più giovani? Come tutelare gli adolescenti dai rischi derivati dall’uso dell’IA? Secondo Liliana Dell’Osso, presidente della Società italiana di psichiatria (Sip) e docente ordinaria dell’Università degli studi di Pisa, sempre più ragazzi, che fanno fatica a comunicare tra loro, specie in presenza di ansia sociale o bullismo, parlano per ore con chatbot come ChatGPT che, grazie al tono empatico, sembra un amico che ascolta, non giudica, è disponibile in ogni momento e soprattutto ci si sente capiti.

Gli psicologi a livello globale stanno studiando attivamente il modo in cui i nuovi ambienti digitali influenzano lo sviluppo dei giovani, esaminando sia i potenziali benefici che i rischi. Ciò che è già noto da decenni di ricerca sullo sviluppo sociale, emotivo e biologico degli adolescenti fornisce una chiara tabella di marcia per identificare i rischi urgenti posti dall’intelligenza artificiale. “È fondamentale agire ora per dare priorità al benessere dei bambini rispetto ai profitti aziendali. Non possiamo ripetere gli errori commessi con i social media, dove la mancanza di regolamentazione ha consentito alle piattaforme progettate per il data mining di danneggiare i nostri giovani biologicamente e psicologicamente più vulnerabili”, scrive l’American Psychological Association.

Le novità introdotte da OpenAI

Con l’aggiornamento di OpenAI l’esperienza dei contenuti per gli adolescenti che utilizzano ChatGPT viene modificata. Sempre più ragazzi, che faticano a comunicare tra loro, specie in presenza di ansia sociale o bullismo, parlano per ore con chatbot come ChatGPT che, grazie al tono empatico, sembra un amico che ascolta, non giudica, disponibile H24 e soprattutto li capisce.

Come funziona? Nel post sul blog di OpenAI che annuncia il lancio viene spiegato che una volta che genitori e adolescenti collegano i loro account, quello degli adolescenti otterrà automaticamente ulteriori protezioni dei contenuti, inclusi:

  • contenuti grafici ridotti,
  • sfide virali,
  • giochi di ruolo sessuali, romantici o violenti e ideali di bellezza estremi.

Che cosa succede in sostanza? In base alle nuove restrizioni di OpenAI, se un adolescente quando usa un account ChatGPT inserisce un messaggio relativo principalmente all’autolesionismo o all’ideazione suicidaria, questo viene inviato a un team di revisori umani che decidono se attivare una potenziale notifica ai genitori, che possono scegliere di ricevere questi avvisi tramite SMS, e-mail e una notifica dall’app ChatGPT.

Inoltre, ai genitori vengono fornite funzionalità aggiuntive che possono personalizzare per i loro figli adolescenti.

I genitori possono:

  • Impostare orari silenziosi o orari specifici in cui ChatGPT non può essere utilizzato;
  • Disattivare la modalità vocale per rimuovere l’opzione di utilizzo della modalità vocale in ChatGPT;
  • Disattivare la memoria, in modo che ChatGPT non salvi e non utilizzi la memoria quando risponde;
  • Rimuovere la generazione di immagini, quindi ChatGPT non avrà la possibilità di creare o modificare immagini.
  • Rinunciare alla formazione dei modelli, in modo che le conversazioni dei loro adolescenti non vengano utilizzate per migliorare i modelli che alimentano ChatGPT.

Si prevede che gli avvertimenti che i genitori potrebbero ricevere in situazioni più estreme arrivino entro poche ore dalla segnalazione della conversazione per la revisione, ma OpenAI assicura che sta lavorando per ridurre il tempo di ritardo per le notifiche, nella consapevolezza che i singoli minuti, se non secondi in situazioni simili sono cruciali.

Arriverà una notifica agli adulti che si occupano del minore, che li informerà in generale che il proprio figlio/la propria figlia potrebbe aver scritto un messaggio relativo al suicidio o all’autolesionismo. Sono anche previste strategie di conversazione di esperti di salute mentale che i genitori possono utilizzare mentre parlano con i propri figli.

In una demo pre-lancio, l’oggetto dell’e-mail di esempio evidenziava problemi di sicurezza ma non menzionava esplicitamente il suicidio. Ciò che le notifiche dei genitori non includeranno sono citazioni dirette dalla conversazione del minore, né i suggerimenti né gli output. I genitori possono dare seguito alla notifica e richiedere la conversazione.

Per attivare queste funzionalità di sicurezza è necessario attivare sia l’account del genitore che quello dell’adolescente. Ciò significa che i genitori dovranno inviare ai propri figli adolescenti un invito affinché il loro account venga monitorato e l’adolescente è tenuto ad accettarlo. Il collegamento dell’account può essere avviato anche dall’adolescente.

I moderatori umani di OpenAI potranno contattare le forze dell’ordine in situazioni particolari, una volta stabilito che un adolescente potrebbe essere in pericolo e i genitori non possono essere raggiunti tramite notifica. Su scala globale non sono ancora stati forniti da OpenAI aggiornamenti sul coordinamento con le forze dell’ordine.

È probabile che altre aziende di intelligenza artificiale imitino l’approccio di OpenAI a questi tipi di strumenti per la sicurezza degli adolescenti.

Verso un modello di IA “family safe”

L’iniziativa di OpenAI potrebbe aprire la strada a un nuovo standard industriale. Anche Meta e altre big tech stanno lavorando a versioni “family friendly” dei propri assistenti conversazionali. Ma la vera sfida, oggi, è culturale: integrare l’intelligenza artificiale nella crescita dei giovani senza sostituire il ruolo umano dell’ascolto e dell’educazione.

La direzione sembra chiara: più trasparenza, più controllo, ma anche più consapevolezza. Perché la sicurezza digitale dei minori non può essere affidata solo agli algoritmi.


Conclusioni

L’azione di OpenAI segna un cambio di passo nel rapporto tra IA e tutela dei minori, ma evidenzia anche l’urgenza di un dialogo più ampio tra tecnologia, famiglia e istituzioni. La protezione dei ragazzi passa non solo per filtri e notifiche, ma per un’educazione digitale capace di responsabilizzare tutti gli attori coinvolti — dai genitori ai designer di algoritmi.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati