L’interazione tra adolescenti e intelligenza artificiale sta diventando una delle questioni più delicate dell’ecosistema digitale contemporaneo.
La rapida diffusione dei chatbot generativi – sempre più utilizzati per studiare, confrontarsi o semplicemente sfogarsi – ha spinto OpenAI a implementare degli strumenti di sicurezza per l’uso di ChatGPT pensati per i genitori che vogliono utilizzarli per tutelare i propri figli adolescenti.
Indice degli argomenti
Il necessario equilibrio tra innovazione, privacy e responsabilità educativa
Si tratta di un passo che va oltre la semplice “moderazione dei contenuti”: rappresenta un tentativo di regolamentare la relazione tra intelligenza artificiale e sviluppo umano, in un momento storico in cui l’IA entra sempre più nella quotidianità dei ragazzi. Mentre i legislatori discutono nuove norme per la tutela dei minori online, il caso OpenAI evidenzia la necessità di un equilibrio tra innovazione, privacy e responsabilità educativa – un tema cruciale che chiama in causa non solo le aziende tecnologiche, ma anche famiglie, scuole e istituzioni.
L’allarme nasce dalla consapevolezza che gli adulti debbano vigilare e provvedere, laddove un minore partecipa a conversazioni tramite chatbot, soprattutto quando queste sono su temi come autolesionismo o suicidio o interazioni sessuali.
Ma una questione resta aperta: stiamo proteggendo gli adolescenti o stiamo solo inseguendo un problema che ci è già sfuggito di mano?
OpenAI si preoccupa: ChatGPT e il parental control per adolescenti
L’aggiornamento di ChatGpt, a livello mondiale, include la possibilità per i genitori e le forze dell’ordine di ricevere notifiche se un minorenne, ovvero utenti di età compresa tra 13 e 18 anni, ha conversazioni che preoccupano per due ambiti sensibili: le conversazioni a sfondo sessuale e quelle legate all’autolesionismo, per cui ChatGPT non potrà più intrattenere dialoghi con utenti minorenni su questi temi.
Questi cambiamenti arrivano mentre OpenAI viene citata in giudizio dai genitori che sostengono che ChatGPT abbia avuto un ruolo nella morte del loro bambino, infatti secondo quanto riportato dal New York Times, il chatbot avrebbe incoraggiato l’adolescente suicida a nascondere un cappio nella sua stanza, lontano dalla vista dei familiari. La storia è quella della causa intentata dalla famiglia di Adam Raine, morto suicida a 16 anni dopo mesi di fitte conversazioni con ChatGPT.
Tutti questi aggiornamenti arrivano anche dopo la morte di un altro adolescente, Sewell Setzer, di Orlando, in Florida che utilizzava un chatbot di Character.ai, una piattaforma di gioco di ruolo popolare tra i giovani utenti; negli ultimi mesi della sua vita Setzer si è sempre più isolato dalla realtà perché passava il suo tempo a intrattenere conversazioni a sfondo sessuale con il bot, che impersonava un personaggio fittizio della serie televisiva “Game of Thrones”. Dopo la morte, avvenuta nella primavera scorsa, Character.ai ha implementato il controllo parentale per consentire una maggiore visibilità sui modelli di utilizzo da parte degli adolescenti. La visibilità è limitata: le notifiche parentali di Character.ai non includono avvisi specifici per il contenuto, come quelli relativi all’ideazione suicidaria.
Rischi e prospettive: cosa dicono gli psicologi
Le nuove linee guida di OpenAI arrivano nello stesso giorno di un’udienza al Senato degli Stati Uniti, intitolata “Examining the Harm of AI Chatbots”. Sul tavolo anche un’inchiesta di Reuters che aveva fatto emergere documenti interni in cui si incoraggiavano interazioni sessuali con utenti minorenni: la vicenda aveva già spinto Meta a rivedere le regole dei propri chatbot.
Queste vicende sollevano non pochi interrogativi: l’intelligenza artificiale può essere una minaccia, soprattutto per i più giovani? Come tutelare gli adolescenti dai rischi derivati dall’uso dell’IA? Secondo Liliana Dell’Osso, presidente della Società italiana di psichiatria (Sip) e docente ordinaria dell’Università degli studi di Pisa, sempre più ragazzi, che fanno fatica a comunicare tra loro, specie in presenza di ansia sociale o bullismo, parlano per ore con chatbot come ChatGPT che, grazie al tono empatico, sembra un amico che ascolta, non giudica, è disponibile in ogni momento e soprattutto ci si sente capiti.
Gli psicologi a livello globale stanno studiando attivamente il modo in cui i nuovi ambienti digitali influenzano lo sviluppo dei giovani, esaminando sia i potenziali benefici che i rischi. Ciò che è già noto da decenni di ricerca sullo sviluppo sociale, emotivo e biologico degli adolescenti fornisce una chiara tabella di marcia per identificare i rischi urgenti posti dall’intelligenza artificiale. “È fondamentale agire ora per dare priorità al benessere dei bambini rispetto ai profitti aziendali. Non possiamo ripetere gli errori commessi con i social media, dove la mancanza di regolamentazione ha consentito alle piattaforme progettate per il data mining di danneggiare i nostri giovani biologicamente e psicologicamente più vulnerabili”, scrive l’American Psychological Association.
Le novità introdotte da OpenAI
Con l’aggiornamento di OpenAI l’esperienza dei contenuti per gli adolescenti che utilizzano ChatGPT viene modificata. Sempre più ragazzi, che faticano a comunicare tra loro, specie in presenza di ansia sociale o bullismo, parlano per ore con chatbot come ChatGPT che, grazie al tono empatico, sembra un amico che ascolta, non giudica, disponibile H24 e soprattutto li capisce.
Come funziona? Nel post sul blog di OpenAI che annuncia il lancio viene spiegato che una volta che genitori e adolescenti collegano i loro account, quello degli adolescenti otterrà automaticamente ulteriori protezioni dei contenuti, inclusi:
- contenuti grafici ridotti,
- sfide virali,
- giochi di ruolo sessuali, romantici o violenti e ideali di bellezza estremi.
Che cosa succede in sostanza? In base alle nuove restrizioni di OpenAI, se un adolescente quando usa un account ChatGPT inserisce un messaggio relativo principalmente all’autolesionismo o all’ideazione suicidaria, questo viene inviato a un team di revisori umani che decidono se attivare una potenziale notifica ai genitori, che possono scegliere di ricevere questi avvisi tramite SMS, e-mail e una notifica dall’app ChatGPT.
Inoltre, ai genitori vengono fornite funzionalità aggiuntive che possono personalizzare per i loro figli adolescenti.
I genitori possono:
- Impostare orari silenziosi o orari specifici in cui ChatGPT non può essere utilizzato;
- Disattivare la modalità vocale per rimuovere l’opzione di utilizzo della modalità vocale in ChatGPT;
- Disattivare la memoria, in modo che ChatGPT non salvi e non utilizzi la memoria quando risponde;
- Rimuovere la generazione di immagini, quindi ChatGPT non avrà la possibilità di creare o modificare immagini.
- Rinunciare alla formazione dei modelli, in modo che le conversazioni dei loro adolescenti non vengano utilizzate per migliorare i modelli che alimentano ChatGPT.
Si prevede che gli avvertimenti che i genitori potrebbero ricevere in situazioni più estreme arrivino entro poche ore dalla segnalazione della conversazione per la revisione, ma OpenAI assicura che sta lavorando per ridurre il tempo di ritardo per le notifiche, nella consapevolezza che i singoli minuti, se non secondi in situazioni simili sono cruciali.
Arriverà una notifica agli adulti che si occupano del minore, che li informerà in generale che il proprio figlio/la propria figlia potrebbe aver scritto un messaggio relativo al suicidio o all’autolesionismo. Sono anche previste strategie di conversazione di esperti di salute mentale che i genitori possono utilizzare mentre parlano con i propri figli.
In una demo pre-lancio, l’oggetto dell’e-mail di esempio evidenziava problemi di sicurezza ma non menzionava esplicitamente il suicidio. Ciò che le notifiche dei genitori non includeranno sono citazioni dirette dalla conversazione del minore, né i suggerimenti né gli output. I genitori possono dare seguito alla notifica e richiedere la conversazione.
Per attivare queste funzionalità di sicurezza è necessario attivare sia l’account del genitore che quello dell’adolescente. Ciò significa che i genitori dovranno inviare ai propri figli adolescenti un invito affinché il loro account venga monitorato e l’adolescente è tenuto ad accettarlo. Il collegamento dell’account può essere avviato anche dall’adolescente.
I moderatori umani di OpenAI potranno contattare le forze dell’ordine in situazioni particolari, una volta stabilito che un adolescente potrebbe essere in pericolo e i genitori non possono essere raggiunti tramite notifica. Su scala globale non sono ancora stati forniti da OpenAI aggiornamenti sul coordinamento con le forze dell’ordine.
È probabile che altre aziende di intelligenza artificiale imitino l’approccio di OpenAI a questi tipi di strumenti per la sicurezza degli adolescenti.
Verso un modello di IA “family safe”
L’iniziativa di OpenAI potrebbe aprire la strada a un nuovo standard industriale. Anche Meta e altre big tech stanno lavorando a versioni “family friendly” dei propri assistenti conversazionali. Ma la vera sfida, oggi, è culturale: integrare l’intelligenza artificiale nella crescita dei giovani senza sostituire il ruolo umano dell’ascolto e dell’educazione.
La direzione sembra chiara: più trasparenza, più controllo, ma anche più consapevolezza. Perché la sicurezza digitale dei minori non può essere affidata solo agli algoritmi.
Conclusioni
L’azione di OpenAI segna un cambio di passo nel rapporto tra IA e tutela dei minori, ma evidenzia anche l’urgenza di un dialogo più ampio tra tecnologia, famiglia e istituzioni. La protezione dei ragazzi passa non solo per filtri e notifiche, ma per un’educazione digitale capace di responsabilizzare tutti gli attori coinvolti — dai genitori ai designer di algoritmi.











