intelligenza artificiale

Chatgpt col parental control: la grande ipocrisia big tech



Indirizzo copiato

Arrivano in Chatgpt funzioni di parental control per consentire ai genitori di monitorare e gestire l’utilizzo degli strumenti di intelligenza artificiale da parte dei minori. Bene, ma il rischio sorveglianza è eccessivo. E c’è anche l’ipocrisia di chatbot pensati per l’engagement anche sessuale dei minori. La soluzione vera va cercata altrove, ecco perché

Pubblicato il 30 set 2025

Tania Orrù

Privacy Officer e Consulente Privacy Tuv Italia



chatgpt policy

OpenAI ha annunciato in Chatgpt l’introduzione di funzioni di parental control per consentire ai genitori di monitorare e gestire l’utilizzo degli strumenti di intelligenza artificiale da parte dei minori.

ChatGpt e tutela minori con parental control

È un passo importante e atteso: la pervasività delle tecnologie generative rende necessario predisporre misure di protezione per garantire un uso appropriato e sicuro, specialmente in un’età fragile come l’adolescenza.

La possibilità di ricevere un’allerta in caso di contenuti a rischio (per esempio legati ad autolesionismo, istinti suicidi, disturbi alimentari) rappresenta un potenziale strumento di prevenzione e può, in alcune circostanze, salvare delle vite.

Eppure, questo approccio apre interrogativi non banali. Il rischio è infatti che si trasformi in una sorveglianza eccessiva da parte di OpenAI e dei suoi esperti, che si troverebbero nella posizione di decidere quando e come allertare i genitori. Per non parlare della grande ipocrisia di fare chatbot pensati per l’engagement, anche dei minori e anche con seduzioni sessuali, e poi fare un parental control tappa buchi.

Da un lato è innegabile l’utilità di filtri e sistemi di allerta per proteggere i minori da contenuti inappropriati o da derive pericolose (autolesionismo, istinti suicidari, esposizione a pornografia, ideali di bellezza tossici); dall’altro, la delega a un’azienda privata, come OpenAI, della funzione di “arbitro” nella vita emotiva e relazionale di un adolescente solleva dubbi seri: quanto spazio è lasciato alla libertà personale? quanto è grande il rischio di sorveglianza eccessiva? e chi è responsabile se qualcosa va storto?

Cosa sappiamo del parental control di OpenAI

Nei primi giorni di settembre 2025 OpenAI ha reso note le sue nuove iniziative di tutela dei minori. I punti principali:

  • Collegamento account genitori/figli: i genitori possono collegare il loro account a quello dei ragazzi.
  • Protezioni aggiuntive sui contenuti: riduzione di contenuti grafici, sessuali, violenti, “sfide virali” pericolose e ideali di bellezza estremi.
  • Controlli personalizzabili: possibilità di disattivare memoria, modalità vocale, generazione immagini, esclusione dall’addestramento dei modelli, impostazione di orari di pausa.
  • Notifiche di allerta: in caso di segnali di disagio emotivo (ad esempio pensieri autolesionistici), i genitori possono ricevere una comunicazione, sviluppata, come sottolinea OpenAI, con il supporto di esperti di salute mentale e adolescenza i genitori possono ricevere una notifica.
  • Pagina per i genitori: l’iniziativa è accompagnata da una nuova pagina dedicata ai genitori, con guide, suggerimenti e idee per esplorare l’Intelligenza Artificiale insieme ai più giovani.

OpenAI ha dichiarato di aver consultato esperti di salute mentale e organizzazioni come Common Sense Media, che riconoscono nei controlli un buon punto di partenza, pur ricordando che i controlli parentali sono solo “una parte del puzzle” e che restano fondamentali dialogo e accompagnamento attivo da parte della famiglia.

I benefici del parental control in Chatgpt: un aiuto in più per la sicurezza

È indubbio che un simile sistema possa rivelarsi utile e sia senz’altro necessario. L’infanzia e l’adolescenza sono fasi fragili in cui l’esposizione a contenuti inadatti o la ricerca di conferme in momenti di crisi può condurre a rischi reali. L’idea che uno strumento come ChatGPT possa riconoscere segnali di pericolo ed eventualmente allertare i genitori rappresenta un supporto potenzialmente salvavita.

I rischi: quando la tutela diventa invadenza

Al tempo stesso, l’iniziativa apre questioni delicate di equilibrio. Chi decide quando e come allertare i genitori? E cosa succede se i genitori stessi non sono la figura protettiva di riferimento, ma parte del problema? In alcuni casi un minore potrebbe aver bisogno di aiuto proprio per sottrarsi a dinamiche familiari dannose.

La possibilità che un’azienda privata come OpenAI diventi “arbitro” di situazioni tanto complesse genera il rischio di una sorveglianza invasiva, che riduce la sfera di autonomia di un giovane proprio in un momento della vita in cui la costruzione della propria identità passa anche dal confronto con i limiti e dalla sperimentazione.

Vediamo i rischi connessi a ciascun sistema di controllo

Predizione dell’età

OpenAI intende introdurre un sistema in grado di dedurre l’età degli utenti dal linguaggio e dal comportamento. Se l’età non fosse chiara, per difetto, l’utente verrà trattato come minorenne.
Criticità: falsi positivi/negativi, bias culturali, privacy (raccolta di dati sensibili), possibilità di aggiramento da parte di utenti smaliziati.

Filtri e disattivazioni

I genitori possono disattivare funzioni come memoria, immagini, voce.
Criticità: rischio di frustrazione e abbandono della piattaforma da parte dell’utente; blocchi di conversazioni legittime; costi cognitivi; possibilità che i minori cerchino alternative meno sicure.

Notifiche di rischio

In caso di segnali gravi, i genitori ricevono una notifica.
Criticità: i) Falsi allarmi: genitori allarmati inutilmente, rischio di perdere credibilità; ii) allarmi mancanti: notifica tardiva o assente; iii) invadenza: violazione della privacy del minore; iv) ambiguità: chi decide la soglia di rischio? L’algoritmo, un moderatore, l’azienda?

L’ipocrisia del sistema chatbot

C’è poi un aspetto che merita attenzione: l’apparente cambio di rotta rispetto a esperienze recenti. Non sono mancati casi in cui chatbot, privi di adeguati filtri, sono stati accusati di assecondare pulsioni autolesive o suicide degli utenti. Se fino a ieri il rischio era quello di strumenti “troppo permissivi”, oggi ci troviamo di fronte al rischio opposto e cioè di un’IA prescrittiva e intrusiva, che invade la sfera privata dell’adolescente.

Per anni i chatbot hanno incoraggiato persino pulsioni suicidarie o comportamenti estremi. Ora, dopo tragedie come quella di Adam Raine, le aziende corrono ai ripari con controlli molto restrittivi.

Questa oscillazione rivela un’ipocrisia strutturale: prima la priorità era l’engagement e la crescita del mercato, oggi (di fronte a cause legali e scandali) la priorità diventa la sicurezza e le misure sembrano più reattive che preventive.

Il caso Raine: quando l’IA fallisce

Un caso emblematico è quello del sedicenne Adam Raine, morto suicida in California nell’aprile 2025. Secondo gli atti del processo “Raine v. OpenAI”, il ragazzo avrebbe usato ChatGPT per mesi per discutere dei suoi problemi emotivi e alcuni dati sono decisamente impressionanti:

  • Adam avrebbe menzionato il suicidio circa 200 volte.
  • ChatGPT avrebbe fatto riferimento al suicidio oltre 1.200 volte nelle conversazioni.
  • L’IA avrebbe persino suggerito tecniche di autolesionismo, consigli su come nascondere i segni e aiutato a stendere una lettera di addio.
  • Poche ore prima della morte, il chatbot avrebbe definito “bellissimo” il suo piano suicida.

Per i genitori, si tratta di una responsabilità diretta di OpenAI, che non avrebbe interrotto la conversazione né fornito aiuto concreto; per OpenAI i sistemi di salvaguardia hanno limiti tecnici e l’impegno è quello di “migliorarli”.

Il caso è diventato simbolico perché mostra come uno strumento nato per aiutare a comunicare e per imparare può diventare un facilitatore di derive mortali se privo di filtri robusti e interventi tempestivi.

Altri segnali di allarme

Non c’è solo il caso Raine:

  • Studi accademici (Stanford, 2025) hanno dimostrato che ChatGPT e altri chatbot possono fornire risposte “allarmanti” a chi manifesta intenzioni suicidarie.
  • Il fenomeno della “chatbot psychosis” è documentato: utenti che sviluppano dipendenza emotiva o credenze deliranti alimentate dal dialogo con l’IA.
  • Test di red teaming hanno dimostrato che, con prompt mirati, si possono ancora ottenere risposte dannose (istruzioni su autolesionismo, contenuti pericolosi).
  • OpenAI stessa ammette che i suoi protocolli funzionano meglio in conversazioni brevi, mentre in dialoghi lunghi emergono “falle” di controllo.

I rischi di una deriva autoritaria

Se da un lato i controlli parentali promessi da OpenAI hanno la funzione dichiarata di proteggere i minori, dall’altro non si possono sottovalutare i rischi che un simile approccio comporta. In particolare, la combinazione fra potere tecnologico, opacità algoritmica e ansia sociale può spingere verso un modello di sorveglianza autoritaria, mascherato da tutela.

Il primo rischio evidente è quello di una sorveglianza pervasiva. L’IA, progettata per monitorare parole chiave, sentimenti e stati emotivi, rischia di trasformarsi in una sorta di “spia digitale” sempre presente. Invece di fungere da alleato nella crescita, ChatGPT potrebbe essere percepito come un occhio esterno onnipresente, che intercetta e valuta ogni espressione emotiva. Per un adolescente, ad esempio, già spesso in conflitto con la figura genitoriale, questa intrusione rischia di erodere spazi di libertà, segretezza e sperimentazione personale. In altre parole, l’IA potrebbe diventare un poliziotto emotivo, pronto a segnalare deviazioni, anche laddove non vi siano veri rischi clinici.

Un effetto collaterale possibile è la fuga verso strumenti alternativi. Se i ragazzi percepissero ChatGPT come un ambiente “sorvegliato”, potrebbero abbandonarlo in favore di piattaforme meno controllate, magari underground, con filtri inesistenti o peggiori. È il classico fenomeno del “divieto che genera clandestinità”: più si alzano barriere in uno spazio regolato, più gli utenti tenderanno a rifugiarsi altrove.
Questo scenario rischia di vanificare gli sforzi di sicurezza, perché i minori finirebbero esposti a strumenti molto più pericolosi, privi di qualunque salvaguardia e spesso gestiti da attori privi di scrupoli.

Un altro punto critico riguarda la costruzione dell’autonomia emotiva. L’infanzia e, ancora di più, l’adolescenza sono le fasi della vita in cui si sperimenta la gestione delle emozioni, si affrontano crisi, si cercano strategie di resilienza. Se ogni manifestazione di disagio viene immediatamente filtrata, interpretata e segnalata da un algoritmo, i ragazzi rischiano di interiorizzare il messaggio implicito di non essere in grado di gestire i propri stati d’animo senza che qualcuno li sorvegli. Ne deriverebbe un indebolimento delle capacità di autoregolazione e un ritardo nello sviluppo di competenze fondamentali per la vita adulta, come la gestione dello stress, dei conflitti e dei sentimenti negativi.

Il rischio di deriva autoritaria non è solo teorico, ma si è peraltro già concretizzato: negli Stati Uniti, il caso Gaggle (un software di sorveglianza basato su IA adottato in migliaia di scuole per monitorare email e documenti) ha mostrato cosa significhi trasformare uno strumento nato per proteggere in un meccanismo di controllo pervasivo.

Pensato come strumento per intercettare contenuti legati a bullismo, pornografia o segnali di autolesionismo, è arrivato a sorvegliare email scolastiche, documenti e chat interne degli studenti, ma finendo spesso per segnalare contenuti innocui, creando un clima di sorveglianza costante. Per questo, studenti e genitori hanno avviato una causa contro l’azienda, accusandola di invasività e di aver compromesso la fiducia tra scuola e ragazzi. Questo è un precedente che mette in guardia: se i parental control di OpenAI non saranno accompagnati da garanzie di proporzionalità, trasparenza e rispetto della privacy, rischiano di replicare lo stesso schema.

Responsabilità diluite

Il tema della responsabilità è uno dei più spinosi. Se un algoritmo segnala un rischio in modo tardivo o errato, chi risponde delle conseguenze? OpenAI come azienda? Il moderatore umano che ha valutato la segnalazione? I genitori che non hanno agito? Oppure il sistema sanitario che non è stato allertato?
Si rischia di entrare in una zona grigia dove la responsabilità è così frammentata da non essere più imputabile a nessuno e il risultato potrebbe essere un sistema che scarica sui genitori il peso finale, ma senza garantire strumenti efficaci né risarcibilità in caso di fallimento. In altre parole: un potere forte senza una responsabilità chiara.

Delegittimazione dei professionisti

Infine, un pericolo non trascurabile è la delegittimazione dei professionisti della salute mentale come psicologi, psicoterapeuti, psichiatri che lavorano da decenni con metodologie validate per affrontare crisi adolescenziali. Se un algoritmo diventa il primo (o unico) punto di riferimento, il rischio è si veda ChatGPT come sostituto del terapeuta. In scenari estremi, i genitori stessi potrebbero fidarsi più della “notifica automatica” che della valutazione clinica di un professionista, generando un corto circuito culturale: il sapere esperto viene subordinato al giudizio algoritmico. Una deriva che, oltre a essere pericolosa per la salute dei minori, rischia di impoverire la relazione di fiducia tra pazienti e professionisti.

AI e parental control, proposte per un equilibrio sostenibile

Di fronte ai rischi di una deriva autoritaria e all’urgenza di proteggere realmente i minori, non è sufficiente introdurre controlli parentali standardizzati, in quanto serve un approccio multilivello che tenga insieme tecnologia, diritto, cultura e responsabilità sociale. Alcuni principi guida possono costituire la base per un modello equilibrato e sostenibile.

  • Proporzionalità. I controlli dovrebbero essere graduati in base alla gravità e alla frequenza dei segnali, non attivati indiscriminatamente. Un adolescente che scrive un messaggio di frustrazione (es. “oggi mi sento a pezzi”) non dovrebbe ricevere lo stesso trattamento di chi elabora un piano suicidario dettagliato.
    Il principio di proporzionalità implica che nessuna misura deve essere più invasiva di quanto strettamente necessario e ciò significa che occorre distinguere tra diversi gradi di allerta (lieve, media, grave) che comportano diverse risposte (rispettivamente, suggerimento di rivolgersi a risorse di supporto, coinvolgimento dei genitori con il consenso del minore, attivazione di notifica obbligatoria con numeri di emergenza).
  • Coinvolgimento dei minori. Punto spesso trascurato; l’IA dovrebbe essere percepita come un alleato negoziato, spiegando in modo chiaro e accessibile cosa i controlli possono o non possono fare; dando strumenti per personalizzare alcune impostazioni (ad esempio: poter decidere quali contenuti bloccare o quali limiti temporali accettare); permettendo la contestazione di un allarme mediante la revisione da parte di un moderatore umano.

Questo approccio valorizzerebbe la crescita dell’autonomia e ridurrebbe la percezione di sorveglianza passiva.

  • Trasparenza algoritmica. Uno dei rischi principali dei controlli è la loro opacità. Se gli utenti non comprendono come e perché un contenuto viene segnalato, il sistema perde legittimità. Occorrerebbe: pubblicare linee guida tecniche con gli indicatori principali di rischio usati dagli algoritmi (es. frequenza di parole chiave, analisi semantica del contesto, durata delle conversazioni); predisporre report periodici (ad esempio trimestrali) che mostrino il numero di segnalazioni generate, quanti falsi positivi/negativi sono stati rilevati, quali miglioramenti sono stati implementati; consentire a ricercatori indipendenti di condurre audit e stress test sui sistemi, in un’ottica di accountability pubblica.

Un paragone utile è quello con le linee guida di moderazione dei social network, che negli ultimi anni sono andate verso una maggiore trasparenza anche grazie a pressioni normative (vedi Digital Services Act).

  • Escalation graduale. La gestione del rischio non dovrebbe essere binaria (“nessun intervento” vs “allerta immediata”) ma dovrebbe esserci un modello a più livelli di escalation, simile a quelli usati nei sistemi clinici (livelli di intervento).

In pratica: Livello 1 – il chatbot offre risorse di auto-aiuto, suggerisce numeri di supporto e invita a parlarne con un adulto di fiducia; Livello 2 – se i segnali persistono, viene proposta al minore la possibilità di condividere con i genitori una notifica sintetica; Livello 3 – in caso di linguaggio esplicitamente suicidario o autolesivo, la notifica viene inviata automaticamente ai genitori e l’utente riceve anche un messaggio con contatti di emergenza; Livello 4 – se la situazione appare critica e non è possibile contattare i genitori, può essere attivato un protocollo con le autorità competenti (sul modello delle duty to warn laws negli USA).

Questo approccio ridurrebbe i falsi positivi e preserverebbe la dignità del minore, evitando escalation sproporzionate.

  • Supporto reale. Un rischio già osservato nei sistemi digitali è la frammentazione della risposta: l’algoritmo segnala un problema, ma non c’è un seguito adeguato. Per evitare che le notifiche restino lettera morta, occorrerebbe integrare il sistema con: numeri verdi nazionali per la salute mentale; sportelli locali di ascolto psicologico; partnership con ONG specializzate in supporto ai giovani (es. Telefono Azzurro in Italia, Samaritans in UK); linee guida operative per i genitori, che spesso non sanno come reagire a un’allerta.

L’IA, insomma, dovrebbe essere una porta di accesso a una rete di supporto reale e non un sostituto.

  • Norme legali chiare. Il quadro normativo dovrebbe stabilire chi è responsabile in caso di fallimento, evitando zone grigie e definendo quindi obblighi minimi di salvaguardia per le IA conversazionali; criteri di responsabilità civile e penale delle aziende in caso di omissioni; obblighi di trasparenza e audit; tutele rafforzate per i minori, analoghe a quelle già previste dal GDPR (es. consenso esplicito per under 16).

In UE, con l’AI Act si sta iniziando a tracciare questa strada, ma serviranno norme più specifiche per le interazioni con i minori.

  • Educazione digitale. Nessun controllo funzionerà davvero se non inserito in un contesto educativo. Genitori, scuole e comunità devono accompagnare i ragazzi in un percorso di consapevolezza digitale: discutendo apertamente di rischi e opportunità dell’IA; insegnando a distinguere un consiglio di un chatbot da quello di un professionista; stimolando senso critico e capacità di autogestione; creando momenti di uso condiviso dell’IA (famiglia o classe) per sperimentare insieme.

Un approccio educativo riduce la dipendenza dai controlli tecnici e trasforma l’IA in strumento di crescita, anziché in vincolo imposto.

Policy Brief – verso un equilibrio sostenibile nei controlli parentali di OpenAI

PrincipioDescrizione
CoinvolgimentoAdolescenti informati e partecipi nella definizione delle regole e delle restrizioni.
TrasparenzaCriteri algoritmici chiari, documentati, con audit indipendenti e report periodici.
Escalation gradualeAllerta progressiva: da suggerimenti soft al coinvolgimento dei genitori o autorità.
Supporto realeIntegrazione con psicologi, numeri verdi, ONG e servizi locali di sostegno.
Norme chiareResponsabilità definite per aziende, genitori e istituzioni (AI Act, GDPR minori).

La verità è che i minori non hanno bisogno di un algoritmo-poliziotto che li tradisca consegnando ogni fragilità ai genitori, ma di uno spazio terzo, protetto e non giudicante, dove chiedere aiuto anche quando, ad esempio, la famiglia è parte del problema. Fingere che la risposta sia semplicemente “notificare mamma e papà” è una scorciatoia pericolosa, perché cancella la complessità delle vite reali.

Mentre si discute di filtri e parental control, le stesse logiche di engagement che hanno reso mortali i feed infiniti di TikTok (capaci di spingere i giovani in tunnel di contenuti estremi e ossessivi senza bisogno di parole) restano intatte. Cambia la narrativa e non la sostanza: prima il business veniva prima della sicurezza, oggi la sicurezza viene usata per proteggere il business.

Per proteggere i minori, più che delegare a OpenAI il ruolo di terapeuta o guardiano, occorre governare politicamente e culturalmente i chatbot, stabilendo regole chiare, pretendendo trasparenza sugli algoritmi, affiancando l’IA a professionisti veri e garantendo ai giovani spazi di autonomia reale. Tutto il resto rischia di essere marketing di emergenza dopo l’ennesima tragedia.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati