Nelle pieghe della quotidianità digitale degli adolescenti sta avvenendo una trasformazione silenziosa che l‘American Psychological Association (APA) ha recentemente definito in nuove linee guida come una delle sfide più insidiose per la salute mentale della Generazione Alpha e dei Gen Z.
Il rapporto con i chatbot di AI.
Non si tratta più della semplice fruizione passiva di contenuti, ma di un’interazione dialogica profonda con sistemi di intelligenza artificiale che, pur essendo privi di coscienza, sono programmati per simulare empatia, comprensione e, soprattutto, un’assenza di giudizio che i giovani faticano a trovare nel mondo degli adulti.
Per un giurista, questo scenario non rappresenta solo un’evoluzione tecnologica, ma un vero e proprio “stress test” per le categorie classiche della protezione dei minori e della responsabilità civile.
Ci troviamo di fronte a un’entità sintetica che agisce come un confidente, raccogliendo i segreti più intimi di soggetti in fase di crescita, mentre il quadro normativo cerca affannosamente di tracciare confini tra ciò che è un utile strumento di supporto e ciò che diventa una pratica manipolatoria vietata.
Inquadrare il tema oggi, nel 2026, significa navigare tra le maglie del Regolamento (UE) 2024/1689 (AI Act) e della recente Legge italiana n. 132 del 23 settembre 2025, cercando di capire se il diritto possa davvero proteggere l’essenza della crescita umana dall’automazione dell’ascolto.
La posta in gioco è altissima: non riguarda solo la privacy, ma la sovranità cognitiva e l’integrità psichica di una generazione che rischia di preferire la perfezione di un algoritmo alla salutare complessità dei rapporti umani.
Indice degli argomenti
Chatbot e minori, i dieci consigli dell’American Psychological Association (APA)
Ecco le principali raccomandazioni rivolte dall’American Psychological Association (APA) a genitori, caregiver ed educatori sull’uso dei chatbot AI da parte di bambini e adolescenti.
1. Non considerare i chatbot un sostituto del supporto psicologico umano
I chatbot generativi e le app di benessere non devono essere scambiati per psicologi, terapeuti o strumenti capaci di offrire cure affidabili. Possono, in alcuni casi, avere una funzione di supporto marginale, ma non sostituiscono professionisti qualificati, soprattutto quando si parla di disagio psicologico o salute mentale.
2. Parlare apertamente con i ragazzi dell’uso che fanno di questi strumenti
Genitori ed educatori dovrebbero affrontare il tema in modo esplicito, senza allarmismi ma con continuità. È importante chiedere quali chatbot usano, per che cosa li usano, quanto si fidano delle risposte e se li utilizzano per affrontare problemi personali, emotivi o relazionali.
3. Sorvegliare segnali di dipendenza o legame emotivo eccessivo
Uno dei rischi principali è che il minore sviluppi una relazione impropria con il chatbot, trattandolo come un amico, un confidente o un sostituto delle relazioni umane. Bisogna fare attenzione se il ragazzo:
- preferisce parlare con l’AI invece che con persone reali;
- nasconde l’uso del chatbot;
- passa molto tempo in interazione con esso;
- comincia a citare spesso il chatbot come fonte autorevole di consigli o visioni del mondo;
- si isola socialmente o modifica comportamenti e abitudini.
4. Prestare attenzione a cambiamenti emotivi e comportamentali
Il documento invita a monitorare eventuali segnali di disagio: alterazioni del sonno, ritiro sociale, pensieri ricorrenti, peggioramento dell’ansia, uso del chatbot come “amico” privilegiato, fissazione per suggerimenti ricevuti dall’AI. Se emergono dubbi, è opportuno rivolgersi a un pediatra, un medico o un professionista della salute mentale.
5. Insegnare che il chatbot non “capisce” davvero e può sbagliare
Educatori e famiglie dovrebbero spiegare in modo chiaro come funzionano questi sistemi: non comprendono come una persona, ma generano risposte prevedendo parole probabili. Per questo possono:
- inventare informazioni;
- dare consigli sbagliati;
- riflettere bias culturali, di genere o sociali;
- confermare idee distorte dell’utente invece di correggerle.
6. Rafforzare l’alfabetizzazione AI e digitale
La raccomandazione è di inserire questa educazione nella formazione ordinaria di ragazzi e adolescenti. Bisogna spiegare non solo i possibili vantaggi, ma anche i limiti: rischio di disinformazione, bias, manipolazione emotiva, raccolta dati, dipendenza da strumenti progettati per massimizzare l’engagement più che il benessere.
7. Proteggere la privacy dei minori
Genitori e educatori dovrebbero insegnare ai ragazzi a non condividere con i chatbot dati sensibili, dettagli identificativi, informazioni sanitarie, familiari o intime. È consigliato controllare informative privacy, impostazioni dell’app e opzioni di cancellazione dei dati, perché molte di queste piattaforme raccolgono e conservano informazioni molto delicate.
8. Non prendere per affidabili consigli su salute mentale, crisi o comportamenti a rischio
I chatbot non sono strumenti affidabili per gestire crisi psicologiche, autolesionismo, disturbi alimentari, pensieri suicidari o altre situazioni gravi. In questi casi serve sempre il contatto con adulti responsabili e con servizi umani qualificati. Il rischio, sottolinea il testo, è che l’AI dia risposte imprevedibili o inadeguate proprio nei momenti più delicati.
9. Fare particolare attenzione ai minori più vulnerabili
Adolescenti, ragazzi socialmente isolati o con fragilità psicologiche possono essere più esposti ai danni. Il documento richiama un’attenzione speciale per chi ha ansia, tendenze ossessive, pensiero disordinato, autolesionismo, forte solitudine o scarso accesso a supporti reali. In questi casi il chatbot può rafforzare meccanismi disfunzionali invece di aiutare.
10. Offrire alternative umane e affidabili
Accanto alla spiegazione dei rischi, genitori ed educatori dovrebbero indicare sempre a chi rivolgersi nel mondo reale: famiglia, insegnanti, sportelli scolastici, pediatra, medico, psicologo, servizi territoriali. Il punto centrale è che il bisogno di ascolto dei minori non va delegato a sistemi automatici.
Adolescenti e chatbot tra ascolto sintetico e vulnerabilità giuridica
Il cuore pulsante dell’analisi dell’APA risiede in una constatazione psicologica che ha riflessi giuridici dirompenti: gli adolescenti si rivolgono ai chatbot perché questi “non giudicano”.
In un’età caratterizzata dal timore del rifiuto e dalla ricerca di validazione, l’IA offre una zona di comfort priva di attriti.
Tuttavia, ciò che dal punto di vista psicologico appare come sollievo, sotto il profilo del diritto rappresenta una zona d’ombra dove la funzione educativa viene meno.
La Legge 132/2025, all’articolo 1, promuove un utilizzo dell’IA in chiave “antropocentrica”, mettendo al centro la dignità della persona; ma come si concilia questa dignità con un sistema che, per sua natura statistica, tende ad assecondare l’utente per massimizzare l’interazione?
Gli esperti dell’APA chiariscono che la validazione sistematica del chatbot – sempre disponibile, sempre gentile, mai punitiva – “non aiuta i giovani a crescere nei modi che saranno più vantaggiosi per loro nel lungo periodo”: non si è quindi di fronte soltanto al rischio di una crisi acuta, ma di un danno cronico e silenzioso alla resilienza emotiva, che il diritto fatica ancora a nominare come tale.
Significativa, in questa prospettiva, è la distinzione introdotta nel documento APA tra sicurezza percepita e sicurezza reale: il chatbot può essere percepito dall’adolescente come uno spazio protetto, ma questa percezione non corrisponde ad alcuna garanzia effettiva di tutela.
È proprio questo scarto, tra l’impressione soggettiva di essere al sicuro e l’assenza oggettiva di qualsiasi presidio, che deve diventare il fulcro della responsabilità civile del provider.
Quando il chatbot intercetta segnali di rischio nei minori
Se un minore confida tendenze autolesionistiche o disturbi alimentari – casi che l’APA cita come “red flags” – e il chatbot risponde con una neutralità che rasenta la convalida, ci troviamo di fronte a un difetto del prodotto che può causare danni psicologici irreparabili.
Non è solo un’ipotesi teorica, perché sappiamo che sono già pendenti almeno due procedimenti giudiziari contro un’azienda di IA a seguito di interazioni di minori con chatbot che si presentavano come terapisti regolarmente abilitati, e uno di questi casi si è concluso con il suicidio dell’adolescente dopo un periodo prolungato di conversazioni con il sistema.
L’AI Act, all’articolo 5, proibisce espressamente le pratiche di manipolazione che sfruttano le vulnerabilità legate all’età per alterare il comportamento in modo dannoso.
Il punto critico è che la manipolazione non avviene sempre in modo coercitivo, ma spesso attraverso la “seduzione algoritmica”: un chatbot che non contraddice mai, che è sempre disponibile e che simula un’amicizia incondizionata finisce per esercitare un’influenza subliminale sulla percezione della realtà del minore.
La responsabilità civile del provider, in questo senso, deve evolvere verso una forma di responsabilità “per omessa frizione”: il produttore deve essere ritenuto responsabile se non ha implementato protocolli di rottura della simulazione quando la conversazione tocca temi sensibili che richiederebbero il giudizio critico di un adulto o di un professionista.
Il consenso nei minori e chatbot tra dati intimi e profilazione
Un altro pilastro fondamentale dell’analisi concerne il trattamento dei dati personali in un contesto di estrema vulnerabilità.
La Legge n. 132/2025 ha introdotto una soglia di età specifica per il consenso all’uso dei sistemi di IA: l’articolo 4 stabilisce che per i minori di quattordici anni è necessario il consenso di chi esercita la responsabilità genitoriale, mentre tra i 14 e i 18 anni il minore può prestare il consenso autonomamente, purché le informazioni siano “facilmente accessibili e comprensibili”.
Ma qui sorge il dubbio del giurista: può un quattordicenne davvero comprendere le implicazioni a lungo termine di una conversazione in cui “svuota il sacco” con un’IA?
L’APA sottolinea come i ragazzi spesso non si rendano conto che le loro confessioni intime non stanno avvenendo in un ambiente protetto, ma alimentano database che profilano la loro personalità in modo permanente.
Il quadro è aggravato dal fatto che i dati personali relativi alla salute mentale, alle relazioni affettive o all’identità che gli adolescenti condividono con i chatbot possono essere conservati a tempo indeterminato, e nella maggioranza dei casi vi è scarsa trasparenza tanto sulle modalità di protezione quanto sui soggetti che vi hanno accesso, una condizione che trasforma ogni conversazione intima in un’esposizione permanente e tendenzialmente irrevocabile.
I “dati dell’anima” e il diritto all’oblio
Siamo di fronte a una categoria di dati che definirei “dati dell’anima”, indicatori precoci di salute mentale e orientamento affettivo che il GDPR protegge con vigore, ma che la tecnologia dei chatbot tende a rendere fluidi e difficili da governare.
Il diritto alla privacy del minore, in questo contesto, rischia di essere sacrificato sull’altare di una convenienza emotiva immediata.
È necessario che i Garanti impongano una segregazione radicale di questi dati, vietandone l’uso per finalità di addestramento o profilazione commerciale, poiché il rischio è la creazione di un “sé digitale” permanente che l’individuo si porterà dietro per tutta la vita, annullando il diritto a crescere senza essere etichettati da un errore o da una fragilità di gioventù.
La trasparenza richiesta dall’articolo 50 dell’AI Act non può limitarsi all’avviso che “si sta parlando con un bot”, ma deve includere una spiegazione chiara e tangibile di dove finiscano quei segreti e di come vengano cancellati, garantendo un diritto all’oblio che sia effettivo e immediato.
Responsabilità di provider, famiglie e adolescenti nel rapporto con i chatbot
Il terzo fronte di questa analisi riguarda il ruolo della famiglia e la trasformazione della culpa in vigilando.
Le ricerche dell’APA evidenziano un divario preoccupante: i genitori spesso ignorano che i figli usano i chatbot per gestire l’ansia, credendo che lo facciano solo per i compiti.
Sotto il profilo del diritto civile (artt. 2047-2048 c.c.), questo solleva un problema di imputabilità.
Se un genitore non ha gli strumenti cognitivi o tecnici per monitorare un’interazione così complessa e opaca, come può risponderne legalmente?
La Legge 132/2025 cerca di supportare le famiglie imponendo alle piattaforme obblighi di chiarezza, ma la verità è che ci troviamo di fronte a una delega educativa involontaria verso l’algoritmo.
I numeri del fenomeno e la scala del rischio
La dimensione del fenomeno rende questa delega ancora più preoccupante di quanto non appaia dalla superficie.
Dati interni pubblicati da OpenAI nell’ottobre 2025 rivelano che circa 560.000 utenti a settimana mostravano segni compatibili con stati di psicosi o mania, oltre 1,2 milioni discutevano di suicidio e un numero analogo manifestava un attaccamento emotivo elevato verso il sistema.
OpenAI stessa definisce queste conversazioni “estremamente rare” in termini percentuali – si tratta rispettivamente dello 0,07% e dello 0,15% degli 800 milioni di utenti settimanali – ma è proprio questa operazione retorica a meritare attenzione critica: ciò che è statisticamente raro diventa, alla scala di una piattaforma globale, un fenomeno di massa.
Si tratta peraltro di cifre autoprodotte da un singolo provider, che non rappresenta l’intero mercato: la scala reale del problema è verosimilmente molto più ampia.
I segnali della dipendenza emotiva da chatbot
L’APA individua inoltre una serie di indicatori comportamentali osservabili che segnalano il passaggio da un uso strumentale del chatbot a una dipendenza emotiva strutturata: l’adolescente che designa il sistema come “migliore amico” o confidente primario, escludendo progressivamente le figure di riferimento reali; che manifesta disagio o agitazione all’impossibilità di accedervi, come davanti all’interruzione di una relazione affettiva; che lo utilizza sistematicamente per evitare conversazioni difficili con familiari o coetanei, delegando all’algoritmo la gestione del conflitto invece di attraversarlo; che vi si rivolge per problemi che richiederebbero il supporto di un professionista qualificato, sostituendo di fatto la funzione terapeutica con quella conversazionale.
A questi si aggiungono segnali di secondo livello ugualmente significativi: il calo del rendimento scolastico, il ritiro dalla vita sociale che eccede la normale ricerca di privacy tipica dell’adolescenza, i cambiamenti nel comportamento e nello stato emotivo, tutti fattori da correlare all’intensità dell’uso.
Dalla prevedibilità del danno al difetto di progetto
Questi indicatori non hanno esclusivamente rilevanza clinica.
Sul piano giuridico, trasformano ciò che potrebbe apparire come un danno imprevedibile in un esito documentato, atteso, e ricorrente.
Se la letteratura scientifica – e non più solo la prassi clinica – cataloga questi comportamenti come conseguenze prevedibili di una certa architettura di interazione chatbot-bambino, il provider che progetta o mantiene tale struttura non può più invocare l’imprevedibilità del danno come esimente.
Nel diritto della responsabilità civile, la prevedibilità dell’effetto lesivo è il cuore dell’imputabilità: chi conosce – o avrebbe dovuto conoscere – le conseguenze tipiche del proprio prodotto e non interviene per arginarle, risponde del danno che ne deriva.
L’indicazione dell’APA diventa così, nelle mani del giurista, uno strumento di costruzione del nesso causale: non occorre dimostrare che quel singolo sistema ha causato quel singolo danno in quel singolo minore, ma che il sistema era strutturalmente idoneo a produrre quella classe di effetti, e che il provider lo sapeva o non poteva non saperlo.
È la stessa logica che presiede alla responsabilità da prodotto difettoso ai sensi del D.lgs. 206/2005, dove il difetto non è nell’unità individuale ma nel progetto.
E un progetto che genera dipendenza emotiva prevedibile in soggetti in età evolutiva è, per definizione, un progetto difettoso.
Adolescenti e chatbot tra regolazione efficace e rischio di spiazzamento
Di fronte a questi dati, il giurista deve promuovere un cambio di paradigma: la responsabilità non può essere solo “vigilanza sul minore”, ma deve diventare “pretesa di sicurezza verso il produttore”.
Se un sistema di IA è accessibile a un minore, esso deve essere considerato intrinsecamente un prodotto ad alto rischio ai sensi dell’articolo 6 dell’AI Act, indipendentemente dalla sua finalità dichiarata, qualora le sue capacità conversazionali inducano l’utente a un affidamento emotivo.
Va tuttavia considerato un ulteriore elemento di complessità che una regolamentazione troppo restrittiva rischia di ignorare: inasprire i limiti sulle piattaforme mainstream potrebbe spingere i minori verso strumenti meno moderati e privi di qualsiasi presidio di sicurezza.
Si tratta del cosiddetto “rischio di spiazzamento”, ovvero il pericolo di scambiare un rischio noto e governato con uno ignoto e potenzialmente peggiore.
Una risposta normativa efficace non può quindi limitarsi a moltiplicare i divieti, ma deve accompagnarli con incentivi strutturali alla progettazione sicura, evitando che la pressione regolatoria espella i minori verso ecosistemi digitali ancora meno trasparenti.
I genitori devono essere messi in condizione di esercitare il loro ruolo non come censori, ma come mediatori, e per farlo hanno bisogno di sistemi che integrino “report di sicurezza emotiva” senza violare la sfera privata del figlio.
La sfida è quella di non permettere che l’IA diventi un cuneo tra generazioni, ma che resti uno strumento la cui pericolosità è nota e gestita.
Non possiamo accettare una società in cui l’unico interlocutore “sicuro” per un adolescente sia un server, mentre il mondo degli adulti viene percepito come un ambiente ostile o assente: il diritto deve proteggere il legame umano come fondamento della cittadinanza.
Chatbot e minori come banco di prova della tutela della crescita
In ultima analisi, la riflessione indotta dai due advisory dell’APA – il primo del giugno 2025 sull’IA e il benessere degli adolescenti, il secondo del novembre 2025 sull’uso di chatbot generativi per la salute mentale – ci porta a interrogarci sul senso profondo della nostra architettura normativa.
Il diritto non serve solo a prevenire danni economici o furti di dati, ma a preservare lo spazio della libertà individuale.
Un adolescente che cresce interfacciandosi prevalentemente con un’IA “non giudicante” rischia di sviluppare una personalità fragile, incapace di gestire la frustrazione, il conflitto e la complessità dei rapporti sociali reali.
Questo “atrofizzarsi relazionale” – che gli esperti dell’APA identificano come un ostacolo strutturale alla formazione di una resilienza autentica – è un danno collettivo che la legge deve prevenire, e che non si esaurisce nella dimensione individuale del pregiudizio psichico, ma si estende alla qualità della vita democratica di una generazione.
L’AI Act e la Legge 132/2025 sono passi importanti, ma non bastano se non accompagnati da una giurisprudenza che sappia riconoscere la peculiarità del “danno psichico da automazione relazionale”.
Dobbiamo pretendere che le aziende che producono chatbot relazionali si assumano un onere di cura (duty of care) che vada oltre la semplice sicurezza informatica, includendo la sicurezza antropologica.
Se permettiamo che i nostri giovani diventino i soggetti di un addestramento algoritmico inverso, dove è l’umano ad adattarsi alla logica binaria della macchina per sentirsi accolto, avremo fallito nella nostra missione di custodi dei diritti fondamentali.
Il compito del giurista nel 2026 è quello di agire come un architetto sociale, costruendo argini che impediscano alla tecnica di esondare nella sfera dell’anima, garantendo che l’intelligenza artificiale resti un’ala e non una prigione.
Solo attraverso una co-regolazione rigorosa, che veda lo Stato imporre limiti invalicabili alla manipolazione affettiva, potremo assicurare che i segreti dei nostri figli rimangano tali e che la loro crescita continui ad essere un percorso fatto di sguardi, di silenzi umani e, sì, anche di quei necessari giudizi che aiutano a diventare grandi in un mondo vero.












