il caso di Venezia

Dipendenza chatbot anche in Italia: una malattia ignorata



Indirizzo copiato

L’8 maggio 2026 una ventenne veneziana è diventata il primo caso italiano documentato di dipendenza da chatbot. La ricerca disponibile descrive un fenomeno mediato da vulnerabilità individuali – solitudine, deficit di regolazione emotiva – più che dall’esposizione tecnologica in sé. Servono risposte proporzionate

Pubblicato il 14 mag 2026

Marco Lazzeri

Cyberpsicologo specializzato in psicologia dei videogiochi, intelligenza artificiale e tecnologie immersive. Membro della società scientifica SIPSIOL e consulente in Video Game Therapy per l’Azienda USL Valle d’Aosta



chatbot terapeutici chatbot e induzione al suicidio
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il primo caso italiano documentato di dipendenza da chatbot ha un volto e una data: una ventenne veneziana, l’8 maggio 2026, presa in carico da un Servizio per le Dipendenze.

La notizia ha attraversato rapidamente i media, tra allarmi e semplificazioni. Ma cosa dice davvero la ricerca scientifica su questo fenomeno? E dove finisce il segnale clinico e inizia il panico morale?


Un segnale clinico da non fraintendere

L’ 8 maggio 2026, dunque, le cronache italiane hanno riportato la notizia di una ventenne in cura presso il SerD dell’ULSS 3 Serenissima di Venezia per un disturbo riconducibile a una dipendenza comportamentale da intelligenza artificiale conversazionale (Fenzo, 2026; Arosio, 2026).

La giovane aveva sviluppato con il chatbot un legame progressivamente esclusivo: si isolava dalle relazioni reali, delegava all’algoritmo decisioni quotidiane e vi cercava conforto emotivo. La responsabile del servizio, la dott.ssa Laura Suardi, ha descritto la dinamica sottostante: man mano che il sistema apprende il profilo dell’utente, le sue risposte diventano sempre più calibrate sulle sue aspettative, rafforzando l’illusione di un legame autentico. Suardi ha inoltre precisato che il caso non rappresenta un episodio isolato, ma la manifestazione visibile di un fenomeno di proporzioni più ampie.

La notizia ha prodotto, prevedibilmente, un ciclo di copertura mediatica orientato all’allarme. Tuttavia, come ha ricordato lo psicoterapeuta Matteo Lancini, presidente della Fondazione Minotauro, la tendenza a stigmatizzare la tecnologia in quanto tale ripropone una dinamica già osservata in passato con i social network e con i videogiochi violenti, trasformati in capri espiatori del disagio giovanile (Bidoli, 2025; Lancini, 2025). La domanda scientificamente più produttiva non è “perché questo ragazzo usa un chatbot?”, ma “perché non trova altrove ciò di cui ha bisogno?”. È in questa prospettiva che il caso veneziano va letto: come segnale clinico precoce che richiede contestualizzazione, non come dato epidemiologico da cui trarre inferenze generalizzabili.

“La domanda da porsi non è ‘perché usa un chatbot?’ ma ‘perché non trova altrove ciò di cui ha bisogno?'”


Dipendenza da chatbot: il punto sul dibattito diagnostico

La sintomatologia osservata nel caso veneziano — bisogno crescente di connessione, difficoltà nell’interruzione delle conversazioni, tentativi reiterati e inefficaci di ridurre l’uso, irritabilità e vissuti di colpa — richiama i criteri diagnostici del gaming disorder riconosciuti dall’Organizzazione Mondiale della Sanità nell’ICD-11 (2019): perdita di controllo sull’attività, prioritizzazione di essa rispetto ad altri interessi e persistenza del comportamento malgrado le conseguenze negative. Ciò colloca il fenomeno all’interno del dominio delle dipendenze comportamentali, pur in assenza di una categoria diagnostica specifica.

Il dibattito nosografico è in rapida evoluzione. Una scoping review pubblicata su AI & Society (Al-Obaydi & Pikhart, 2025), che ha analizzato 14 studi mediante la metodologia PRISMA, conclude che il coinvolgimento eccessivo con l’intelligenza artificiale generativa può mimare una dipendenza comportamentale, ma i quadri clinici osservati non sono ancora sufficientemente consolidati da giustificare una categoria autonoma nel DSM-5-TR o nell’ICD-11. Due contributi recenti — Ciudad-Fernández et al. (2025) su Addictive Behaviors e Kooli et al. (2025) sull’Asian Journal of Psychiatry — hanno proposto il costrutto di Generative AI Addiction Syndrome (GAID), distinguendolo dalle dipendenze digitali passive in ragione della sua natura di coinvolgimento creativo e interattivo, con perdita di controllo, tolleranza e compromissione funzionale. Sul versante della misurazione, Pantic (2025) ha recentemente proposto l’AI Addiction Scale (AIAS-21), strumento self-report a 21 item strutturato attorno a sette costrutti — uso compulsivo, craving, tolleranza, astinenza, preoccupazione, uso persistente nonostante il danno e compromissione funzionale — derivati dai criteri di DSM-5 e ICD-11, pubblicato sull’European Child & Adolescent Psychiatry.

La specificità dei chatbot rispetto ad altre dipendenze digitali risiede nella loro dimensione relazionale. L’algoritmo, privo di giudizio e di complessità, offre un’intimità simulata che può apparire più appagante di una relazione reale, in particolare per chi vive come insostenibili le asimmetrie e le frustrazioni proprie dei legami autentici.


I dati epidemiologici disponibili

I numeri disponibili delineano un fenomeno già significativo nella sua diffusione, anche se la ricerca longitudinale è ancora quasi assente.

Principali evidenze epidemiologiche

  • Il 92,5% degli adolescenti italiani tra 15 e 19 anni utilizza strumenti di IA — il doppio rispetto alla popolazione adulta (Save the Children, 2025)
  • Il 41,8% vi si è rivolto in momenti di tristezza, ansia o solitudine; il 42,8% per ricevere consigli su decisioni importanti
  • Il 13,1% dei giovani americani tra 12 e 21 anni — circa 5,4 milioni di persone — ricorre all’IA generativa per supporto psicologico (McBain et al., 2025)
  • Il 65,5% di questi utenti lo fa almeno una volta al mese; il 92,7% giudica utili i consigli ricevuti
  • Il 72% degli adolescenti americani ha usato chatbot companion; il 31% li considera soddisfacenti quanto o più delle conversazioni con amici reali (Robb & Mann, 2025)

Particolarmente rilevante è l’analisi condotta da Maheux et al. (2026) su JAMA Network Open, che ha utilizzato la metodologia del passive sensing — monitoraggio comportamentale diretto dei dispositivi, senza affidarsi alle dichiarazioni degli utenti — su un campione di 6.488 giovani tra i 4 e i 17 anni. I risultati descrivono una distribuzione d’uso fortemente asimmetrica: la mediana giornaliera è di appena 0,18 minuti, ma una minoranza ristretta supera i 40 minuti quotidiani, con picchi concentrati nei fine settimana. Questa distribuzione a coda lunga indica che il rischio clinicamente rilevante non è uniformemente distribuito nella popolazione adolescenziale, ma tende a concentrarsi in sottogruppi già caratterizzati da vulnerabilità preesistenti.

Nota metodologica: lo studio di McBain et al. (2025) è il primo su campione rappresentativo a livello nazionale negli USA. Il primo autore è Ryan K. McBain (RAND/Harvard); la fonte originale di questo articolo riportava erroneamente “Cantor et al.”, nome del ricercatore corrispondente.


Meccanismi neurobiologici e psicologici

Per comprendere l’attrattiva dei chatbot è necessario esaminare congiuntamente i processi di attaccamento e le dinamiche parasociali.

Attaccamento, regolazione emotiva e relazioni parasociali

Il concetto di relazione parasociale — introdotto da Horton e Wohl nel 1956 per descrivere i legami unidirezionali che i fruitori sviluppano con le figure mediali — si presta efficacemente all’analisi dell’interazione con i chatbot: l’utente investe emotivamente in un’entità che non può ricambiare autenticamente, ma che produce l’illusione di farlo. La distinzione critica rispetto alle tradizionali relazioni parasociali con personaggi televisivi o celebrity è che il chatbot companion risponde, si adatta al profilo dell’utente e simula memoria della relazione: una pseudo-reciprocità che abbassa ulteriormente la soglia di consapevolezza dell’asimmetria. Namvarpour et al. (2026), nell’analisi qualitativa di 318 post su r/CharacterAI scritti da adolescenti tra i 13 e i 17 anni, documentano come questa dinamica possa approfondirsi fino a forme di dipendenza affettiva intensa, con pattern riconducibili a conflitto, tolleranza, astinenza e ricaduta.

Sul versante neurobiologico, è plausibile ipotizzare che alcune caratteristiche dell’interazione con i chatbot companion, ovvero disponibilità costante, responsività apparente e validazione emotiva, possano intercettare sistemi coinvolti nella regolazione emotiva e nell’attaccamento, sebbene manchino evidenze neurobiologiche dirette su popolazioni adolescenziali.

Tuttavia, il chatbot è privo di corpo fisico, stato emotivo autentico e sistema nervoso autonomo. Secondo la Teoria Polivagale (Porges, 2011), la sensazione di sicurezza neurofisiologica — condizione necessaria per l’esplorazione sociale e la costruzione di relazioni — si fonda su segnali viscerali e sociali specifici: contatto visivo, prosodia vocale, espressione facciale, sincronia respiratoria. Questi segnali sono trasmissibili esclusivamente dalla presenza corporea di un altro essere umano. In assenza di tale co-regolazione, l’adolescente rischia di sviluppare schemi di regolazione emotiva dipendenti dall’interazione artificiale, con progressivo indebolimento delle competenze di lettura dei segnali sociali e di negoziazione relazionale (Cozolino, 2014).

La finestra di vulnerabilità neuroevolutiva

Un contributo teorico fondamentale è offerto da Reynolds e Flores (2021), che hanno descritto la maturazione asincrona dei circuiti dopaminergici mesocorticolimbici durante l’adolescenza: i sistemi di ricompensa sottocorticali raggiungono piena funzionalità prima dei sistemi di controllo prefrontale, ancora in sviluppo. Questa finestra di vulnerabilità neuroevolutiva amplifica l’effetto di stimoli sociali gratificanti — compresi quelli veicolati da agenti artificiali — sui processi decisionali e sulla regolazione emotiva. Studi di neuroimaging hanno documentato come l’uso compulsivo delle piattaforme digitali induca alterazioni della connettività fronto-striatale e una ridotta sensibilità dei recettori dopaminergici D2, pattern sovrapponibili a quelli osservati nelle dipendenze da sostanze e nel disturbo da gioco d’azzardo (Weinstein et al., 2017; Sun et al., 2023; Ding et al., 2024). A livello di esiti clinici, una meta-analisi su 52 studi (Waheed et al., 2024) ha documentato un’associazione significativa tra dipendenza da Internet e sintomatologia depressiva in adolescenza; Paterna et al. (2024) hanno rilevato una relazione negativa — di entità modesta ma statisticamente robusta — tra uso problematico dello smartphone e rendimento scolastico.


Differenze di genere nell’uso dei chatbot companion

Le differenze di genere rappresentano una dimensione clinicamente rilevante, finora sottorappresentata nel dibattito pubblico. Lai et al. (2025), in uno studio trasversale con modello di equazione strutturale su 1.379 studenti universitari (età media 21,93 anni; pubblicato su Frontiers in Public Health), hanno documentato che la depressione è positivamente associata all’uso dei chatbot per compagnia, con la solitudine come mediatore significativo: l’effetto di mediazione spiega il 49,72% dell’associazione totale. Il genere modera questa relazione in modo specifico: le donne in stato depressivo tendono a ricorrere ad agenti conversazionali per il supporto emotivo, in ragione di una maggiore sensibilità emotiva e di aspettative più elevate sulla qualità delle interazioni sociali; gli uomini tendono invece a percepirli come strumento per gestire la solitudine con minore investimento emotivo dichiarato. Poiché il campione era composto da giovani adulti, la generalizzabilità a fasce di età più giovani (13–17 anni) rimane da verificare empiricamente. Le differenze di genere identificate costituiscono tuttavia un’ipotesi clinicamente rilevante, con implicazioni dirette per la personalizzazione degli interventi.


Il problema della sicurezza delle piattaforme

Brewster et al. (2025), in un’analisi comparativa di 25 chatbot consumer pubblicata su JAMA Network Open, hanno rilevato che le piattaforme companion — progettate per simulare relazioni affettive — presentano policy di sicurezza per l’autolesionismo significativamente più deboli rispetto agli assistenti generali (46,7% vs. 100% di copertura; p = .008). Meno della metà prevede procedure di verifica dell’età. La valutazione delle risposte ha mostrato punteggi elevati su comprensibilità (81,3%) ed empatia percepita (62,7%), ma significativamente più bassi su appropriatezza clinica (46,7%): un profilo che massimizza l’engagement e minimizza la sicurezza.

L’American Psychological Association ha risposto con due Health Advisory pubblicati nel 2025: uno sull’impatto dell’IA sul benessere adolescenziale in generale, uno specificamente sull’uso di chatbot per la salute mentale. Le raccomandazioni principali includono: trasparenza persistente sull’identità artificiale dell’interlocutore, impostazioni predefinite protettive per i minori (“Safe-by-Default”), divieto di utilizzo dei dati raccolti da minori per scopi pubblicitari, e protocolli strutturati di risposta alle segnalazioni di rischio (APA, 2025). Robb e Mann (2025), nel report di Common Sense Media su un campione rappresentativo di 1.060 adolescenti americani, hanno documentato che Common Sense Media ha raccomandato di sconsigliare l’uso di chatbot companion ai minori di 18 anni in assenza di supervisione clinica. Sul piano normativo europeo, il Regolamento UE 2024/1689 (AI Act), pienamente applicabile dal 2 agosto 2026, introduce obblighi di trasparenza e classificazione basata sul rischio; tuttavia, i chatbot companion per uso consumer non rientrano automaticamente nella categoria ad alto rischio (Allegato III), che copre prevalentemente i contesti educativi istituzionali, lasciando una zona normativa ancora incompleta.


Limiti metodologici della ricerca disponibile

Un primo ordine di limiti attiene alla natura prevalentemente trasversale degli studi disponibili. La rapidità della diffusione tecnologica ha reso finora impossibile condurre osservazioni longitudinali: i disegni che permetterebbero di chiarire la direzionalità delle associazioni tra utilizzo dei chatbot ed esiti psicopatologici — se la solitudine predisponga all’uso intensivo o ne costituisca una conseguenza, o se entrambe le variabili si rafforzino reciprocamente — restano sostanzialmente assenti.

Un secondo limite riguarda la proliferazione di costrutti nosografici con definizioni operazionali non sempre coerenti tra loro (GAID, AI addiction, problematic AI use) e strumenti di misura in fase di validazione iniziale. Il contrasto tra Ciudad-Fernández et al. (2025), favorevoli a una categorizzazione diagnostica distinta, e le posizioni più caute di Al-Obaydi e Pikhart (2025) riflette un dibattito disciplinare ancora aperto. L’AIAS-21 (Pantic, 2025) rappresenta un progresso significativo, ma la sua applicazione a campioni clinici adolescenziali e a popolazioni europee rimane limitata.

Un terzo elemento di cautela emerge dall’eterogeneità dei profili d’uso. Herbener e Damholdt (2025), su 1.599 studenti danesi, hanno rilevato che gli utilizzatori con finalità di supporto sociale presentano livelli di solitudine significativamente più elevati e minor supporto sociale percepito rispetto ai coetanei. Kuhail et al. (2025), tuttavia, documentano che la solitudine non predice direttamente l’intenzione d’uso, mentre la motivazione edonica e il supporto emotivo incrementano la fiducia nei chatbot — un’evidenza che suggerisce l’esistenza di meccanismi motivazionali eterogenei, non riducibili a un’unica traiettoria di vulnerabilità. Va infine segnalata la scarsa rappresentatività geografica della letteratura disponibile, prevalentemente nordamericana e nordeuropea: la generalizzabilità al contesto italiano richiede pertanto cautela.


Implicazioni cliniche, educative e regolatorie

Per i professionisti della salute mentale

I clinici — psicologi, neuropsichiatri infantili e operatori dei SerD — dovrebbero integrare sistematicamente nell’assessment l’esplorazione dell’uso di chatbot companion, analogamente a quanto avviene per i social media e i videogiochi. In attesa di criteri diagnostici specifici, il framework del gaming disorder (ICD-11) fornisce un riferimento provvisorio. L’AIAS-21 (Pantic, 2025) è attualmente lo strumento di screening più strutturato disponibile, con la consapevolezza dei suoi limiti di validazione su popolazioni italiane. Sul piano terapeutico, un approccio centrato sul rafforzamento delle relazioni reali e della regolazione emotiva — più che sull’astinenza tecnologica — è coerente con i modelli consolidati di trattamento delle dipendenze comportamentali. Hawke et al. (2025), in una scoping review su JMIR Mental Health, riconoscono che i chatbot possono ridurre le barriere di accesso per giovani con elevata stigma, ma segnalano l’assenza quasi totale di trial randomizzati controllati su popolazioni adolescenziali cliniche.

Per le scuole e le famiglie

L’educazione digitale deve includere strumenti per riconoscere le dinamiche parasociali: comprendere perché un chatbot risponde sempre nel modo “giusto” e cosa significa questa pseudo-reciprocità dal punto di vista dello sviluppo emotivo. L’APA (2025) segnala come indicatori d’allerta il ritiro sociale, il riferirsi al chatbot come a un amico, e le alterazioni del sonno.

Per i regolatori

Il Regolamento UE 2024/1689 offre una base normativa, ma richiede un intervento mirato sulle piattaforme companion rivolte a minori: verifica obbligatoria dell’età, impostazioni protettive di default, trasparenza sull’identità artificiale dell’interlocutore. Le raccomandazioni APA (2025) possono costituire un modello di riferimento per le specifiche tecniche.


Conclusioni: né allarme né rassicurazione, ma attenzione proporzionata

La vicenda veneziana non abilita l’identificazione di una nuova entità clinica autonoma: si configura come un segnale precoce che richiede approfondimenti teorici ed empirici, non come fondamento per inferenze epidemiologiche generalizzabili. L’assenza di un costrutto nosologico validato e condiviso impone cautela interpretativa, evitando sia la sottovalutazione del fenomeno sia letture eccessivamente patologizzanti.

Le evidenze disponibili convergono nel suggerire che il rischio di uso problematico dei chatbot sia mediato da fattori di vulnerabilità individuale — solitudine, basso supporto sociale percepito, deficit di regolazione emotiva, sintomi depressivi — piuttosto che dall’esposizione tecnologica in sé. Questo inquadramento sposta il focus clinico dal dispositivo al contesto relazionale e neuroevolutivo: è la qualità — e l’assenza — dei legami reali a rendere il chatbot clinicamente rilevante per alcuni adolescenti. La risposta appropriata non è né l’allarme indiscriminato né la rassicurazione facile: è un’attenzione clinica, educativa e regolatoria proporzionata, fondata sull’evidenza disponibile e consapevole dei suoi limiti.

Bibliografia

Al-Obaydi, L. H., & Pikhart, M. (2025). Artificial intelligence addiction: Exploring the emerging phenomenon of addiction in the AI age. AI & Society, 41(2), 1577–1593. https://doi.org/10.1007/s00146-025-02535-z

American Psychological Association. (2025a). Health advisory: Artificial intelligence and adolescent well-being. https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-ai-adolescent-well-being

American Psychological Association. (2025b). Health advisory: Use of generative AI chatbots and wellness applications for mental health. https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-chatbots-wellness-apps

Arosio, P. (2026, 10 maggio). In terapia per dipendenza da intelligenza artificiale: è la prima volta in Italia. La Repubblica. https://www.repubblica.it/tecnologia/2026/05/10/news/in_terapia_per_dipendenza_da_intelligenza_artificiale_e_la_prima_volta_in_italia-425335793/

Bidoli, C. (2025, 28 agosto). Lancini: «Il ragazzo che si è suicidato dopo i colloqui con ChatGPT? Il problema vero è l’assenza di adulti significativi». Corriere della Sera. https://www.corriere.it/salute/figli-genitori/adolescenza/25_agosto_28/lancini-ragazzo-suicida-chatgpt-intervista-6be1d0da-cbe4-47f6-a4d7-4693281c9xlk.shtml

Brewster, R. C. L., Zahedivash, A., Tse, G., Bourgeois, F., & Hadland, S. E. (2025). Characteristics and safety of consumer chatbots for emergent adolescent health concerns. JAMA Network Open, 8(10), e2539022. https://doi.org/10.1001/jamanetworkopen.2025.39022

Ciudad-Fernández, V., von Hammerstein, C., & Billieux, J. (2025). Generative artificial intelligence addiction syndrome: A new behavioral disorder? Addictive Behaviors, 166, 108325. https://doi.org/10.1016/j.addbeh.2024.108325

Cozolino, L. (2014). The neuroscience of human relationships: Attachment and the developing social brain (2nd ed.). W.W. Norton & Company.

Ding, K., Shen, Y., Liu, Q., et al. (2024). The effects of digital addiction on brain function and structure of children and adolescents: A scoping review. Healthcare, 12(1), 15. https://doi.org/10.3390/healthcare12010015

Fenzo, F. (2026, 9 maggio). Malata di intelligenza artificiale, primo caso di dipendenza in cura al SerD. Il Gazzettino. https://www.ilgazzettino.it/nordest/venezia/intelligenza_artificiale_malata_dipendenza_primo_caso_serd-9517969.html

Hawke, L. D., Hou, J., Nguyen, A. T. P., Phi, T., Gibson, J., Ritchie, B., Strudwick, G., Rodak, T., & Gallagher, L. (2025). Digital conversational agents for the mental health of treatment-seeking youth: Scoping review. JMIR Mental Health, 12, e77098. https://doi.org/10.2196/77098

Herbener, A. B., & Damholdt, M. F. (2025). Are lonely youngsters turning to chatbots for companionship? The relationship between chatbot usage and social connectedness in Danish high-school students. International Journal of Human-Computer Studies, 196, 103409. https://doi.org/10.1016/j.ijhcs.2024.103409

Horton, D., & Wohl, R. R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. Psychiatry, 19(3), 215–229. https://doi.org/10.1080/00332747.1956.11023049

Kooli, C., Kooli, Y., & Kooli, E. (2025). Generative artificial intelligence addiction syndrome: A new behavioral disorder? Asian Journal of Psychiatry, 107, 104476. https://doi.org/10.1016/j.ajp.2025.104476

Kuhail, M. A., Mrabet, J., Hijazi, R., & Thomas, J. (2025). Why would I befriend a bot? Assessing factors influencing the usage of social chatbots for digital natives. Human Behavior and Emerging Technologies, 2025, 8825536. https://doi.org/10.1155/hbe2/8825536

Lai, L., Pan, Y., Xu, R., & Jiang, Y. (2025). Depression and the use of conversational AI for companionship among college students: The mediating role of loneliness and the moderating effects of gender and mind perception. Frontiers in Public Health, 13, 1580826. https://doi.org/10.3389/fpubh.2025.1580826

Lancini, M. (2025, 29 ottobre). La dissociazione degli adulti e il disagio giovanile nell’era digitale. Il Punto. https://ilpunto.it/scienza-e-politica/matteo-lancini-dissociazione-degli-adulti-e-il-disagio-giovanile/

Maheux, A. J., Akre-Bhide, S., Boeldt, D., Flannery, J. E., Richardson, Z., Burnell, K., Telzer, E. H., & Kollins, S. H. (2026). Generative artificial intelligence applications use among US youth. JAMA Network Open, 9(2), e2556631. https://doi.org/10.1001/jamanetworkopen.2025.56631

McBain, R. K., Bozick, R., Diliberti, M., Zhang, L. A., Zhang, F., Burnett, A., Kofner, A., Rader, B., Stein, B. D., Mehrotra, A., Uscher-Pines, L., Cantor, J., & Yu, H. (2025). Use of generative AI for mental health advice among US adolescents and young adults. JAMA Network Open, 8(11), e2542281. https://doi.org/10.1001/jamanetworkopen.2025.42281

Namvarpour, M., Brofsky, B., Medina, J. Y., Akter, M., & Razi, A. (2026). Understanding teen overreliance on AI companion chatbots through self-reported Reddit narratives. In Proceedings of the 2026 CHI Conference on Human Factors in Computing Systems (Article 790). ACM. https://doi.org/10.1145/3772318.3790597

Pantic, I. V. (2025). Introducing the AI addiction scale (AIAS-21): A screening tool for problematic AI use. European Child & Adolescent Psychiatry. Advance online publication. https://doi.org/10.1007/s00787-025-02874-8

Paterna, A., Alcaraz-Ibáñez, M., Aguilar-Parra, J. M., Salavera, C., Demetrovics, Z., & Griffiths, M. D. (2024). Problematic smartphone use and academic achievement: A systematic review and meta-analysis. Journal of Behavioral Addictions, 13(2), 313–326. https://doi.org/10.1556/2006.2024.00014

Porges, S. W. (2011). The polyvagal theory: Neurophysiological foundations of emotions, attachment, communication, and self-regulation. W.W. Norton & Company.

Reynolds, L. M., & Flores, C. (2021). Mesocorticolimbic dopamine pathways across adolescence: Diversity in development. Frontiers in Neural Circuits, 15, 735625. https://doi.org/10.3389/fncir.2021.735625

Robb, M. B., & Mann, S. (2025). Talk, trust, and trade-offs: How and why teens use AI companions. Common Sense Media. https://www.commonsensemedia.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions

Save the Children. (2025). Atlante dell’infanzia a rischio 2025: Senza filtri – Voci di adolescenti. https://www.savethechildren.it/blog-notizie/xvi-atlante-dellinfanzia-ladolescenza-tra-solitudine-disuguaglianze-e-ai

Sun, J.-T., Hu, B., Chen, T.-Q., Chen, Z.-H., Shang, Y.-X., Li, Y.-T., Wang, R., & Wang, W. (2023). Internet addiction-induced brain structure and function alterations: A systematic review and meta-analysis of voxel-based morphometry and resting-state functional connectivity studies. Brain Imaging and Behavior, 17, 329–342. https://doi.org/10.1007/s11682-023-00762-w

Waheed, H., Macaulay, P. J. R., Al-Jaifi, H. A. A., Allen, K.-A., & She, L. (2024). Caught in the web: A meta-analysis of Internet addiction, excessive daytime sleepiness and depressive symptoms in adolescents. Information Technology & People, 37(8), 109–129. https://doi.org/10.1108/ITP-07-2023-0676

Weinstein, A., Livny, A., & Weizman, A. (2017). New developments in brain research of internet and gaming disorder. Neuroscience & Biobehavioral Reviews, 75, 314–330. https://doi.org/10.1016/j.neubiorev.2017.01.040

World Health Organization. (2019). ICD-11: Gaming disorder. Classificazione internazionale delle malattie, 11ª revisione. https://icd.who.int

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x