La dipendenza emotiva dall’intelligenza artificiale non è più solo un’ipotesi teorica: è un fenomeno documentato da ricerche su migliaia di utenti, con effetti misurabili sul benessere e sulla qualità delle relazioni reali. Capire come funziona questo meccanismo è il primo passo per affrontarlo con lucidità.
Indice degli argomenti
Il comfort dell’interlocutore infinitamente disponibile
C’è qualcosa di comprensibile, quasi ovvio, nel fatto che si parli con un chatbot quando si è soli. Non giudica, non si stanca, non ha fretta. È disponibile alle tre di notte, non ha a sua volta una brutta giornata alle spalle, non si irrita se si ripete la stessa preoccupazione per la quarta volta, non sovrasta con le proprie considerazioni, non necessita di accoglienza, posto che l’accoglienza sia un problema. Risponde sempre, e risponde con una evidente cura.
Per chi ha attraversato un momento di isolamento — una malattia, un trasferimento in una città nuova, una separazione, una di quelle fasi in cui il tessuto sociale si assottiglia — questa disponibilità costante può sembrare una piccola grazia. Un punto di ancoraggio che, peraltro e forse soprattutto, concede anche un’altra enorme comodità: il non essere giudicati e il non dover affrontare lo sguardo interlocutorio di un’altra persona.
Ma è davvero una comodità? O ci perdiamo davvero, come in molti sostengono intuitivamente, una buona parte di quel che una relazione interpersonale fa crescere e strutturare in noi?
Cosa dicono i dati: lo studio MIT/OpenAI e non solo
MIT Media Lab e OpenAI avevano già condotto in passato uno studio su 981 partecipanti nell’arco di quattro settimane, raccogliendo oltre 300.000 messaggi scambiati con chatbot AI. I risultati, pubblicati alcuni mesi fa, mostrano una correlazione chiara e preoccupante: chi usa i chatbot in modo intensivo quotidiano sviluppa nel tempo maggiore solitudine, una dipendenza emotiva più marcata verso il sistema e, soprattutto, una riduzione della socializzazione reale. Non è una correlazione marginale: si tratta di un segnale abbastanza robusto da non poter essere derubricato come semplice artefatto statistico.
Uno studio parallelo condotto da Zhang e colleghi ancora nel 2025 su 1.100 utenti aggiunge un dettaglio importante: sono le persone già con relazioni umane più rarefatte quelle che si rivolgono più frequentemente ai chatbot. La vulnerabilità, cioè, precede l’uso intensivo e per certi versi rappresenta uno scivolo verso lo stesso. Ma è ciò che avviene dopo che rende la questione più complessa: l’auto-rivelazione emotiva all’IA — il fatto di condividere con il sistema stati d’animo profondi, paure, pensieri intimi — risulta associata non a un miglioramento del benessere, ma a punteggi inferiori su diverse scale di benessere soggettivo.
Il meccanismo che potrebbe delinearsi concretamente è quello di un sostituto che perpetua la solitudine mentre apparentemente sembra curarla.
Il dato danese: una percentuale piccola, un segnale grande
Su questa stessa lunghezza d’onda si inserisce un dato danese, emerso nell’ambito di ricerche sul benessere degli studenti universitari: il 2,44% degli intervistati dichiara di usare chatbot come supporto emotivo primario, e questo gruppo risulta significativamente più isolato rispetto agli altri coetanei. La percentuale, presa da sola, potrebbe sembrare tutto sommato contenuta, anche se oltre 2 persone ogni 100, se si pensa a corpi in carne e ossa, non sono affatto un dato banale. Ad ogni modo, occorre ricordare che si tratta di un fenomeno recente, e la direzione del trend è quella che merita attenzione.
Il circolo vizioso della dipendenza emotiva dai chatbot
Per capire perché succede questo, vale la pena fermarsi un momento sulla struttura dell’interazione con un chatbot emotivo.
Quando condividiamo qualcosa di personale con un’altra persona — un’emozione, una difficoltà — si innesca un processo bidirezionale. L’altro ascolta, ma anche porta se stesso: la propria esperienza, le proprie reazioni, il proprio giudizio. A volte questo è scomodo. A volte ci dice qualcosa che non volevamo sentire, o non capisce del tutto ciò che proviamo, o risponde in modo che ci delude. Questo attrito, però, è parte integrante di ciò che rende le relazioni umane nutrienti. Il disagio non è un difetto del sistema: è la frizione che produce crescita.
Un chatbot, per sua natura, ottimizza il contrario. È progettato per essere convalidante, empatico, non giudicante, e mettere in campo pattern. Offre un ascolto senza resistenza, spesso perpetuando schemi di “intervista da psicoterapeuta” da manuale e tutto sommato piuttosto prevedibili a un occhio attento. È come nuotare in una piscina invece che in mare aperto: meno faticoso e magari divertente, ma non prepara affatto alle onde vere o a un mare in tempesta.
Il rischio, documentato nello studio MIT/OpenAI, è che questo comfort senza attrito diventi progressivamente preferibile alla complessità delle relazioni reali ma, al contempo, ne tolga il succo che nutre la nostra capacità di muoverci nel mondo e attivare le emozioni, anche quelle più forti e scomode. Si entra in un circolo vizioso in cui il chatbot riduce la soglia di tolleranza all’imperfezione delle relazioni umane, rendendo queste ultime ancora meno frequentate — il che, a sua volta, aumenta il senso di solitudine, che a sua volta aumenta il ricorso al chatbot.
La “folie à deux” tecnologica: quando il confine tra umano e AI sfuma
C’è un fenomeno ancora più estremo che la letteratura clinica ha cominciato a documentare, e che merita di essere nominato anche se riguarda casi psichiatrici specifici, non l’utente medio. Dohnány e colleghi, in un articolo recente, descrivono casi di “technological folie à deux”: situazioni in cui pazienti vulnerabili sviluppano credenze condivise e sistemi deliranti costruiti intorno all’interazione prolungata con sistemi AI. La denominazione è mutuata dalla psicopatologia classica — la folie à deux è tradizionalmente una psicosi condivisa tra due persone — e viene qui applicata alla dinamica tra un essere umano e un’intelligenza artificiale che, percepita come presenza reale, diventa il nucleo attorno a cui si struttura un sistema delirante.
Questi casi sono per ora circoscritti a pazienti con preesistente fragilità psichiatrica. Non si tratta di un rischio generalizzato. Eppure, la loro emersione segnala qualcosa che va oltre la clinica: che il confine tra interlocutore reale e sistema di risposta automatica può, in certe condizioni, sfumare in modo tale da produrre effetti psicologicamente significativi. E che la qualità del dialogo — la sua coerenza, la sua reattività, la sua apparente empatia — può essere sufficiente a innescare dinamiche relazionali che il cervello umano non distingue agevolmente da quelle con un’altra persona.
Sintomo o cura? Una distinzione necessaria
Tutto questo pone una domanda che è diventata centrale nel dibattito accademico e che, prima o poi, arriverà anche nelle conversazioni pubbliche: i chatbot emotivi sono un sintomo dell’epidemia di solitudine, una sua possibile cura, oppure un fattore che la aggrava?
La risposta onesta (come scriverebbe un chatbot) è: probabilmente tutte e tre le cose, a seconda del contesto e dell’uso.
Tre modalità d’uso, tre effetti diversi
Come sintomo, il successo crescente dei chatbot companion riflette qualcosa di più profondo: la solitudine strutturale che caratterizza le società occidentali contemporanee. Il fatto che milioni di persone cerchino conforto in un sistema automatizzato non parla di un difetto tecnologico; parla di un deficit relazionale reale, che esisterebbe indipendentemente dall’esistenza dei chatbot. La tecnologia, in questo senso, rivela un problema che c’era già.
Come cura parziale e transitoria, i chatbot possono avere un ruolo legittimo in contesti specifici: per chi attraversa momenti di isolamento acuto e temporaneo, per chi non ha accesso immediato a supporto professionale, per chi ha bisogno di elaborare un pensiero prima di portarlo a una conversazione umana. Usati con consapevolezza e senza sostituire le relazioni, possono essere uno strumento utile.
Come fattore di aggravamento, però, emergono con chiarezza quando l’uso diventa intensivo, abituale e sostitutivo: un tema che diventa particolarmente rilevante se si pensa che l’approccio “chatbot” all’AI può ormai considerarsi quasi obsoleto, a fronte di infrastrutture decisamente più articolate e complesse che potrebbero ulteriormente intervenire in modo profondo su tutti gli aspetti descritti sopra.
La domanda a cui i dati non rispondono
I dati che abbiamo fin qui citato non ci dicono, però, qualcosa di altrettanto importante: perché siamo così affamati di ascolto che siamo disposti a cercarlo in un sistema che non ascolta davvero.
La solitudine non è certo un’invenzione recente, ma la sua intensità contemporanea ha qualcosa di più specifico. Senza voler entrare in modo troppo verticale in campi per cui occorre una formazione specifica, è piuttosto facile notare quanto ormai viviamo in un’epoca di iperconnettività superficiale e rarità di connessione profonda, dove una simulazione di empatia senza tutte le sue complicazioni può effettivamente risultare un morbidissimo riparo.
Chiedersi cosa significhi progettare tecnologie che si inseriscano in un vuoto relazionale senza contribuire a colmarlo, o peggio rischino di approfondirlo, diventa un esercizio molto rilevante da svolgere. È una responsabilità che appartiene ai progettisti, certo, ma anche alle piattaforme, alle politiche pubbliche, e in ultima analisi a ciascuno di noi come utenti.
L’AI è senz’altro dannatamente utile. Il punto è ancora che ciò che ci serve come strumento, potrebbe non essere ciò di cui abbiamo bisogno come individui che si relazionano al mondo e alla sua complessità.












