Mark Zuckerberg, CEO di Meta, a maggio ha affermato che in futuro avremo tutti un chatbot come amico. La sua visione nasce dalla constatazione che molte persone, soprattutto negli Stati Uniti, hanno pochi amici stretti (meno di tre in media) ma desiderano molte più connessioni sociali, circa quindici.
Per colmare questo vuoto affettivo, Zuckerberg propone l’uso di intelligenze artificiali sempre più sofisticate, capaci di comportarsi come veri amici digitali con personalità personalizzate, con cui discutere, confidarsi e interagire quotidianamente.
La solitudine non è solo una condizione individuale, è un fenomeno strutturale che incide sul benessere collettivo: il Surgeon General degli Stati Uniti l’ha definita un’”epidemia sociale”, paragonabile per impatto alle principali minacce sanitarie e associata a un aumento del rischio di mortalità del 30% (Fang et al., 2025).
È in questo contesto che i chatbot conversazionali iniziano a essere utilizzati anche come presenze relazionali. E ciò deriva dal modo in cui sono progettati: replicano dinamiche comunicative sempre più credibili e danno luogo a scambi percepiti come empatici, personalizzati, persino intimi (Fang et al., 2025; Mengying Fang et al., 2025).
Proprio la capacità di simulare una relazione impone di interrogarsi su cosa intendiamo oggi per legame, vicinanza e reciprocità.
Ma l’interazione prolungata e non mediata può innescare forme di dipendenza affettiva e contribuire all’erosione dei legami reali, secondo dinamiche non troppo lontane da quelle osservate nelle relazioni disfunzionali tra persone (Mengying Fang et al., 2025). I rischi più estremi riguardano lo sviluppo di dipendenza affettiva e la progressiva sostituzione delle relazioni umane.
Ma quali sono le dinamiche psicologiche e sociali che si innescano quando l’uso dei chatbot diventa parte della nostra quotidianità?
Indice degli argomenti
Cosa accade quando parliamo ogni giorno con un chatbot
Cosa succede quando una persona interagisce ogni giorno con un chatbot come ChatGPT, che riesce a simulare dinamiche conversazionali sempre più vicine a quelle umane? Due studi sperimentali recenti hanno cercato di rispondere a questa domanda tanto semplice quanto cruciale; in entrambi i casi, sono stati coinvolti campioni ampi di circa mille persone ciascuno invitate a conversare quotidianamente per almeno ventotto giorni consecutivi.
Nel setting sperimentale, le interazioni variavano per modalità (testuale, vocale con tono neutro, vocale con tono caldo e espressivo) e per contenuti (conversazioni aperte, personali o neutre), con l’obiettivo di osservare come queste variabili influenzassero aspetti fondamentali della vita psicosociale: dalla percezione della solitudine alla qualità della socializzazione reale, fino alla dipendenza emotiva e all’eventuale uso problematico dell’intelligenza artificiale.
Oltre alla varietà delle modalità analizzate, questi studi si distinguono per l’attenzione al fattore tempo: non si limitano a valutare l’impatto immediato dell’interazione, ma anche cosa accade quando una presenza artificiale entra nella quotidianità emotiva di una persona.
Perché il punto non è semplicemente quanto un chatbot riesca a sembrare empatico quanto cosa cambia quando iniziamo a trattarlo come se lo fosse davvero.
Testo, voce e forme della dipendenza emotiva
Le interazioni vocali, in particolare quelle con tono caldo ed espressivo, sembrano inizialmente più efficaci nel ridurre il senso di isolamento. Tuttavia, con il passare del tempo, questo effetto tende ad affievolirsi, fino a scomparire o addirittura invertirsi. La voce neutra, invece, risulta la più problematica: è associata a un aumento dei comportamenti disfunzionali rispetto alla modalità testuale.
Anche il contenuto delle conversazioni ha un ruolo rilevante. I dialoghi personali, pur accompagnati da un lieve incremento iniziale della solitudine, nel tempo contribuiscono a ridurre la dipendenza emotiva e la difficoltà nel regolare l’interazione.
Le conversazioni neutre, al contrario, sono quelle che più frequentemente conducono a una dipendenza marcata, soprattutto se mantenute a lungo.
Curiosamente, i chatbot basati su testo, sebbene meno “umani” nella forma, suscitano risposte emotive più intense rispetto alle modalità vocali. In generale, con il protrarsi dell’interazione quotidiana emergono dinamiche ricorrenti: la solitudine percepita e la dipendenza affettiva tendono ad aumentare, mentre la socializzazione reale si riduce; un andamento che si osserva trasversalmente, indipendentemente dalla modalità o dal contenuto delle conversazioni (Fang et al., 2025; Mengying Fang et al., 2025).
Profili e caratteristiche individuali
La percezione soggettiva del chatbot come interlocutore relazionale amplifica ulteriormente i rischi: infatti gli utenti che attribuiscono caratteristiche di empatia o che lo percepiscono “come un amico” mostrano livelli più elevati di dipendenza emotiva e una riduzione significativa della socializzazione reale.
Gli studi analizzati individuano quattro profili che corrispondono a quattro pattern comportamentali, ognuno caratterizzato da un diverso equilibrio tra relazione umana e relazione artificiale.
- Il primo, definito socialmente vulnerabile, descrive utenti che riportano livelli elevati di solitudine e un’intensa ricerca di supporto emotivo;
- il secondo, identificato come tecnologicamente dipendente, raggruppa individui che sviluppano una forte dipendenza dall’uso del chatbot, pur senza instaurare un vero coinvolgimento emotivo.
- Segue poi il profilo distaccato, che descrive persone con basso coinvolgimento emotivo ma con un livello di socializzazione reale relativamente alto, capaci dunque di mantenere una distanza critica rispetto all’interazione artificiale.
- Infine, il pattern casuale riguarda coloro che si limitano a conversazioni leggere e occasionali e che non manifestano particolari segnali di dipendenza o alterazioni del benessere psicosociale (Fang et al., 2025; Mengying Fang et al., 2025).
Progettare l’intelligenza artificiale con responsabilità
Queste evidenze invitano a ripensare il design dei chatbot conversazionali. Si tratta di sistemi che dovrebbero sostenere gli utenti e fornirgli supporto ma non fino al punto da trasformare l’interazione in un legame affettivo rigido o disfunzionale. L’ideale sarebbe integrare strumenti capaci di monitorare nel tempo l’intensità e la qualità dell’interazione, in modo da individuare tempestivamente segnali di uso problematico, dipendenza o isolamento emotivo, soprattutto tra gli utenti più vulnerabili. Intercettare queste dinamiche fin dalle prime fasi rappresenta un passaggio cruciale per contenere il rischio di aggravare fragilità psicologiche preesistenti.
Parallelamente, occorre costruire una alfabetizzazione critica che aiuti gli utenti a riconoscere i propri schemi di coinvolgimento e a mantenere una distanza consapevole, condizione imprescindibile per garantire un utilizzo sano e consapevole di questi strumenti.
L’intelligenza artificiale non è, né dovrebbe essere, un surrogato nocivo delle relazioni reali; semmai può essere un sostegno, un supporto, un alleato. Ma non può sostituire la profondità, la reciprocità e la complessità delle relazioni umane. Nell’era dell’intelligenza artificiale relazionale rimane fondamentale riconoscere e preservare il valore insostituibile delle relazioni umane.
Bibliografia
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Randomized Controlled Study. MIT Media Lab & OpenAI.
Mengying Fang, C., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., Maes, P., Phang, J., Lampe, M., Ahmad, L., & Agarwal, S. (2025). Investigating Affective Use and Emotional Well-being on ChatGPT. MIT Media Lab & OpenAI.