Oltre 400 milioni di persone usano ChatGPT ogni settimana. Ma che impatto ha questa interazione sul nostro benessere emotivo? OpenAI, in collaborazione con il MIT Media Lab, ha provato a rispondere a questa domanda attraverso due studi paralleli e complementari, da poco resi pubblici. L’obiettivo: comprendere se e come interagire con un chatbot possa influenzare solitudine, socializzazione, dipendenza emotiva e uso problematico della tecnologia.
Indice degli argomenti
Le ipotesi di partenza degli studi su Chatgpt e benessere emotivo
Entrambi gli studi partono dall’osservazione che l’interazione con chatbot come ChatGPT, pur concepita come supporto alla produttività, può assumere una dimensione più intima ed emotiva.
La crescente adozione della modalità vocale e la capacità del modello di rispecchiare emozioni umane (mirroring, tono empatico, linguaggio personale) solleva interrogativi sull’impatto psicologico dell’esperienza conversazionale con un’AI. Nel paper di OpenAI, intitolato “Investigating Affective Use and Emotional Well-being on ChatGPT“ e pubblicato da poco, si ipotizza che un sottoinsieme di utenti possa sviluppare forme di “uso affettivo” del modello, che si manifestano in richieste di conforto, uso di linguaggio emotivo, attribuzione di tratti umani e dipendenza percepita. Questi pattern sarebbero più frequenti tra i cosiddetti “power users” (utenti che interagiscono per molte decine di minuti al giorno, spesso via voice mode avanzata), come rilevato da un’analisi su oltre 4 milioni di conversazioni reali e ulteriormente approfondito tramite uno studio randomizzato di 28 giorni.
Lo studio del MIT Media Lab, intitolato “How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Controlled Study” (https://arxiv.org/pdf/2503.17473) anche questo di recentissima pubblicazione, assume invece una prospettiva sperimentale e si propone di verificare se e come cambiano gli indicatori di benessere emotivo (solitudine, socializzazione, dipendenza, uso problematico) in funzione della modalità di interazione (voce vs testo), del tipo di contenuto (personale vs strumentale) e della configurazione della voce (neutra vs coinvolgente). In entrambi i casi, l’ipotesi è che, a fronte di potenziali benefici come il sollievo momentaneo o la sensazione di compagnia, l’uso prolungato e affettivamente carico di ChatGPT possa avere effetti ambivalenti o addirittura problematici su specifici segmenti di utenti.
Il genere, lo stato emotivo di partenza, il tipo di personalizzazione e la durata dell’interazione vengono indicati come possibili fattori differenzianti. Le ricerche si fondano su osservazioni condivise e validate in letteratura, ma articolano tali intuizioni in modo più strutturato e differenziato. Il lavoro di OpenAI, analizzando milioni di conversazioni e dati auto-riferiti, parte dall’assunto che l’interazione con chatbot avanzati possa progressivamente assumere tratti affettivi, pur non essendo progettata per farlo.
Lo studio del MIT, basato invece su un disegno sperimentale longitudinale, esplora come diverse modalità di interazione e contenuti influenzino dimensioni come solitudine, dipendenza e benessere emotivo.
Entrambi i lavori si collocano nel solco di una domanda cruciale: le AI conversazionali, diventando sempre più umane nella forma, possono innescare meccanismi emotivi non intenzionali? E con quali effetti nel tempo?
Due approcci complementari nell’analisi del legame tra AI e solitudine
I due studi adottano approcci metodologicamente differenti ma complementari, offrendo una panoramica articolata e convergente sull’uso affettivo di ChatGPT. Lo studio di OpenAI, “Investigating Affective Use and Emotional Well-being on ChatGPT”, si concentra su una duplice strategia: da un lato l’analisi automatizzata di oltre 4 milioni di conversazioni sulla piattaforma ChatGPT, condotta tramite una serie di classificatori semantici sviluppati ad hoc (EmoClassifiersV1); dall’altro, un sondaggio su oltre 4.000 utenti e uno studio controllato randomizzato (RCT, ovvero Randomized Controlled Trial), su 981 partecipanti della durata di 28 giorni.
Gli EmoClassifiersV1 sono una serie di strumenti sviluppati da OpenAI per analizzare automaticamente milioni di conversazioni con ChatGPT. Questi classificatori identificano segnali di coinvolgimento emotivo, come l’uso di linguaggio affettuoso, richieste di supporto, espressioni di solitudine o dipendenza, e attribuzione di tratti umani al chatbot. In pratica, permettono di capire — su larga scala — quando e come gli utenti instaurano un legame affettivo con l’IA.L’RCT è una metodologia sperimentale rigorosa che prevede l’assegnazione casuale dei partecipanti a diverse condizioni per isolare gli effetti di una variabile specifica. In questo caso, lo scopo era individuare segnali di uso affettivo (linguaggio emotivo, richieste di supporto, dipendenza) e valutare l’eventuale correlazione con stati di solitudine o minor socializzazione. I dati mostrano che solo una minoranza di utenti sviluppa interazioni affettive, ma questi utenti tendono a essere molto attivi, spesso tramite la modalità vocale avanzata, e segnalano più spesso un attaccamento emotivo al modello.
Il lavoro del MIT Media Lab, “How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use”, si configura invece come uno studio sperimentale longitudinale, anch’esso su 981 partecipanti, condotto in condizioni controllate per quattro settimane. Ogni utente era invitato a utilizzare ChatGPT quotidianamente per almeno cinque minuti, con variabili sperimentali legate alla modalità di interazione (testo, voce neutra, voce coinvolgente) e al tipo di contenuto suggerito (domande personali, impersonali, libere). Il protocollo prevedeva la misurazione di quattro indicatori principali: solitudine, socializzazione, dipendenza emotiva e uso problematico del chatbot.
Questo disegno ha permesso di valutare gli effetti cumulativi e differenziali delle diverse modalità di relazione con l’IA, evidenziando ad esempio come le interazioni vocali con tono coinvolgente inizialmente migliorassero il benessere, ma nel tempo potessero portare a maggiore dipendenza e solitudine, soprattutto nei soggetti più vulnerabili. Insieme, i due studi offrono un quadro ricco e sfaccettato, capace di unire la forza dell’osservazione su larga scala con la precisione del controllo sperimentale, gettando le basi per un nuovo filone di ricerca sul rapporto tra intelligenza artificiale conversazionale e benessere umano.
I risultati delle ricerche su chatgpt e solitudine
Dai risultati emersi nell’analisi condotta da OpenAI, si evidenzia che solo una piccola percentuale di utenti manifesta segnali espliciti di coinvolgimento affettivo con ChatGPT.
Questa minoranza rappresenta una parte significativa del traffico più intenso sulla piattaforma. Questi utenti, identificati come “power users”, interagiscono spesso per periodi prolungati, anche mezz’ora al giorno, e tendono a stabilire un rapporto percepito come personale con il modello.
Le analisi automatizzate delle conversazioni, effettuate con la suite EmoClassifiersV1, hanno rilevato la presenza di linguaggi affettuosi, espressioni di vulnerabilità e una crescente richiesta di supporto emotivo, soprattutto tra chi dichiarava di considerare ChatGPT un “amico”. Le conversazioni vocali, in particolare nella modalità avanzata, mostrano una maggiore incidenza di questi segnali rispetto alle interazioni testuali. Anche nella modalità solo testo, molti utenti attivano classificatori legati a forme di dipendenza e attribuzione di tratti umani al chatbot. L’effetto risulta più pronunciato tra coloro che iniziano l’interazione con un senso di solitudine preesistente.
Il lavoro del MIT Media Lab conferma e arricchisce queste evidenze. Nello studio sperimentale, i partecipanti sono stati assegnati casualmente a diverse configurazioni del modello (testo, voce neutra, voce coinvolgente) e a tipologie di conversazione (personale, impersonale, aperta).
Le analisi condotte al termine delle quattro settimane mostrano che, se da un lato ChatGPT può effettivamente ridurre la solitudine percepita, dall’altro tende anche a diminuire la propensione alla socializzazione reale. Questo effetto è particolarmente accentuato nei gruppi che hanno interagito con una voce coinvolgente o di genere opposto rispetto al proprio. L’effetto inizialmente positivo della voce più empatica si attenua col tempo, lasciando spazio a segnali di maggiore dipendenza emotiva.
Le conversazioni di tipo personale, contrariamente a quanto atteso, sono risultate associate a un aumento della solitudine, forse per la natura riflessiva del contenuto. Al contrario, quelle impersonali hanno mostrato un incremento nella dipendenza dal modello, suggerendo una funzione di intrattenimento o compensazione emotiva. Inoltre, il genere dei partecipanti ha avuto un ruolo significativo: le donne, in media, hanno riportato una maggiore riduzione della socializzazione e un aumento della dipendenza rispetto agli uomini. Nel complesso, entrambi gli studi sottolineano la presenza di una relazione complessa e non lineare tra interazione con ChatGPT e benessere emotivo. L’effetto varia sensibilmente in base alla frequenza d’uso, alla modalità di interazione, alla configurazione della voce e alle caratteristiche individuali degli utenti, delineando un panorama che richiede ulteriori indagini e una riflessione responsabile sul design di queste tecnologie.
Prospettive future sull’impatto emotivo e psicosociale dei chatbot conversazionali
Questi studi rappresentano un primo tentativo sistematico di misurare l’impatto emotivo e psicosociale dei chatbot conversazionali. Un ulteriore spunto interessante proviene da un altro studio recente del MIT Media Lab, condotto insieme alla UCLA e a KASIKORN Labs, intitolato Future You: A Conversation with an AI-Generated Future Self (https://arxiv.org/abs/2405.12514). In questo caso, l’interazione con un chatbot non è lasciata al caso, ma progettata per essere profondamente personale: l’utente dialoga con una versione di sé stesso proiettata nel futuro, generata con modelli linguistici e un’immagine digitalmente invecchiata. I risultati mostrano un netto miglioramento del benessere emotivo, una riduzione dell’ansia e un rafforzamento del legame con il proprio futuro. Questo esperimento dimostra che la stessa tecnologia conversazionale che in certi casi può generare dipendenza, se progettata consapevolmente, può invece aumentare l’autoconsapevolezza, l’equilibrio e l’orientamento al futuro. L’interazione con l’AI non è più soltanto uno strumento, ma può diventare una componente della vita relazionale di molte persone, soprattutto in condizioni di fragilità o isolamento. Le piattaforme che progettano queste tecnologie hanno quindi una responsabilità crescente nell’assicurare interazioni sane, trasparenti e non manipolative. Allo stesso tempo, questi dati possono aiutare a sviluppare linee guida educative, strumenti di monitoraggio del benessere digitale, e modelli di interazione consapevole. Non è la tecnologia in sé a creare dipendenza o solitudine, ma il modo in cui viene vissuta, progettata e regolata. Comprendere meglio questi meccanismi è essenziale per orientare l’innovazione verso una vera sostenibilità umana e sociale.