società digitale

Chatbot come confidenti: ma si può davvero fare amicizia con un’AI?



Indirizzo copiato

I chatbot relazionali stanno ridefinendo la vita affettiva contemporanea. La ricerca mostra benefici reali — riduzione della solitudine, supporto emotivo — ma anche rischi: dipendenza, assenza di reciprocità, impoverimento delle competenze sociali. Un fenomeno che interroga l’intera esperienza umana

Pubblicato il 3 mar 2026

Davide Bennato

professore di Sociologia dei media digitali all’Università di Catania



chatbot relazionali

Negli ultimi anni l’intelligenza artificiale ha iniziato a uscire dallo spazio esclusivamente simbolico degli schermi per assumere una presenza materiale e quotidiana.

Dalla scrivania al salotto: i robot progettati per “esserci”

Come osservato al CES 2026, una parte crescente dell’innovazione non riguarda più robot progettati per svolgere compiti specifici, ma dispositivi pensati per “esistere” accanto agli esseri umani, offrendo una forma di compagnia più che di utilità (Hart, 2026).

Questi oggetti – robot da scrivania, piccoli umanoidi domestici, animali artificiali – non promettono efficienza o produttività, bensì una presenza costante, rassicurante, talvolta affettiva. La loro funzione principale non è ciò che fanno, ma il fatto stesso di “esserci”, normalizzando l’idea di una compagnia artificiale integrata nella vita quotidiana (Hart, 2026).

Tale normalizzazione è resa possibile da un design fortemente orientato all’antropomorfizzazione. Estetiche “cute”, occhi grandi e comportamenti ispirati all’immaginario Pixar o a figure come WALL·E sollecitano processi di proiezione emotiva e attaccamento, indipendentemente dalla reale sofisticazione dell’AI sottostante (Hart, 2026). In questo senso, l’intelligenza artificiale diventa quasi secondaria rispetto all’esperienza relazionale percepita: ciò che conta non è tanto la capacità cognitiva della macchina, quanto la sua abilità di attivare risposte affettive e di rendere familiare la propria presenza. Il risultato è una progressiva accettazione culturale dell’AI come compagnia ordinaria, più che come strumento eccezionale (Hart, 2026).


Relazioni senza attrito: il modello economico dei companion AI

Questa traiettoria trova una continuità inquietante con quanto già avvenuto nel mondo delle piattaforme digitali. Secondo The Atlantic, i chatbot relazionali rappresentano una nuova fase di tecnologie intrinsecamente antisociali: relazioni “senza attrito”, prive di reciprocità, conflitto e richiesta, che offrono all’utente una validazione continua senza le frizioni tipiche dell’interazione umana (Beres, 2025). A differenza delle relazioni sociali, i chatbot non si stancano, non dissentono, non pongono limiti, configurandosi come specchi compiacenti piuttosto che come veri interlocutori. In questo quadro, l’amicizia artificiale rischia di diventare una conversazione infinita con sé stessi (Beres, 2025).

Il problema è acuito dalle logiche economiche che governano questi sistemi. Molti companion AI, soprattutto quelli esplicitamente emotivi o sessualizzati, utilizzano meccanismi di gamification, memorie personali e progressioni relazionali per incentivare l’attaccamento e il ritorno continuo dell’utente (Beres, 2025). L’obiettivo non è la qualità della relazione, ma l’engagement, in una dinamica che replica e radicalizza i modelli dei social media. In questo senso, la compagnia artificiale non corregge la solitudine prodotta dalle piattaforme, ma la monetizza in forme nuove e più intime (Beres, 2025).


Un’industria globale dell’affetto artificiale

È su questo sfondo che notiamo l’emergere di una vera e propria industria globale degli AI companions. Ciò che fino a poco tempo fa apparteneva alla fantascienza è oggi un mercato in rapida espansione, alimentato da modelli linguistici sempre più capaci di simulare empatia, ricordare dettagli personali e adattarsi alle preferenze dell’utente (The Economist, 2025). Questa capacità di “riconoscere” e rispondere in modo personalizzato produce un forte senso di essere visti e ascoltati, spesso percepito come più affidabile delle relazioni umane.

Tuttavia, la posta in gioco non è solo tecnologica o economica, ma profondamente antropologica.

La diffusione di relazioni amicali e affettive con entità artificiali rischia di ridefinire aspettative, pratiche e competenze relazionali, creando ambienti di validazione permanente e riducendo l’esposizione al dissenso e alla complessità dell’altro (The Economist, 2025). Il rischio ultimo non è la sostituzione totale delle relazioni umane, ma un loro progressivo impoverimento: un’umanità sempre più accompagnata, rassicurata e assistita da macchine che, nel promettere compagnia, potrebbero contribuire a disinnescare alcune delle dimensioni più essenziali dell’esperienza sociale.


Interazioni significative o semplici copie? Il punto della relationship science

In questo scenario, la domanda chiave che dobbiamo porci è la seguente: quando interagiamo con un chatbot, le nostre interazioni possono essere considerate significative come quelle che facciamo con le altre persone o – come sostengono i critici – sono da considerare come delle semplici copie delle interazioni sociali e pertanto socialmente ed emotivamente insignificanti? Per rispondere a questa domanda torna molto utile la rassegna di Smith, Bradbury e Karney (2025).

Il quadro teorico: intimità, interdipendenza e self-expansion

Il quadro teorico dell’articolo si fonda sulla tradizione della relationship science, disciplina che da decenni analizza i processi che definiscono, sostengono e trasformano le relazioni umane (Bradbury & Karney, 2024: 2). Gli autori si rifanno a contributi classici che stabiliscono i criteri minimi per definire una relazione interpersonale: secondo Thibaut & Kelley (1959: 3), l’elemento chiave è l’interdipendenza, ossia l’influenza reciproca che i partner esercitano l’uno sull’altro. Tuttavia, per distinguere le relazioni davvero strette da quelle più superficiali, Kelley et al. (1983: 3) precisano che tale influenza deve essere forte, diversificata, frequente e durevole nel tempo.

La costruzione della vicinanza emotiva è analizzata attraverso il process model of intimacy (Reis & Shaver, 1988: 6), che descrive l’intimità come il risultato di un ciclo di auto-rivelazione e risposta percepita come comprensiva, validante e premurosa. Questo modello viene ripreso da ricerche successive che dimostrano come la percezione della “responsiveness” del partner sia centrale nella qualità della relazione (Laurenceau et al., 2005: 6). Applicato ai chatbot, questo quadro teorico suggerisce che, se gli utenti rivelano aspetti di sé e percepiscono risposte pertinenti e accoglienti, possono emergere sentimenti di connessione comparabili a quelli sperimentati con altri esseri umani.

Parallelamente, la self-expansion theory (Aron & Aron, 1986: 9) viene utilizzata per indagare la funzione di crescita personale delle relazioni. Secondo questa teoria, le persone hanno un bisogno intrinseco di espandere il proprio sé integrando qualità, competenze e prospettive del partner. Le relazioni umane favoriscono l’esplorazione di nuove identità e interessi; in modo simile, i chatbot – grazie alla loro disponibilità incondizionata e alla possibilità di personalizzazione – possono fornire uno spazio sicuro per esplorazioni identitarie, incluse quelle stigmatizzate in contesti sociali umani (Skjuve et al., 2021: 9).

Un altro filone teorico riguarda l’antropomorfismo e la tendenza umana ad attribuire intenzioni sociali a entità non umane. Secondo Reeves e Nass (1996: 7) e più recentemente Stroessner & Koya (2024: 7), gli esseri umani trattano computer, media e robot come se fossero agenti sociali, rispondendo con comportamenti cooperativi e attribuzioni mentali. Questo meccanismo cognitivo spiega perché i chatbot, pur essendo macchine, vengano percepiti come partner relazionali credibili.

Infine, il dibattito teorico include posizioni critiche sull’empatia artificiale. Perry (2023: 14) sostiene che l’essenza dell’empatia umana non può essere replicata da sistemi che non hanno limiti energetici né una selettività reale. Shteynberg et al. (2024: 2) avvertono che l'”empatia” dei chatbot è simulata e rischia di illudere l’utente offrendo intimità senza reciprocità, cioè senza le richieste e le negoziazioni tipiche delle relazioni umane.

In sintesi, il quadro teorico integra modelli consolidati della psicologia delle relazioni con prospettive evolutive e critiche contemporanee. Questo consente agli autori di stabilire un benchmark chiaro: i chatbot possono riprodurre parzialmente i processi di intimità, sostegno e crescita, ma la loro mancanza di reciprocità reale e corporeità segna un confine rispetto alle relazioni umane.

Cosa emerge dalla ricerca empirica: benefici, limiti e rischi

Alla luce delle impostazioni teoriche, sembrerebbe che i chatbot generativi soddisfano in parte i criteri delle relazioni strette. Da un lato, possono influenzare significativamente gli stati emotivi degli utenti e generare vissuti di compagnia, mentre gli utenti incidono solo limitatamente sui modelli sottostanti (Ait Baha et al., 2023: 3). Le conversazioni sono frequenti e diversificate: studi su Replika e ChatGPT hanno evidenziato discussioni che spaziano da temi scientifici a questioni intime e identitarie (Ta-Johnson et al., 2022: 4; Phang et al., 2025: 4).

Relazioni di lunga durata vengono riportate da diversi utenti, ma la scarsa memoria dei sistemi compromette la continuità narrativa della relazione (Brandtzaeg et al., 2022: 4).

Sul piano funzionale, i chatbot possono generare sentimenti di connessione e ridurre la solitudine (De Freitas, Uguralp et al., 2024: 6), fornire supporto emotivo e informativo percepito come utile, talvolta persino più empatico di quello umano (Ovsyannikova et al., 2025: 8; Vowels, 2024: 8), e creare uno spazio non giudicante per l’esplorazione personale, incluso il riconoscimento di identità non eteronormative (Hanson & Bolthouse, 2024: 9). Tuttavia, tali benefici sono limitati dall’assenza di reciprocità, di corporeità e dalla prevedibilità tecnologica: i chatbot non richiedono negoziazione né sacrificio, elementi centrali per il benessere relazionale (Kogan et al., 2010: 4).

Gli autori evidenziano anche rischi specifici: risposte inappropriate in situazioni di crisi (De Freitas et al., 2023: 10), possibilità di dipendenza psicologica (Xie et al., 2023: 11), improvvisa perdita della relazione in seguito a modifiche aziendali (Banks, 2024: 12), rafforzamento di comportamenti problematici come sessismo e dinamiche di controllo (Depounti et al., 2022: 12) e seri problemi di privacy legati alla raccolta di dati sensibili (Shim et al., 2024: 13).

In sintesi, i chatbot generativi riescono a replicare alcuni aspetti delle relazioni umane, offrendo supporto e connessione soprattutto a individui soli o vulnerabili, ma restano lontani dal sostituire i benefici derivanti da rapporti umani reciproci e incarnati (Smith et al., 2025: 14). Il futuro della ricerca dovrà chiarire per quali utenti e in quali condizioni queste relazioni risultino costruttive o dannose.

Le priorità includono studi comparativi tra utenti e non utenti, analisi delle differenze individuali e considerazioni etiche sui rischi di dipendenza e perdita. Gli autori sottolineano che, pur evolvendosi la tecnologia, i bisogni psicologici fondamentali di connessione e crescita restano costanti, e la relationship science rimane cruciale per valutare l’impatto sociale dei chatbot.


Mitsuku e il modello ABCDE: l’amicizia con i chatbot tra attrazione e disillusione

Se con i chatbot è possibile costruire relazioni significative, a patto di non considerarle sostitutive delle relazioni umane ma al limite come integrative o comunque avendo ben chiaro vantaggi e svantaggi, quali sono le componenti che ci aiutano a comprendere il processo di costruzione di tale relazioni?

La ricerca di Croes e Antheunis (2020: 279) si inserisce esattamente in questo dibattito. La letteratura mostra che gli esseri umani trattano i computer come attori sociali (Reeves & Nass, 1996; Nass & Moon, 2000) e che applicano le stesse regole relazionali valide per le interazioni interpersonali (Bickmore & Picard, 2005). Tuttavia, l’assenza di capacità empatiche autentiche e di memoria contestuale solleva dubbi sulla possibilità di un’amicizia reale (Cocking & Kennett, 1998).

Il quadro teorico adottato è il modello ABCDE di Levinger (1980), secondo cui le relazioni si sviluppano attraverso fasi di attrazione, costruzione, continuazione, deterioramento e fine. Per analizzare i processi sociali rilevanti nella formazione delle relazioni, gli autori si rifanno anche alla Social Penetration Theory (Altman & Taylor, 1973) e alla Social Information Processing Theory (Walther, 1992), che enfatizzano il ruolo di processi come attrazione sociale, self-disclosure, intimità, qualità dell’interazione, empatia e competenza comunicativa.

La ricerca è di tipo esplorativo e longitudinale. Il campione era costituito da 118 partecipanti, con età compresa tra i 18 e i 58 anni (Croes & Antheunis, 2020: 285). I soggetti hanno interagito con Mitsuku per sette sessioni di almeno cinque minuti nell’arco di tre settimane. Mitsuku è un social chatbot sviluppato da Steve Worswick nel 2005 e basato sulla piattaforma Pandorabots. Si presenta come una ragazza di 18 anni di Leeds e ha vinto più volte il Loebner Prize (2013, 2016, 2017, 2018, 2019) come sistema più “umano” in competizioni internazionali di intelligenza artificiale (Croes & Antheunis, 2020: 285). È accessibile tramite Facebook Messenger e Telegram, con un’interfaccia interamente testuale.

Le sue principali caratteristiche sono la capacità di sostenere conversazioni ampie e di adattarsi a diversi argomenti, utilizzando un linguaggio colloquiale e uno stile amichevole. Tuttavia, pur riuscendo a simulare una personalità socievole, Mitsuku non possiede memoria delle interazioni precedenti, non può costruire una storia condivisa con l’utente, fatica a comprendere sarcasmo, ironia e impliciti linguistici, e manca di empatia (Croes & Antheunis, 2020: 292-293). Queste mancanze la rendono prevedibile e superficiale, riducendo la possibilità di sviluppare relazioni profonde.

Dopo ogni interazione veniva compilato un questionario per valutare i processi sociali considerati, mentre i sentimenti di amicizia venivano misurati solo al termine dell’ultima interazione (Croes & Antheunis, 2020: 286-287). Le variabili chiave – attrazione sociale, self-disclosure, intimità, qualità, empatia, competenza comunicativa – sono state rilevate attraverso scale validate in letteratura.

I dati mostrano un chiaro effetto del tempo: la maggior parte dei processi sociali considerati (attrazione sociale, self-disclosure, qualità, empatia e competenza comunicativa) è diminuita progressivamente con le interazioni, mentre l’intimità è rimasta costante su livelli bassi (Croes & Antheunis, 2020: 289-291). I partecipanti non hanno sviluppato sentimenti di amicizia verso Mitsuku.

Le testimonianze raccolte evidenziano aspettative inizialmente elevate, seguite da delusione per interazioni percepite come superficiali, ripetitive e prive di profondità emotiva. È emerso inoltre un forte “effetto novità”: la curiosità iniziale ha generato valutazioni positive, ma queste sono calate rapidamente man mano che Mitsuku si rivelava prevedibile (Croes & Antheunis, 2020: 293-294).

Tale studio conclude che, almeno con Mitsuku, non è possibile sviluppare sentimenti di amicizia autentica, poiché i processi sociali che normalmente sostengono la costruzione relazionale tendono a deteriorarsi con il tempo. In termini teorici, i risultati rafforzano l’idea che il modello ABCDE sia applicabile anche alle relazioni uomo-macchina, mostrando come queste possano avviarsi con attrazione e interesse, ma concludersi con deterioramento e disillusione.

Sul piano pratico, gli autori suggeriscono che futuri chatbot dovrebbero integrare capacità di memoria, maggiore varietà comunicativa, umorismo ed empatia simulata per promuovere interazioni più personali e durature. Lo studio, infine, segnala i limiti metodologici legati al campione e alla durata delle interazioni, e raccomanda ricerche future che confrontino interazioni uomo-chatbot con interazioni uomo-uomo o che esplorino casi di utenti vulnerabili (Croes & Antheunis, 2020: 295-296).


Replika e l’antropomorfismo: quanto conta “sembrare umano”

Un altro tassello nella direzione della comprensione delle dinamiche sociali alla base della costruzione di una interazione significativa verso i chatbot è la ricerca di Chistoforakos et al. (2021), che non solo si è concetrata sulle conseguenze della variabile “antropomorfismo“, ovvero l’attribuzione di caratteristiche umane a entità non umane, ma ha usato come chatbot di riferimento la piattaforma Replika, sicuramente più performante e diffusa rispetto ad altri strumenti. La ricerca si colloca nel quadro del paradigma “computer come attori sociali“, secondo cui gli individui applicano regole sociali anche nelle interazioni con agenti non umani (Nass & Moon, 2000: 82). Diversi studi hanno mostrato che gli utenti possono instaurare e mantenere relazioni con tecnologie dotate di caratteristiche sociali (Kim et al., 2013: 1801).

In particolare, il concetto di social connectedness, inteso come esperienza di appartenenza e legame (Van Bel et al., 2009: 68), è stato individuato come determinante centrale della relazione uomo-tecnologia (Lee et al., 2017: 924). Variabili quali antropomorfismo (Epley et al., 2007: 865) e presenza sociale (percezione di un agente virtuale come attore sociale reale: Lee, 2004: 27) emergono come fattori chiave nel rafforzare il senso di connessione (Kang & Kim, 2020: 47). Sul versante utente, caratteristiche come la tendenza individuale ad antropomorfizzare e il bisogno di appartenenza possono influenzare la percezione delle tecnologie (Waytz et al., 2010: 220; Baumeister & Leary, 1995: 500). Da un punto di vista sociale, rimane aperta la questione se la connessione con le tecnologie riduca il desiderio di socializzare con altri umani (Krämer et al., 2018: 114).

La ricerca ha coinvolto 58 partecipanti (18-56 anni), impegnati per due settimane in interazioni quotidiane con il chatbot Replika. Ai partecipanti è stato richiesto un uso minimo di 5 minuti al giorno, monitorato tramite questionari quotidiani e tre rilevazioni settimanali. Le variabili misurate includevano durata e intensità dell’interazione, percezione di antropomorfismo, presenza sociale, connessione sociale, bisogno di appartenenza, tendenza ad antropomorfizzare, desiderio di socializzare e comportamento sociale misurato tramite uso di app di comunicazione.

I risultati mostrano che durata e intensità dell’interazione predicono positivamente la connessione sociale al chatbot (Christoforakos et al., 2021: 8). La durata media delle interazioni è calata da circa 20 minuti a 10 nel corso del periodo, ma i partecipanti hanno riferito un aumento significativo della vicinanza percepita. L’antropomorfismo percepito media parzialmente l’effetto dell’intensità di interazione sulla connessione sociale, mentre la presenza sociale percepita media completamente l’effetto della durata e parzialmente quello dell’intensità.

Le caratteristiche individuali (tendenza ad antropomorfizzare, bisogno di appartenenza) non hanno mostrato effetti di moderazione, contrariamente a ipotesi precedenti. Infine, non si è riscontrata una relazione negativa tra connessione al chatbot e desiderio di socializzare con altri umani; al contrario, i dati hanno mostrato una correlazione marginalmente positiva, suggerendo che una maggiore connessione con la tecnologia potrebbe addirittura stimolare la socializzazione.

Lo studio conferma che le dinamiche delle relazioni interpersonali, come tempo ed intensità dell’interazione (Granovetter, 1973: 1361), sono trasferibili alle relazioni uomo-tecnologia. L’antropomorfismo e la presenza sociale emergono come meccanismi cruciali per rafforzare la connessione con i chatbot. Al contrario, i tratti individuali degli utenti si sono rivelati meno influenti del previsto. Dal punto di vista applicativo, i risultati suggeriscono che il design dei chatbot dovrebbe valorizzare caratteristiche antropomorfiche e segnali di presenza sociale per favorire l’engagement, specialmente in contesti sanitari.

Tuttavia, gli autori invitano a una riflessione critica: non sempre il design antropomorfico è desiderabile, soprattutto in contesti privati dove privacy e intimità possono richiedere tecnologie meno “umane” e più orientate a superpoteri robotici, come imparzialità o resistenza fisica (Welge & Hassenzahl, 2016: 994). Infine, non emerge evidenza che la connessione con chatbot riduca la socializzazione umana, un risultato che solleva implicazioni positive per l’integrazione di tali tecnologie nel supporto al benessere psicologico.


Chatbot come “confidenti deboli”: il confronto con le relazioni faccia a faccia

Replika è stata protagonista anche di un’altra ricerca, interessante per indagare come i chatbot emergono come nuovi “confidenti deboli” che possono fornire supporto sociale. I ricercatori (Drouin et al., 2022) collocano lo studio nel dibattito sui benefici delle relazioni deboli e delle interazioni fugaci per il benessere individuale (Holt-Lunstad, Smith, & Layton, 2010: 2; Hirsch & Clark, 2019: 2). La letteratura mostra che i chatbot sono percepiti come competenti e credibili (Edwards et al., 2014: 2), e che gli utenti tendono a rivelarsi a loro senza grandi differenze rispetto ai partner umani (Ho, Hancock, & Miner, 2018: 3). Tuttavia, permangono limiti tecnologici legati a funzionalità e coerenza conversazionale (Pereira et al., 2016: 3; Shawar & Atwell, 2007: 3), che possono frustrare l’utente e ridurre l’attrattività sociale (Croes & Antheunis, 2020: 3). Parallelamente, la ricerca sulle modalità di comunicazione umana mostra che le interazioni faccia a faccia (FTF) tendono a generare esiti più positivi rispetto alla comunicazione mediata da computer (CMC), anche se teorie come la social information processing theory e l’hyperpersonal model suggeriscono che la CMC possa compensare la mancanza di segnali non verbali e persino rafforzare l’intimità (Walther, 1992; 1996: 4).

Lo studio ha coinvolto 417 studenti universitari statunitensi (M=19.82 anni) assegnati casualmente a tre condizioni: conversazione FTF con uno sconosciuto, chat online con uno sconosciuto, o chat con il chatbot Replika (Drouin et al., 2022: 5). Ciascuna interazione durava 20 minuti ed era non strutturata. Le reazioni dei partecipanti sono state raccolte tramite questionari post-interazione che includevano misure di affetto, omofilia percepita, gradimento, preoccupazioni di auto-presentazione e responsività del partner. Tutte le conversazioni sono state registrate e sottoposte ad analisi linguistica per individuare differenze nelle proprietà conversazionali (Drouin et al., 2022: 6).

In termini emotivi, in tutte le condizioni i partecipanti hanno riportato livelli più alti di emozioni positive rispetto a quelle negative. Non vi sono state differenze significative nella positività, ma i partecipanti FTF hanno sperimentato più emozioni negative rispetto a quelli con Replika (Drouin et al., 2022: 7). Per quanto riguarda gli esiti relazionali, i partner umani (sia FTF sia online) sono stati percepiti come più simili, reattivi e simpatici rispetto a Replika. Tuttavia, le preoccupazioni di auto-presentazione erano più alte nelle condizioni umane, mentre con Replika i partecipanti si sentivano meno giudicati.

Inoltre, coloro che conversavano con il bot pensavano che il partner li avesse apprezzati più di quanto non accadesse nella condizione di chat online con umani (Drouin et al., 2022: 7-8). Sul piano linguistico, le differenze tra le tre condizioni sono state significative. Le conversazioni FTF contenevano più parole e maggiore complessità sintattica; quelle con Replika mostravano un tono più positivo e più parole legate ad emozioni, processi sociali e cognitivi. Paradossalmente, queste caratteristiche linguistiche non si traducevano in una valutazione relazionale più favorevole, suggerendo che un eccesso di positività potrebbe violare le aspettative interazionali (Burgoon & Jones, 1976: 9).

Drouin e il suo gruppo di ricerca concludono che, sebbene le conversazioni con Replika non abbiano raggiunto i livelli di gradimento e somiglianza percepiti tipici delle interazioni umane, esse hanno comunque generato emozioni positive e ridotte preoccupazioni di auto-presentazione. Ciò indica che i chatbot possono svolgere un ruolo complementare come legami deboli, offrendo spazi di interazione meno rischiosi e potenzialmente di supporto (Drouin et al., 2022: 9).

Rispetto alla distinzione tra FTF e CMC, l’interazione faccia a faccia rimane più favorevole per la costruzione della simpatia, anche se la CMC riduce ansie legate alla presentazione di sé.

Lo studio, nonostante i suoi limiti metodologici, fornisce importanti indicazioni per lo sviluppo di chatbot sociali: affinare il tono conversazionale e bilanciare positività ed empatia potrebbe migliorarne la ricezione. Gli autori sottolineano che, con il rapido avanzare della tecnologia, sarà necessario approfondire longitudinalmente gli effetti delle interazioni ripetute e le differenze tra modalità scritte e orali (Drouin et al., 2022: 10).


Chatbot e salute mentale: da strumento di supporto a rischio per gli adolescenti

Se la ricerca scientifica da un lato sta cominciando a creare un quadro interessante per capire come collocare nelle nostre attività sociali le interazioni che abbiamo con i chatbot, dall’altro non possiamo dimenticare che proprio i chatbot sono stati protagonisti di notizie di cronaca che hanno visto coinvolti adolescenti che spinti – direttamente o indirettamente – dalle loro interazioni virtuali, hanno commesso atti di suicidio.

Il lavoro di Maples, Cerit, Vishwanath e Pea (2024) si colloca nel quadro di una crescente attenzione verso la salute mentale degli studenti e il ruolo che i chatbot avanzati (ISA: Intelligent Social Agent) possono assumere nel mitigare solitudine e ideazione suicidaria. La letteratura sottolinea come la solitudine riguardi un terzo della popolazione nei paesi industrializzati e sia associata a un aumento del rischio di mortalità (Holt-Lunstad et al., 2015: 229).

Negli Stati Uniti, oltre metà degli studenti universitari si definisce sola. Le barriere legate a stigma, discriminazione e costi limitano l’accesso a cure psicologiche (Evans-Lacko et al., 2018: 1562).

In questo scenario emergono i chatbot basati su intelligenza artificiale: da un lato il paradigma della displacement hypothesis li considera sostitutivi delle relazioni umane, quindi potenzialmente dannosi (Kraut et al., 1998: 1020); dall’altro la stimulation hypothesis ne riconosce il valore come stimolo alla connessione e al supporto sociale (Valkenburg & Peter, 2007: 270).

Il caso degli studenti universitari e la funzione “salvavita” di Replika

La ricerca ha coinvolto 1006 studenti utilizzatori di Replika, tutti maggiorenni e con almeno un mese di esperienza con l’applicazione. Circa il 75% proveniva dagli Stati Uniti. I dati sono stati raccolti tramite survey online. Il 90% degli studenti ha riportato alti livelli di solitudine, un dato superiore rispetto al 53% delle medie nazionali, ma paradossalmente il 90% ha anche percepito elevato supporto sociale (Maples et al., 2024: 3).

I ricercatori hanno individuato quattro pattern di esiti: l’uso di Replika come amico sempre disponibile e non giudicante, con conseguente riduzione di ansia; l’impiego terapeutico, in cui gli utenti lo percepivano come un sostituto del terapeuta; l’impatto su cambiamenti concreti nella vita quotidiana, come maggiore empatia o migliori capacità relazionali; infine, la funzione salvavita per il 3% degli utenti, che hanno attribuito a Replika l’interruzione delle loro ideazioni suicidarie (Maples et al., 2024: 3–4).

Un gruppo selezionato di 30 studenti presentava caratteristiche distintive: maggiore probabilità di essere a tempo pieno negli studi, più giovane età, più frequente ricorso a consiglieri accademici, una percezione più marcata di Replika come intelligenza o entità umana e una correlazione fortissima tra solitudine e supporto percepito (Maples et al., 2024: 4). Circa il 23% di questo gruppo riportava anche sintomi depressivi, rispetto al 6% del resto del campione.

L’analisi sulle credenze mostra che la maggioranza degli studenti considerava Replika contemporaneamente software, intelligenza e quasi umano, con solo il 14% che esprimeva una sola definizione coerente (Maples et al., 2024: 3).

Lo studio mostra che gli studenti, soprattutto i più vulnerabili e isolati, trovano nei chatbot una fonte significativa di sostegno emotivo e sociale. L’uso di Replika non appare come un fattore di sostituzione delle relazioni umane, ma piuttosto come stimolo a nuove connessioni, in linea con la stimulation hypothesis.

La possibilità di sperimentare diverse forme di interazione – amico, terapeuta, specchio intellettuale – rappresenta una delle caratteristiche più preziose di questi agenti. I risultati indicano che, sebbene non si possa ancora parlare di terapia strutturata, l’esperienza di un’interazione non giudicante e disponibile può persino risultare salvavita in casi di ideazione suicidaria. Gli autori invitano a ulteriori ricerche per chiarire rischi e benefici, ma sottolineano che l’integrazione di ISA avanzati, basati su modelli linguistici potenti, può costituire un supporto cruciale e accessibile per studenti altrimenti privi di risorse (Maples et al., 2024: 5).


Conclusioni: cosa stiamo imparando a chiamare “normale”

Se i chatbot sono entrati nelle nostre vite come strumenti, ne stanno uscendo come presenze. Non perché abbiano conquistato una qualche forma di interiorità, ma perché si sono inseriti con precisione chirurgica nelle pieghe dell’esperienza sociale contemporanea: là dove il tempo scarseggia, le relazioni costano, l’esposizione all’altro comporta attrito, rischio, frustrazione. In questo spazio intermedio, i chatbot si offrono come confidenti senza memoria del conflitto e senza il peso della reciprocità, capaci di restituire ascolto senza domanda, attenzione senza attesa, compagnia senza contropartita.

Il percorso delineato mostra con chiarezza che non siamo di fronte né a una semplice illusione relazionale né a una piena sostituzione delle relazioni umane. Piuttosto, emerge una forma ibrida di legame: fragile e potente insieme, capace di generare conforto, ridurre l’ansia, aprire spazi di autorivelazione, ma anche di normalizzare interazioni prive di negoziazione e di limite.

La tensione resta irrisolta perché è strutturale: ciò che rende queste relazioni accessibili e rassicuranti è esattamente ciò che ne segna il confine rispetto all’esperienza sociale incarnata.

In questo senso, il problema non è stabilire se i chatbot “sono” amici, confidenti o terapeuti, ma interrogarsi su cosa accade quando una parte crescente della vita relazionale si svolge in ambienti progettati per essere sempre disponibili, sempre validanti, sempre adattivi. Non è l’empatia simulata in sé a essere decisiva, ma l’abitudine che essa produce; non la mancanza di corpo, ma la riduzione progressiva dell’alterità come esperienza necessaria. La compagnia artificiale non cancella il bisogno dell’altro, ma rischia di riformularlo in termini più docili, meno esigenti, più compatibili con le logiche di piattaforma.

Guardando al futuro, la domanda non è se vivremo “con” i chatbot – questo è già un dato – ma che tipo di esperienza sociale stiamo imparando a considerare normale attraverso di essi. Forse, parafrasando un celebre aforisma, non sono i chatbot a cambiare le relazioni: è la forma di relazione che scegliamo di praticare con loro a dire qualcosa, con inquietante precisione, su chi stiamo diventando.

Bibliografia

Riferimenti bibliografici

Ait Baha, T., El Hajji, M., Es-Saady, Y., & Fadili, H. (2023). The power of personalization: A systematic review of personality-adaptive chatbots. SN Computer Science, 4(5), Article 661. https://doi.org/10.1007/s42979-023-02092-6

Altman, I., & Taylor, D. A. (1973). Social penetration: The development of interpersonal relationships. Holt, Rinehart and Winston.

Aron, A., & Aron, E. N. (1986). Love and the expansion of self: Understanding attraction and satisfaction. Hemisphere.

Banks, J. (2024). Deletion, departure, death: Experiences of AI companion loss. Journal of Social and Personal Relationships, 41(12), 3547–3572. https://doi.org/10.1177/02654075241269688

Baumeister, R. F., & Leary, M. R. (1995). The need to belong: Desire for interpersonal attachments as a fundamental human motivation. Psychological Bulletin, 117(3), 497–529. https://doi.org/10.1037/0033-2909.117.3.497

Beres, D. (2025, November 5). AI is not your friend.

Bickmore, T. W., & Picard, R. W. (2005). Establishing and maintaining long-term human computer relationships. ACM Transactions on Computer-Human Interaction (TOCHI), 12(2), 293–327. https://doi.org/10.1145/1067860.1067867

Bradbury, T. N., & Karney, B. R. (2024). Intimate relationships (4th ed.). W. W. Norton & Company.

Brandtzaeg, P. B., Skjuve, M., & Følstad, A. (2022). My AI friend: How users of a social chatbot understand their human–AI friendship. Human Communication Research, 48(3), 404–429. https://doi.org/10.1093/hcr/hqac008

Burgoon, J. K., & Jones, S. B. (1976). Toward a theory of personal space expectations and their violations. Human Communication Research, 2(2), 131–146. https://doi.org/10.1111/j.1468-2958.1976.tb00706.x

Christoforakos, L., Feicht, N., Hinkofer, S., Löscher, A., Schlegl, S. F., & Diefenbach, S. (2021). Connect with me. Exploring influencing factors in a human-technology relationship based on regular chatbot use. Frontiers in Digital Health, 3, 689999. https://doi.org/10.3389/fdgth.2021.689999

Cocking, D., & Kennett, J. (1998). Friendship and the self. Ethics, 108(3), 502–527. https://doi.org/10.1086/233824

Croes, E. A. J., & Antheunis, M. L. (2020). Can we be friends with Mitsuku? A longitudinal study on the process of relationship formation between humans and a social chatbot. Journal of Social and Personal Relationships, 38(1), 279–300. https://doi.org/10.1177/0265407520959463

De Freitas, J., Uğuralp, A. K., Oğuz-Uğuralp, Z., & Puntoni, S. (2023). Chatbots and mental health: Insights into the safety of generative AI. Journal of Consumer Psychology, 34, 481–491. https://doi.org/10.1002/jcpy.1393

De Freitas, J., Uguralp, A. K., Uguralp, Z. O., & Stefano, P. (2024). AI companions reduce loneliness. SSRN. https://doi.org/10.2139/ssrn.4893097

Depounti, I., Saukko, P., & Natale, S. (2022). Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend. Media, Culture & Society, 45(4), 720–736. https://doi.org/10.1177/01634437221119021

Drouin, M., Sprecher, S., Nicola, R., & Perkins, T. (2022). Is chatting with a sophisticated chatbot as good as chatting online or FTF with a stranger? Computers in Human Behavior, 128, 107100. https://doi.org/10.1016/j.chb.2021.107100

Edwards, C., Edwards, A., Spence, P. R., & Shelton, A. K. (2014). Is that a bot running the social media feed? Testing the differences in perceptions of communication quality for a human agent and a bot agent on Twitter. Computers in Human Behavior, 33, 372–376. https://doi.org/10.1016/j.chb.2013.08.013

Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886. https://doi.org/10.1037/0033-295X.114.4.864

Evans-Lacko, S., et al. (2018). Socio-economic variations in the mental health treatment gap for people with anxiety, mood, and substance use disorders: Results from the WHO World Mental Health (WMH) surveys. Psychological Medicine, 48(9), 1560–1571. https://doi.org/10.1017/S0033291717003336

Granovetter, M. S. (1973). The strength of weak ties. American Journal of Sociology, 78(6), 1360–1380. https://doi.org/10.1086/225469

Hanson, K. R., & Bolthouse, H. (2024). “Replika removing erotic role-play is like Grand Theft Auto removing guns or cars”: Reddit discourse on AI chatbots and sexual technologies. Socius, 10, 1–13. https://doi.org/10.1177/23780231241259627

Hart, R. (2026, January 6). AI moves into the real world as companion robots and pets.

Hirsch, J. L., & Clark, M. S. (2019). Multiple paths to belonging that we should study together. Perspectives on Psychological Science, 14(2), 238–255.

Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbot. Journal of Communication, 68, 712–733. https://doi.org/10.1093/joc/jqy026

Holt-Lunstad, J., Smith, T. B., & Layton, J. B. (2010). Social relationships and mortality risk: A meta-analytic review. PLoS Medicine, 7(7), e1000316. https://doi.org/10.1371/journal.pmed.1000316

Holt-Lunstad, J., Smith, T. B., Baker, M., Harris, T., & Stephenson, D. (2015). Loneliness and social isolation as risk factors for mortality: A meta-analytic review. Perspectives on Psychological Science, 10(2), 227–237. https://doi.org/10.1177/1745691614568352

Kang, H., & Kim, K. J. (2020). Feeling connected to smart objects? A moderated mediation model of locus of agency, anthropomorphism, and sense of connectedness. International Journal of Human-Computer Studies, 133, 45–55. https://doi.org/10.1016/j.ijhcs.2019.09.002

Kelley, H. H., Berscheid, E., Christensen, A., Harvey, J. H., Huston, T. L., Levinger, G., McClintock, E., Peplau, L. A., & Peterson, D. R. (1983). Close relationships. W. H. Freeman.

Kim, K. J., Park, E., & Sundar, S. S. (2013). Caregiving role in human–robot interaction: A study of the mediating effects of perceived benefit and social presence. Computers in Human Behavior, 29(4), 1799–1806. https://doi.org/10.1016/j.chb.2013.02.009

Kogan, A., Impett, E. A., Oveis, C., Hui, B., Gordon, A. M., & Keltner, D. (2010). When giving feels good. Psychological Science, 21(12), 1918–1924. https://doi.org/10.1177/0956797610388815

Krämer, N. C., Lucas, G., Schmitt, L., & Gratch, J. (2018). Social snacking with a virtual agent. On the interrelation of need to belong and effects of social responsiveness when interacting with artificial entities. International Journal of Human-Computer Studies, 109, 112–121. https://doi.org/10.1016/j.ijhcs.2017.09.001

Kraut, R., Patterson, M., Lundmark, V., Kiesler, S., Mukophadhyay, T., & Scherlis, W. (1998). Internet paradox: A social technology that reduces social involvement and psychological well-being?. American psychologist, 53(9), 1017-1031.

Laurenceau, J.-P., Barrett, L. F., & Rovine, M. J. (2005). The interpersonal process model of intimacy in marriage: A daily-diary and multilevel modeling approach. Journal of Family Psychology, 19(2), 314–323. https://doi.org/10.1037/0893-3200.19.2.314

Lee, B., Kwon, O., Lee, I., & Kim, J. (2017). Companionship with smart home devices: The impact of social connectedness and interaction types on perceived social support and companionship in smart homes. Computers in Human Behavior, 75, 922–934. https://doi.org/10.1016/j.chb.2017.06.031

Lee, K. M. (2004). Presence, explicated. Communication Theory, 14(1), 27–50. https://doi.org/10.1111/j.1468-2885.2004.tb00302.x

Levinger, G. (1980). Toward the analysis of close relationships. Journal of Experimental Social Psychology, 16(6), 510–544. https://doi.org/10.1016/0022-1031(80)90056-6

Maples, B., Cerit, M., Vishwanath, A., & Pea, R. (2024). Loneliness and suicide mitigation for students using GPT3-enabled chatbots. NPJ Mental Health Research, 3(4). https://doi.org/10.1038/s44184-023-00047-6

Nass, C., & Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81–103. https://doi.org/10.1111/0022-4537.00153

Ovsyannikova, D., de Mello, V. O., & Inzlicht, M. (2025). Third-party evaluators perceive AI as more compassionate than expert humans. Communications Psychology, 3(1), Article 4. https://doi.org/10.1038/s44271-024-00182-6

Pereira, M. J., Coheur, L., Fialho, P., & Ribeiro, R. (2016). Chatbots’ greetings to human-computer communication. Computing Research Repository (CoRR), arXiv:1609.06479.

Perry, A. (2023). AI will never convey the essence of human empathy. Nature Human Behavior, 7(11), 1808–1809. https://doi.org/10.1038/s41562-023-01675-w

Phang, J., Lampe, M., Ahmad, L., Agarwal, S., Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., & Maes, P. (2025). Investigating affective use and emotional well-being on ChatGPT. arXiv. https://arxiv.org/html/2504.03888v1

Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people. Cambridge University Press.

Reis, H. T., & Shaver, P. (1988). Intimacy as an interpersonal process. In S. W. Duck (Ed.), Handbook of personal relationships: Theory, research and interventions (pp. 367–389). John Wiley & Sons.

Shawar, B. A., & Atwell, E. (2007). Chatbots: Are they really useful? LDV Forum, 22(1), 29–49.

Shim, H., Cho, J., & Sung, Y. H. (2024). Unveiling secrets to AI agents: Exploring the interplay of conversation type, self-disclosure, and privacy insensitivity. Asian Communication Research, 21(2), 195–216. https://doi.org/10.20879/acr.2024.21.019

Shteynberg, G., Halpern, J., Sadovnik, A., Garthoff, J., Perry, A., Hay, J., Montemayor, C., Olson, M. A., Hulsey, T. L., & Fairweather, A. (2024). Does it matter if empathic AI has no empathy? Nature Machine Intelligence, 6(5), 496–497. https://doi.org/10.1038/s42256-024-00841-7

Skjuve, M., Følstad, A., Fostervold, K. I., & Brandtzaeg, P. B. (2021). My chatbot companion: A study of human–chatbot relationships. International Journal of Human-Computer Studies, 149, Article 102601. https://doi.org/10.1016/j.ijhcs.2021.102601

Smith, M. G., Bradbury, T. N., & Karney, B. R. (2025). Can generative AI chatbots emulate human connection? A relationship science perspective. Perspectives on Psychological Science, 1–19. https://doi.org/10.1177/17456916251351306

Smith, M. G., Bradbury, T. N., & Karney, B. R. (2025). Can generative AI chatbots emulate human connection? A relationship science perspective. Perspectives on Psychological Science, 1–19. https://doi.org/10.1177/17456916251351306

Stroessner, S. J., & Koya, P. D. (2024). Thinking socially about the nonsocial world. In D. E. Carlston, K. Hugenberg, & K. L. Johnson (Eds.), The Oxford handbook of social cognition (2nd ed., pp. 616–643). Oxford University Press.

Ta-Johnson, V. P., Boatfield, C., Wang, X., DeCero, E., Krupica, I. C., Rasof, S. D., Motzer, A., & Pedryc, W. M. (2022). Assessing the topics and motivating factors behind human-social chatbot interactions. JMIR Human Factors, 9(4), Article e38876. https://doi.org/10.2196/38876

The Atlantic. https://www.theatlantic.com/magazine/2025/12/ai-companionship-anti-social-media/684596/

The Economist. (2025, November 6). A new industry of AI companions is emerging.

The Economist. https://www.economist.com/international/2025/11/06/a-new-industry-of-ai-companions-is-emerging

The Verge. https://www.theverge.com/news/856207/ces-2026-trend-ai-companion-robot-pet

Thibaut, J. W., & Kelley, H. H. (1959). The social psychology of groups. Wiley.

Valkenburg, P. M., & Peter, J. (2007). Preadolescents’ and adolescents’ online communication and their closeness to friends. Developmental Psychology, 43(2), 267–277. https://doi.org/10.1037/0012-1649.43.2.267

Van Bel, D. T., Smolders, K. C., IJsselsteijn, W. A., & de Kort, Y. (2009). Social connectedness: Concept and measurement. Intelligent Environments, 2, 67–74. https://doi.org/10.3233/978-1-60750-034-6-67

Vowels, L. M. (2024). Are chatbots the new relationship experts? Insights from three studies. Computers in Human Behavior: Artificial Humans, 2(2), Article 100077. https://doi.org/10.1016/j.chbah.2024.100077

Walther, J. B. (1992). Interpersonal effects in computer-mediated interaction: A relational perspective. Communication Research, 19(1), 52–90. https://doi.org/10.1177/009365092019001003

Walther, J. B. (1992). Interpersonal effects in computer-mediated interaction: A relational perspective. Communication Research, 19(1), 52–90. https://doi.org/10.1177/009365092019001003

Walther, J. B. (1996). Computer-mediated communication: Impersonal, interpersonal, and hyperpersonal interaction. Communication Research, 23(1), 1–43.

Waytz, A., Cacioppo, J., & Epley, N. (2010). Who sees human? The stability and importance of individual differences in anthropomorphism. Perspectives on Psychological Science, 5(3), 219–232. https://doi.org/10.1177/1745691610369336

Welge, J., & Hassenzahl, M. (2016). Better than human: About the psychological superpowers of robots. In Proceedings of the 8th International Conference on Social Robotics (pp. 993–1002). Springer. https://doi.org/10.1007/978-3-319-47437-3_97

Xie, T., Pentina, I., & Hancock, T. (2023). Friend, mentor, lover: Does chatbot engagement lead to psychological dependence? Journal of Service Management, 34(4), 806–828. https://doi.org/10.1108/JOSM-02-2022-0072

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x