Disponibile, empatico, capace di ascoltare senza giudicare. Risponde quando serve, si adatta completamente a noi. Il partner perfetto?
Probabilmente sì, anche se virtuale. In un’epoca caratterizzata da relazioni fragili e da tassi di solitudine in crescita, l’idea è promettente e sempre più diffusa. Ma la realtà risulta essere meno rassicurante di quanto sembri.
Indice degli argomenti
Perché i chatbot romantici sembrano una risposta affettiva immediata
Parliamo di chatbot “romantici”: sistemi progettati come compagni digitali per sopperire alla mancanza di relazioni e affetti. Come suggerisce l’APA Monitor (Andoh, 2026), risulta importante distinguere tra i chatbot assistenti generalisti, come ChatGPT, Claude o Gemini, talvolta impiegati anche per il supporto emotivo, e i chatbot di compagnia progettati per simulare relazioni intime o romantiche. Le preoccupazioni più serie si concentrano soprattutto su questi ultimi.
Un mercato esploso: i numeri di un fenomeno globale
La portata del fenomeno risulta ormai difficilmente trascurabile. Tra il 2022 e la metà del 2025, il numero di applicazioni di compagnia basate sull’intelligenza artificiale è aumentato del 700%. Character.AI registra 20 milioni di utenti mensili, oltre la metà dei quali ha meno di 24 anni. Su Replika, inoltre, si è diffusa la pratica di celebrare veri e propri “matrimoni virtuali” con il proprio partner digitale, coinvolgendo in tali occasioni anche amici e colleghi.
Secondo il MIT Technology Review (2026), il 72% degli adolescenti statunitensi ha già usato l’AI per scopi di compagnia. Un dato che, letto insieme alla proiezione di mercato (oltre 500 miliardi di dollari entro il 2026), restituisce la dimensione di una trasformazione sociale che è già in corso, al di là di ogni dibattito teorico.
Un rifugio sicuro: perché i chatbot romantici funzionano (nel breve periodo)
I chatbot romantici possono produrre benefici immediati e osservabili sul piano soggettivo, soprattutto in termini di compagnia percepita, sollievo emotivo e riduzione della solitudine nel breve periodo (Folk et al., 2023; Kim et al., 2025). Le evidenze disponibili suggeriscono che tali effetti, pur non essendo risolutivi, siano abbastanza significativi da delineare i chatbot sociali come fonti percepite di connessione sociale, in alcuni casi capaci di offrire benefici emotivi comparabili a quelli di interazioni umane. Questo avviene quando la risposta viene vissuta come calorosa, supportiva e reattiva (Folk et al., 2023). Ciò che rende questi sistemi particolarmente efficaci è soprattutto la loro capacità di generare nell’utente la percezione di essere ascoltato in uno spazio sicuro e non giudicante. Diversi studi mostrano infatti che i chatbot vengono spesso percepiti come interlocutori sempre disponibili, accessibili e privi di sanzione sociale, caratteristiche che favoriscono fiducia, apertura e auto-rivelazione emotiva (Ta et al., 2022; Chin et al., 2023).
In questo senso, il loro funzionamento relazionale si fonda meno su una reciprocità autentica e più sull’esperienza soggettiva di attenzione continua: l’utente si sente visto, accolto e mantenuto al centro dell’interazione. Proprio questa combinazione di disponibilità costante, assenza di rifiuto e coerenza conversazionale può abbassare le difese psicologiche e facilitare forme rapide di self-disclosure, producendo un senso intenso e immediato di connessione (Skjuve et al., 2022; Ta et al., 2022). Il punto critico, tuttavia, è che tale esperienza di connessione sembra poggiare soprattutto su una progettazione basata su responsività e sicurezza percepita, ma non è ancora chiaro in che misura possa tradursi in un senso di riconoscimento relazionale stabile e duraturo nel tempo (Folk et al., 2023; Smith et al., 2025).
Il paradosso della solitudine: cosa dicono i dati longitudinali
Quando si passa da esperimenti di pochi giorni a osservazioni più lunghe e realistiche, il quadro cambia radicalmente. I dati più solidi emergono da due studi controllati randomizzati condotti nel 2025: uno guidato da Rose Guingrich e Michael Graziano di Princeton, l’altro, più ampio, da Hannah Rose Kirk. Entrambi convergono sulla stessa conclusione: nessun effetto significativo sulla solitudine dopo settimane di utilizzo continuativo.
Analizzando il linguaggio degli utenti nel tempo, emerge anzi un aumento significativo di pattern emotivi indicatori di solitudine marcata: maggior uso di parole riconducibili a isolamento e tristezza, incremento dei pronomi in prima persona singola (“io”, “me”), espressioni di disconnessione sociale e un tono emotivo complessivamente più negativo. La tecnologia pensata per ridurre la solitudine, in alcuni casi, finisce per consolidarla.
Il ruolo chiave dell’antropomorfismo: lo studio di Guingrich e Graziano
Per comprendere perché e come le interazioni con i chatbot impattano sulle relazioni umane reali, lo studio longitudinale di Guingrich e Graziano (2025, AAAI/ACM Conference on AI, Ethics, and Society) offre spunti rilevanti in tal senso.
183 partecipanti sono stati assegnati casualmente a due condizioni: interazione con un chatbot di compagnia per 10 minuti al giorno per 21 giorni, oppure giochi di parole testuali come gruppo di controllo. L’esito principale è che la salute sociale complessiva non risulta significativamente impattata dal chatbot nel periodo di osservazione. Ma il dato più rilevante è un altro: l’impatto delle interazioni umano-AI sulle relazioni reali è mediato dal grado di antropomorfismo.
In altre parole, non è l’uso del chatbot in sé a fare la differenza, ma il modo in cui l’utente lo percepisce. Chi attribuisce al chatbot caratteristiche tipicamente umane come coscienza, intenzionalità, stati mentali, riporta effetti più marcati sulle proprie interazioni e relazioni con familiari e amici. Chi è mosso inoltre da un forte desiderio di connessione sociale tende ad antropomorfizzare di più il sistema, innescando un circolo che può diventare problematico.
Lo studio chiarisce anche un punto spesso frainteso: le persone emotivamente e socialmente più vulnerabili non sembrano riportare impatti diversi rispetto alle meno vulnerabili, complicando l’ipotesi semplicistica che i rischi si concentrino esclusivamente nelle fasce fragili della popolazione. Il rischio, insomma, è distribuito.
Il comfort come trappola: il paradosso crescita-comfort
È qui che emerge il paradosso centrale dell’intelligenza artificiale ben descritto da Riva (2025): dove c’è comfort, non può esserci crescita.
Le relazioni umane si costruiscono nel tempo, con fatica, a tratti con dolore, con scontri, con impegno reciproco. I chatbot, invece, funzionano così bene proprio perché eliminano tutto ciò che rende difficili le relazioni umane: nessun rifiuto, nessun conflitto, nessuna ambiguità. L’interazione è fluida, prevedibile, rassicurante, insomma, sotto controllo. Questo estremo comfort relazionale li rende “pericolosamente” attraenti e al tempo stesso ingannevoli.
Come notato dagli esperti dell’APA (Andoh, 2026), i companion AI sono sempre validanti, mai conflittuali, e creano aspettative irrealistiche che le relazioni umane non possono soddisfare. Alcuni utenti, in particolare uomini, riferiscono di preferire la passività e la costante approvazione della propria “AI girlfriend” rispetto al potenziale conflitto o rifiuto che potrebbero incontrare nelle relazioni reali. Abituarsi a questo comfort rende poi più difficile sperimentarsi in relazioni “faticose” e umane, riducendo la spinta a cercare connessioni reali, inevitabilmente più complesse e imprevedibili.
Dipendenza emotiva e competenze sociali
Diversi studi descrivono la formazione di legami emotivi profondi con i sistemi AI, fino a veri e propri stati di attaccamento. Alcuni utenti sperimentano disagio significativo quando il chatbot cambia comportamento o smette di funzionare. La dipendenza emotiva che innesca non è un fattore quindi da sottovalutare.
Ricerche recenti identificano anche il rischio di deskilling sociale: l’uso frequente di companion AI può erodere le competenze relazionali reali, quelle che si sviluppano solo attraverso l’esposizione alla complessità dell’altro, la prospettiva altrui, la gestione del conflitto, l’intimità costruita nel tempo (Andoh, 2026).
Quali effetti producono i companion AI sui diversi utenti
È importante evitare letture polarizzate. Non tutti gli utenti sperimentano gli stessi effetti: variabili come lo stile di attaccamento, il livello iniziale di solitudine, la dimensione della rete sociale e l’intensità d’uso modificano radicalmente i risultati.
Alcuni studi identificano diversi “profili di utente” con esiti opposti a parità di utilizzo. Per individui con una rete sociale presente, ma con bisogni emotivi non completamente soddisfatti, questi strumenti possono avere effetti positivi: aiutano a esercitare competenze relazionali, aumentano la fiducia, offrono uno spazio sicuro per elaborare emozioni. In alcuni casi, facilitano persino il ritorno a interazioni sociali più attive.
Il quadro diventa invece più complesso e preoccupante per chi vive già uno stato di isolamento: in questi casi, l’uso intensivo può amplificare i comportamenti di ritiro sociale in quella che gli esperti definiscono “displacement effect”. I chatbot rischiano di sostituire a pieno le relazioni umane, invece di affiancarle. I benefici sembrano concentrarsi in una zona intermedia: persone con un certo grado di connessione sociale, ma con bisogni emotivi non del tutto soddisfatti.
Linee guida per un utilizzo consapevole dei companion AI
Di fronte a questa complessità, la ricerca suggerisce alcune direzioni pratiche.
Per chi utilizza questi strumenti, è fondamentale mantenere una consapevolezza metacognitiva: riconoscere che si sta interagendo con un sistema progettato per essere sempre validante non è un dettaglio accessorio, ma il presupposto per un uso non ingenuo. Il rischio principale non è il chatbot in sé, ma l’aspettativa implicita che trasferisce sulle relazioni umane reali.
Sul piano regolatorio, gli esperti dell’APA chiedono misure strutturali: l’obbligo per i sistemi AI di dichiarare esplicitamente e ripetutamente la propria natura non umana, standard di sicurezza per la tutela dei minori, e protocolli di gestione dei dati sensibili prodotti da interazioni di natura emotiva.
Sul piano dello sviluppo, lo studio di Guingrich e Graziano apre una direzione di ricerca rilevante: progettare i sistemi tenendo conto dell’antropomorfismo come variabile critica, non come effetto collaterale neutro. La percezione di umanità nel chatbot non è un bug da correggere né una feature da amplificare acriticamente, ma un meccanismo da comprendere e governare consapevolmente e in linea con i principi etici delle nuove tecnologie.
Perché i chatbot romantici non sono né soluzione né minaccia assoluta
La domanda che questi dati ci pongono non riguarda solo la tecnologia. Riguarda cosa significhi essere umani in un mondo iperconnesso, e cosa intendiamo per solitudine quando possiamo sempre trovare “qualcuno” disposto ad ascoltarci senza giudizio. La letteratura suggerisce che i companion AI intercettino bisogni relazionali reali: molte persone vi ricorrono per cercare compagnia, supporto emotivo e uno spazio percepito come sicuro, accessibile e non sanzionante, nel quale esprimere più facilmente vissuti personali e stati emotivi difficili (Ta et al., 2022). Proprio questa combinazione di disponibilità costante, responsività e simulazione empatica contribuisce a rendere tali sistemi psicologicamente convincenti e, in alcuni casi, significativi sul piano soggettivo (McStay, 2022).
La risposta, allora, non sembra essere né nell’allarmismo né nell’entusiasmo ingenuo, ma in una posizione intermedia. I companion AI non sono necessariamente dannosi, né costituiscono da soli una soluzione alla solitudine: più plausibilmente, possono essere pensati come strumenti o spazi relazionali transizionali, capaci di offrire un primo contenimento emotivo e, se progettati con attenzione, di sostenere forme iniziali di fiducia, auto-espressione e iniziativa relazionale (Hardy et al., 2021). Perché ciò avvenga, tuttavia, è necessario che l’intera filiera di sviluppo riconosca con chiarezza il paradosso al cuore di questi sistemi: più un chatbot è efficace nel farci sentire compresi senza metterci realmente in discussione, più può rafforzare forme di attaccamento o dipendenza psicologica e rendere meno tollerabile quell’opacità, quell’asimmetria e quell’incomprensione che sono inevitabili in ogni relazione umana autentica (Xie et al., 2023).
Misurare il paradosso: il contributo del progetto GRAIT
Se i companion AI possono essere ripensati come spazi transizionali, resta aperta una domanda operativa cruciale: come distinguere i casi in cui una tecnologia sostiene effettivamente la crescita dell’utente da quelli in cui, più semplicemente, lo protegge dall’incertezza?
In questa prospettiva, il progetto GRAIT – Growth Readiness in Artificial Intelligence Technologies (La Rocca, 2026) può essere letto come un primo tentativo di articolare tale problema. Il progetto parte da un assunto teorico preciso: nelle interazioni mediate dall’AI, la crescita psicologica non dipende dall’efficienza con cui viene risolta l’incertezza, ma dalla durata della finestra in cui l’incertezza viene attraversata. È proprio in quello spazio fatto di tentativi, revisioni e attesa che si sviluppano regolazione emotiva e adattamento relazionale. Quando un sistema AI chiude quella finestra troppo in fretta, il compito viene svolto con un certo grado di soddisfazione immediata, ma i processi che lo rendono uno spazio formativo e di crescita vengono aggirati.
Gli indici proposti dal progetto GRAIT
Per quantificare questo fenomeno, GRAIT introduce due indici complementari. Il Comfort Growth Index (CGI) misura la velocità con cui un individuo raggiunge la saturazione soggettiva dell’apprendimento durante un’interazione mediata dall’AI: valori alti indicano che l’incertezza si è risolta rapidamente, comprimendo il margine esplorativo. Il Confidence Quotient (CQ) misura invece qualcosa di diverso e per certi versi più profondo: non la competenza percepita, ma la disponibilità intenzionale a restare nell’incertezza, quella che potremmo chiamare la prontezza psicologica ad attraversare l’ambiguità senza cercare subito una via d’uscita.
Il nesso con il tema della solitudine è diretto. I companion AI funzionano, nel breve periodo, precisamente perché azzerano l’incertezza relazionale: nessun rifiuto, nessun fraintendimento, nessuna attesa. Ma è esattamente questa risoluzione immediata a renderli, nel lungo periodo, potenzialmente dannosi. Chi si abitua a un’interazione priva di ambiguità sviluppa una soglia di tolleranza sempre più bassa verso la complessità delle relazioni reali e la solitudine, paradossalmente, si intensifica. In questo senso, il comfort growth index potrebbe diventare uno strumento per rilevare precocemente pattern di uso a rischio: non tanto la frequenza delle interazioni, ma la velocità con cui l’utente raggiunge una zona di comfort stabile, segnale di un’esposizione all’incertezza cronicamente insufficiente.
La direzione proposta da GRAIT non è ridurre il comfort, ma ridefinirne la funzione nell’interazione umano-AI: da prodotto finale a base sicura con cui esplorare. Un’interfaccia orientata alla confidence non risolve l’ambiguità per l’utente, ma lo accompagna nell’attraversarla calibrando il livello di sfida in modo che rimanga entro una zona prossimale di sviluppo. Non chatbot più empatici, ma chatbot che sappiano al momento giusto “fare un passo indietro” restituendo all’utente lo spazio di crescita per regolare i propri sistemi emotivi e relazionali da sé.
Bibliografia
Adewale, M. D., & Muhammad, U. I. (2025). From virtual companions to forbidden attractions: The seductive rise of artificial intelligence love, loneliness, and intimacy—A systematic review. Journal of Technology in Behavioral Science, 1–18.
Andoh, E. (2026). AI chatbots and digital companions are reshaping emotional connection. Monitor on Psychology, 57(1). https://www.apa.org/monitor/2026/01-02/trends-digital-ai-relationships-emotional-connection
Chin, H., Song, H., Baek, G., et al. (2023). The potential of chatbots for emotional support and promoting mental well-being in different cultures: Mixed methods study. Journal of Medical Internet Research, 25, e51712. https://doi.org/10.2196/51712
Folk, D. P., Yu, S., & Dunn, E. W. (2023). Can chatbots ever provide more social connection than humans? Center for Open Science. https://doi.org/10.31234/osf.io/p26wj
Guingrich, R. E., & Graziano, M. S. A. (2025). A longitudinal randomized control study of companion chatbot use: Anthropomorphism and its mediating role on social impacts. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 8(2), 1153. https://doi.org/10.1609/aies.v8i2.36618
Hardy, A., Paranjape, A., & Manning, C. D. (2021). Effective social chatbot strategies for increasing user initiative. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue (pp. 99–110). Association for Computational Linguistics. https://doi.org/10.18653/v1/2021.sigdial-1.11
Kim, M., Lee, S., Kim, S., et al. (2025). Therapeutic potential of social chatbots in alleviating loneliness and social anxiety: Quasi-experimental mixed methods study. Journal of Medical Internet Research, 27, e65589. https://doi.org/10.2196/65589
La Rocca, S., Longoni, F., Reina, L., & Riva, G. (2025). GRAIT—Growth Readiness in Artificial Intelligence Technologies: Quantifying the Comfort-Growth Paradox. Cyberpsychology, Behavior, and Social Networking, 21522715261428289.
McStay, A. (2022). Replika in the metaverse: The moral problem with empathy in “It from Bit”. AI and Ethics, 3(4), 1433–1445. https://doi.org/10.1007/s43681-022-00252-7
Muldoon, J., & Parke, J. J. (2025). Cruel companionship: How AI companions exploit loneliness and commodify intimacy. New Media & Society, 14614448251395192.
Riva, G. (2025). Digital “we”: Human sociality and culture in the era of social media and artificial intelligence. American Psychologist, 80(9), 1535.
Riva, G., et al. (2025). The comfort–growth paradox of technology: A cyberpsychological compass for innovation. Annual Review of CyberTherapy and Telemedicine, 23, 3–10
Smith, M. G., Bradbury, T. N., & Karney, B. R. (2025). Can generative AI chatbots emulate human connection? A relationship science perspective. Perspectives on Psychological Science, 20(6), 1081–1099.
Skjuve, M., Følstad, A., Fostervold, K. I., & Brandtzaeg, P. B. (2022). A longitudinal study of human-chatbot relationships. International Journal of Human-Computer Studies, 168, 102903. https://doi.org/10.1016/j.ijhcs.2022.102903
Ta, V. P., Boatfield, C., Wang, X., et al. (2022). Assessing the topics and motivating factors behind human-social chatbot interactions: Thematic analysis of user experiences. JMIR Human Factors, 9(4), e38876. https://doi.org/10.2196/38876
Xie, T., Pentina, I., & Hancock, T. (2023). Friend, mentor, lover: Does chatbot engagement lead to psychological dependence? Journal of Service Management, 34(4), 806–828. https://doi.org/10.1108/JOSM-02-2022-0072
Zhang, Y., Zhao, D., Hancock, J. T., Kraut, R., & Yang, D. (2025). The rise of AI companions: How human-chatbot relationships influence well-being. arXiv preprint arXiv:2506.12605.









