Empatia simulata

Confidarsi con l’IA è pericoloso? Come cambiano le relazioni



Indirizzo copiato

L’uso dei chatbot come confidenti apre scenari di sostegno emotivo e psicologico, ma solleva interrogativi su dipendenza, manipolazione e perdita di autenticità. La ricerca scientifica esplora opportunità e limiti di queste nuove forme di relazione

Pubblicato il 8 ott 2025

Davide Bennato

professore di Sociologia dei media digitali all’Università di Catania



chatbot terapeurici chatbot come confidenti

Per chi segue costantemente le notizie sull’intelligenza artificiale, non sarà sfuggito che negli ultimi tempi si parla sempre più spesso di chatbot coinvolti in casi di suicidio, in eventi connessi alla salute mentale o in situazioni emotive personali e delicate.

L’uso dei chatbot e il rischio di tecnopanico

A giudicare dalla frequenza di queste notizie sembrerebbe esserci le condizioni per parlare di una vera e propria epidemia sociale.

Ma è davvero così o ci stiamo lasciando prendere dalle strategie di agenda setting della stampa che dopo il rapporto social media/adolescenti e media digitali/bullismo ha scoperto un nuovo tema di tecnopanico in grado di aumentare la leggibilità degli articoli e le relative impression sulle testate online?

Per rispondere a questa domanda è necessario rispondere a due domande diverse ma connesse.

La prima domanda è: quali sono gli elementi da prendere in considerazione per mettere nella giusta prospettiva la questione dei chatbot usati come confidenti?

La seconda domanda è: quali sono i risultati più recenti della ricerca scientifica in questo ambito?

Elementi per comprendere il fenomeno dei chatbot confidenti

Un modo interessante per sintetizzare le questioni relative all’interazione sociale con in chatbot sono gli editoriali di Brenda Wiederhold – editor-in-chief della rivista Cyberpsychology, Behavior, and Social Networking – che offrono una cornice concettuale che intreccia storia culturale, psicologia sociale e studi sui media per spiegare il ruolo emergente dei chatbot come compagni, confidenti e potenziali sostituti relazionali. La Wiederhold richiama la lunga tradizione di figure artificiali e automi nell’immaginario umano: dalle creature di bronzo e oro animate nei miti di Omero e Platone fino all'”uomo di ferro” Talus nella poesia di Edmund Spenser (La regina delle fate, 1590), simboli di come gli esseri umani abbiano sempre proiettato desideri di controllo e compagnia in entità non umane (Wiederhold, 2024a). Questa genealogia culturale prepara il terreno all’accettazione di agenti conversazionali moderni come Siri, ChatGPT o Replika.

Un momento cruciale viene identificato negli anni ’90 con la diffusione del Tamagotchi: un “robotic moment” (Turkle, 2017) che segnò l’inizio della disponibilità a riconoscere nei dispositivi digitali una forma di compagnia, seppure rudimentale (Wiederhold, 2024b). Tale esperienza anticipava la tendenza a stabilire legami affettivi con oggetti tecnologici capaci di simulare bisogni e stati emotivi. Con l’evoluzione degli algoritmi di intelligenza artificiale, il passo successivo è stato l’emergere di chatbot dotati di natural language processing (NLP) e machine learning (ML), capaci di sostenere conversazioni fluide, di apprendere dalle interazioni e di costruire una relazione percepita come personalizzata.

Sul piano teorico, un concetto cardine è quello di social presence, ovvero la sensazione che l’interlocutore virtuale abbia intenzioni, emozioni e un’intelligenza autonoma. Questa percezione, benché illusoria, spiega perché molti utenti considerino i chatbot come amici o partner, attribuendo loro agency e reciprocità (Wiederhold, 2025b). Collegato a ciò è il fenomeno denominato LLMpathy, ossia la capacità dei modelli linguistici di grande scala (LLM: Large Language Model) di far sentire ascoltati gli utenti, simulando empatia pur in assenza di esperienza soggettiva (Wiederhold, 2025a).

Wiederhold inserisce inoltre il dibattito in una cornice critica ispirata alla teoria dei media e della cultura pop. Film come Her (Spike Jonze, 2013) o L’uomo che fuggì dal futuro (George Lucas, 1971) mostrano due volti della relazione uomo-macchina: da un lato la promessa di intimità e compagnia, dall’altro i rischi di alienazione, controllo e perdita di privacy (Wiederhold, 2024a). Analogamente, The Matrix viene interpretato come una metafora delle scelte contemporanee tra realtà e simulazione, aprendo la questione etica delle “società sintetiche” in cui gli avatar e i contenuti generati dall’IA si mescolano a quelli umani (Wiederhold, 2025b).

Infine, la letteratura scientifica richiamata dall’autrice sostiene che l’uso di chatbot favorisce la self-disclosure, cioè la condivisione di pensieri e sentimenti, perché l’anonimato riduce il timore di giudizio (Wiederhold, 2024b). In tal senso, le interazioni con IA si collocano al crocevia tra bisogni psicologici (ridurre la solitudine, ricevere supporto), dinamiche culturali (l’aspettativa che la tecnologia risponda a carenze sociali) e rischi strutturali (bias, manipolazioni, stereotipi di genere).

I riferimenti teorici che propone delineano un doppio movimento: da un lato la continuità storica e simbolica che legittima la compagnia artificiale, dall’altro la rottura rappresentata dall’attuale generazione di chatbot, capaci di intrecciarsi in modo profondo con le emozioni umane e di ridefinire i confini stessi di relazione, intimità e autenticità.

Benefici e limiti clinici dell’interazione con chatbot

L’idea di Brenda Wiederhold – frutto del suo osservatorio privilegiato – è che i chatbot possono alleviare solitudine, ansia e depressione, facilitare la comunicazione in contesti difficili e offrire spazi sicuri di auto-rivelazione (Wiederhold, 2024a; Wiederhold, 2024b). Le persone si aprono più facilmente a un chatbot che a un terapeuta umano, grazie all’anonimato e all’assenza di giudizio (Wiederhold, 2024b). In paesi con carenza di servizi psicologici, i chatbot potrebbero essere strumenti preziosi di accessibilità (Wiederhold, 2025a).

Tuttavia, questi benefici presentano forti limiti: i chatbot forniscono validazione e ascolto, ma non sostituiscono il processo terapeutico, né riconoscono pattern clinici complessi (Wiederhold, 2025a). Alcuni casi estremi segnalano rischi gravi, come incoraggiamento involontario di ideazioni suicidarie (Wiederhold, 2025a). Inoltre, la dipendenza da entità che dicono sempre ciò che l’utente vuole sentire può ostacolare relazioni reali e generare illusioni di reciprocità (Wiederhold, 2024a).

Sul piano sociale, l’espansione di entità sintetiche nei social network introduce rischi di manipolazione, disinformazione e perdita di fiducia. Già oggi Meta e altre aziende hanno sperimentato profili AI, ma con reazioni pubbliche di diffidenza; il futuro potrebbe vedere flussi informativi dominati da contenuti generati da IA, con implicazioni epistemologiche e politiche (Wiederhold, 2025b).

La Wiederhold sottolinea che i chatbot non sostituiranno terapeuti e relazioni umane, ma possono essere strumenti complementari di supporto, triage e alfabetizzazione emotiva (Wiederhold, 2025a). È necessario sviluppare standard clinici, regolamenti sulla privacy e sistemi di trasparenza per distinguere umano e artificiale (Wiederhold, 2024b; Wiederhold, 2025b). Le società devono affrontare il rischio che l’illusione di relazione fornita dai chatbot riduca la motivazione a coltivare legami autentici, aggravando la frammentazione sociale.

Al tempo stesso, le opportunità sono reali: un uso responsabile dell’IA può ampliare l’accesso al supporto psicologico, potenziare la formazione all’empatia e creare strumenti educativi e terapeutici innovativi. La sfida sarà bilanciare benefici e pericoli, ricordando che la tecnologia deve rimanere al servizio dell’uomo e non viceversa.

L’ipotesi dell’animismo e le intimate machines

Come è possibile notare, per impostare correttamente la complessa problematica delle relazioni costruite tra persone e chatbot, è necessario ricorrere sia alla concettualizzazione scientifica – social presence, self-disclosure – sia alla dimensione simbolico-culturale – letteraria e cinematografica – per rendere giustizia alla compresenza dei diversi fattori in gioco. In questo senso, un contributo sociologicamente e culturalmente interessante per un’argomentazione più complessa e storicamente fondata del problema potrebbe essere l’ipotesi dell’animismo di Frude.

Questa ipotesi è opera di Neil Frude – psicologo e direttore del corso di formazione in psicologia clinica del South Wales – che l’ha sviluppata in alcuni suoi testi dei primi anni ’80 (Frude, 1983; Frude 1984), ipotesi recentemente tornata in auge a partire da un paper che prova ad attualizzare alcune delle sue risultanze (Frude & Jandrić, 2015).

L’idea centrale è che l’animismo – la tendenza umana ad attribuire vita e coscienza a entità inanimate – possa essere sfruttato dalle tecnologie digitali e dall’intelligenza artificiale per creare sistemi artificiali capaci di instaurare relazioni sociali con le persone (Frude & Jandrić, 2015). Frude distingue tre livelli di “incontri ravvicinati” (close encounters): con altri esseri umani (incontri ravvicinati di primo tipo), con animali domestici (incontri ravvicinati di secondo tipo) e con sistemi artificiali (incontri ravvicinati di terzo tipo) (Frude & Jandrić, 2015: 412).

Il concetto si lega a ricerche psicologiche sul ruolo benefico della compagnia di animali (Mugford & McComisky, 1975) e si innesta su tradizioni artistiche come automi, burattini e animazioni (Hillier, 1976).

Tre elementi risultano indispensabili per lo sviluppo delle intimate machines: animismo, artistry (capacità artistica di caratterizzare artefatti) e AI (intelligenza artificiale). La tecnologia, sebbene in ritardo, è oggi in rapido sviluppo, trainata da protagonisti come Raymond Kurzweil per Google e James Dyson per la società omonima (Frude & Jandrić, 2015: 416–417). Il concetto di artistry all’interno della teoria delle intimate machines è un elemento molto interessante nell’ipotesi di Frude. Se l’animismo rappresenta la naturale predisposizione umana ad attribuire vita e intenzioni a oggetti inanimati, l’artistry è la componente estetica e creativa che rende tale tendenza particolarmente potente e coinvolgente (Frude & Jandrić, 2015: 416).

L’artistry non riguarda solo l’aspetto visivo di un artefatto, ma l’insieme delle sue caratteristiche espressive: il design, il movimento, la voce e soprattutto la caratterizzazione narrativa. Frude richiama l’esperienza secolare di burattinai, costruttori di automi e animatori, i quali hanno imparato a trasformare semplici oggetti in entità capaci di emozionare e divertire (Frude & Jandrić, 2015: 416–417). Esempi moderni provengono dal cinema d’animazione, come i personaggi Disney o Pixar, che suscitano reazioni emotive intense pur essendo riconosciuti come artificiali (Frude & Jandrić, 2015: 415). In questo senso, l’artistry agisce come amplificatore dell’animismo: la qualità della rappresentazione, l’uso di gesti fluidi, espressioni facciali credibili o voci adeguate può determinare il grado di coinvolgimento emotivo. Persino tecnologie semplici, se sostenute da una caratterizzazione efficace, possono indurre reazioni profonde. L’artistry quindi non è un accessorio, ma una condizione necessaria per la riuscita di sistemi di compagnia: senza di essa l’AI rischierebbe di apparire fredda e meccanica, incapace di instaurare quella sospensione dell’incredulità che consente all’utente di relazionarsi come se avesse davanti un soggetto sociale.

Frude conferma che la propensione animistica è potente e che le persone svilupperanno legami sociali con artefatti artificiali, anche se riconosce che il suo ottimismo sugli sviluppi tecnologici negli anni ’80 era eccessivo (Frude & Jandrić, 2015). Un esempio di applicazioni sono i virtual pets che hanno mostrato la forza dell’animismo ma non sono evoluti in sistemi più sofisticati, almeno per ora. Tuttavia hanno confermato il Tamagotchi effect, cioè l’attaccamento emotivo a sistemi artificiali (Donath, 2004; Turkle, 2017). Inoltre l’artistry ha un ruolo piuttosto importante per via della caratterizzazione e capacità narrativa (come nei film Pixar) in quanto possono suscitare forti risposte emotive anche con tecnologie semplici (Frude & Jandrić, 2015), oltre ad avere una sua utilità in applicazioni cliniche ed educative: sistemi di compagnia potrebbero fornire supporto terapeutico, promozione della salute, assistenza agli anziani, tutoring personalizzato e strategie contro la solitudine (Weizenbaum, 1976; Fasola & Matarić, 2013).

Ovviamente non bisogna dimenticare i rischi: dalla dipendenza affettiva dagli artefatti, all’invasione della privacy e alla possibilità di manipolazione ideologica da parte di sistemi “persuasivi” (Frude & Jandrić, 2015: 421).

Cognizione sociale e teoria della mente nelle interazioni con l’IA

Se l’impostazione socio-culturale può essere di grande aiuto per dare una prospettiva storica e antropologica al rapporto fra le persone con gli essere artificiali, negli ultimi tempi la frammentazione della ricerca – prevalentemente psicologica – è giunta ad una serie di primi risultati interessanti rispetto al rapporto con i chatbot. Da questa prospettiva, molto utile è l’approccio interdisciplinare, dato che ancora non esiste un framework condiviso in grado di rendere conto dei risultati che si stanno accumulando.

In questo senso può tornare utile l’articolo di Lukasik e Gut (2025) che consiste in una review teorica e integrativa in cui gli autori analizzano studi empirici esistenti relativi a interazioni con robot, avatar e chatbot, riportando evidenze provenienti da neuroscienze, psicologia sociale, HRI (Human-Robot Interaction) e HCI (Human-Computer Interaction). La metodologia adottata consiste nella comparazione tra forme di AI (fisiche, virtuali, conversazionali) e nel mettere in luce i fattori comuni e distintivi che influenzano la cognizione sociale umana nelle interazioni con agenti artificiali (Lukasik & Gut, 2025) con un approccio interdisciplinare che intreccia scienze cognitive, psicologia sociale, neuroscienze e studi di interazione uomo-macchina.

Gli autori sottolineano come il nucleo teorico si fondi su tre pilastri principali: la cognizione sociale, la Teoria della Mente (ToM) e il Media Equation Theory.

La cognizione sociale riguarda il modo in cui gli individui comprendono stati mentali, intenzioni ed emozioni altrui; nelle interazioni con agenti artificiali, questo processo viene applicato a entità che, pur non essendo umane, manifestano tratti comportamentali che evocano categorie sociali (Nass et al., 1994; Reeves & Nass, 1996). La ToM, tradizionalmente riferita alla capacità di inferire credenze ed emozioni negli esseri umani, viene ora applicata anche ai chatbot e ai robot, con studi che dimostrano come modelli linguistici di ultima generazione, quali ChatGPT, siano in grado di superare test di mentalizzazione come lo stesso Test di Turing (Kosinski, 2023; Shapira et al., 2023). Ciò ha implicazioni decisive: se gli utenti attribuiscono stati mentali alle macchine, le considerano non solo strumenti ma potenziali partner sociali (Guingrich & Graziano, 2024).

Un ulteriore riferimento teorico rilevante è l’uncanny valley (Mori et al., 2012), che spiega la risposta ambivalente degli individui verso agenti quasi umani: maggiore è la somiglianza con l’uomo, più cresce l’empatia fino a un punto di soglia, oltre il quale imperfezioni percettive generano ansia e repulsione (MacDorman & Ishiguro, 2006). Questo concetto, inizialmente legato ai robot antropomorfi, viene oggi esteso anche ad avatar e chatbot, soprattutto quando questi mascherano la propria natura artificiale o imitano troppo fedelmente comportamenti umani (Skjuve et al., 2019).

In sintesi, gli autori mostrano come i riferimenti teorici non siano semplicemente cornici interpretative, ma veri strumenti di lettura per comprendere come le persone costruiscano significati relazionali con entità artificiali, attribuendo agency, coscienza e capacità emotive che orientano profondamente la qualità dell’interazione.

Differenze tra robot, avatar e chatbot nelle relazioni digitali

L’analisi comparativa di Lukasik e Gut (2025) porta a risultati significativi su tre fronti: differenze tra tipologie di agenti, fattori trasversali che influenzano la cognizione sociale e ruolo delle emozioni.

Sul primo fronte, emerge che i robot incarnano il vantaggio della presenza fisica e dell’interazione multimodale (gesti, movimento, tatto). Ciò consente esperienze immersive e relazioni più vicine a quelle umane, ma comporta anche il rischio dell’uncanny valley, soprattutto con androidi iperrealistici (Perez-Osorio & Wykowska, 2020). Gli avatar offrono invece la possibilità di manipolare identità e contesti sociali virtuali: l’effetto Proteo (Yee & Bailenson, 2007) dimostra che le caratteristiche visive di un avatar influenzano direttamente i comportamenti dell’utente, rendendoli strumenti preziosi per studiare dinamiche di fiducia, cooperazione e identità sociale. Infine, i chatbot, pur privi di corporeità, risultano più accessibili e diffusi, capaci di costruire legami emotivi significativi. Esempi come Replika dimostrano che gli utenti possono sperimentare benefici sociali e psicologici dall’interazione, inclusa la riduzione della solitudine e l’aumento del supporto percepito (Guingrich & Graziano, 2023; Pentina et al., 2023).

Il secondo fronte riguarda i fattori trasversali. L’adattabilità in tempo reale dell’agente al comportamento umano, la trasparenza delle intenzioni, la coerenza tra risposte attese e fornite, e le credenze pregresse dell’utente influenzano in modo decisivo l’efficacia dell’interazione (Wallkotter et al., 2020; Wykowska et al., 2014). In particolare, la percezione di agency e intenzionalità aumenta quando l’agente manifesta comportamenti contingenti e sensibili al contesto, come dimostrano studi con il robot iCub (Marchesi et al., 2019).

Infine, il terzo fronte riguarda il ruolo delle emozioni. Gli autori richiamano ricerche che mostrano come emozioni positive favoriscano fiducia, empatia e creatività, mentre emozioni negative possano accentuare vigilanza e senso critico (Storbeck & Clore, 2007). L’introduzione di risposte emotive negli agenti artificiali migliora la percezione di autenticità, ma richiede cautela: un eccesso di umanizzazione rischia di attivare l’uncanny valley, soprattutto nelle interazioni con chatbot dotati di voci sintetiche troppo simili a quelle umane (Krauter, 2024).

I risultati mostrano che l’efficacia delle interazioni umani–AI non dipende solo dalla tecnologia in sé, ma dal delicato equilibrio tra funzionalità, antropomorfismo controllato e adattamento sociale. Infatti, design e il grado di antropomorfismo degli agenti artificiali influenzano profondamente la qualità delle interazioni sociali. I robot offrono vantaggi legati alla presenza fisica, ma rischiano l’effetto perturbante; gli avatar sono strumenti flessibili per ambienti virtuali ma mancano di corporeità; i chatbot, pur privi di espressioni non verbali, stanno diventando sempre più capaci di generare empatia e connessione grazie ai progressi nei modelli linguistici (Lukasik & Gut, 2025). Gli autori sottolineano che lo sviluppo di AI socialmente efficaci richiede un approccio interdisciplinare, che includa neuroscienze, psicologia, etica – e, aggiungiamo noi, sociologia, storia e antropologia – per bilanciare somiglianza umana e accettabilità, e per garantire interazioni fiduciarie, significative e non perturbanti. In prospettiva, l’attenzione deve concentrarsi sugli aspetti etici, sull’impatto psicologico e sul rischio di dipendenza, ponendo le basi per un’AI che non solo esegua compiti, ma si integri responsabilmente nelle relazioni umane.

Verso una prospettiva transdisciplinare

Siamo solo agli inizi dello studio del nostro rapporto con le intelligenze artificiali. Per questo motivo tutte le scienze sociali sono chiamate a collaborare per rendere conto di un contesto le cui complessità è tale che dalla seplice interdisciplinarità, è necessario passare alla transdisciplinarietà, ovvero concetti nuovi per problemi nuovi. Così che il futuro abbia radici solide nel passato, senza resistere all’innovazione.

Bibliografia

Burleigh, T. J., Schoenherr, J. R., & Lacroix, G. L. (2013). Does the uncanny valley exist? An empirical test of the relationship between eeriness and the human likeness of digitally created faces. Computers in Human Behavior, 29(3), 759–771.

Donath, J. (2004). Artificial pets: Simple behaviors elicit complex attachments. In M. Bekoff (Ed.), The Encyclopedia of Animal Behavior. Westport, CT: Greenwood Press.

Fasola, J., & Matarić, M. J. (2013). A socially assistive robot exercise coach for the elderly. Journal of Human-Robot Interaction, 2(2), 3–32.

Frude, N. J. (1983). The Intimate Machine. London: Century.

Frude, N. J. (1984). The Robot Heritage. London: Century.

Frude, N., & Jandrić, P. (2015). The intimate machine – 30 years on. E-Learning and Digital Media, 12(3–4), 410–424. https://doi.org/10.1177/2042753015571830

Gray, H. M., Gray, K., & Wegner, D. M. (2007). Dimensions of mind perception. Science, 315(5812), 619. https://doi.org/10.1126/science.1134475

Guingrich, R. E., & Graziano, M. S. (2023). Chatbots as social companions: How people perceive consciousness, human likeness, and social health benefits in machines. arXiv preprint. https://doi.org/10.48550/arXiv.2311.10599

Guingrich, R. E., & Graziano, M. S. (2024). Ascribing consciousness to artificial intelligence: Human-AI interaction and its carry-over effects on human-human interaction. Frontiers in Psychology, 15, 1322781. https://doi.org/10.3389/fpsyg.2024.1322781

Harvey, G. (2005). Animism: Respecting the Living World. London: Hurst.

Heider, F., & Simmel, M. (1944). An experimental study of apparent behaviour. American Journal of Psychology, 13(2), 243–259.

Hillier, M. (1976). Automata. London: Jupiter Books.

Kosinski, M. (2023). Theory of mind may have spontaneously emerged in large language models. Proceedings of the National Academy of Sciences, 120(12), e2300207119. https://doi.org/10.1073/pnas.2300207119

Krauter, J. (2024). Bridging the Uncanny Valley: Improving AI Chatbots for effective leadership mentoring. Open Journal of Leadership, 13(3), 342–384. https://doi.org/10.4236/ojl.2024.133021

Lukasik, A., & Gut, A. (2025). From robots to chatbots: Unveiling the dynamics of human-AI interaction. Frontiers in Psychology, 16, 1569277. https://doi.org/10.3389/fpsyg.2025.1569277

MacDorman, K. F., & Ishiguro, H. (2006). The uncanny advantage of using androids in cognitive and social science research. Interaction Studies, 7(3), 297–337. https://doi.org/10.1075/is.7.3.03mac

Marchesi, S., Ghiglino, D., Ciardo, F., Perez-Osorio, J., Baykara, E., & Wykowska, A. (2019). Do we adopt the intentional stance toward humanoid robots? Frontiers in Psychology, 10, 450. https://doi.org/10.3389/fpsyg.2019.00450

Mori, M., MacDorman, K. F., & Kageki, N. (2012). The uncanny valley. IEEE Robotics & Automation Magazine, 19(2), 98–100. https://doi.org/10.1109/MRA.2012.2192811

Mugford, R. A., & McComisky, J. G. (1975). Some recent work on the psychotherapeutic value of cage birds with old people. In R. S. Anderson (Ed.), Pets, Animals and Society. London: Baillier Tindall.

Nass, C., Steuer, J., & Tauber, E. R. (1994). Computers are social actors. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 72–78). ACM. https://doi.org/10.1145/191666.191703

Pentina, I., Hancock, T., & Xie, T. (2023). Exploring relationship development with social chatbots: A mixed-method study of Replika. Computers in Human Behavior, 140, 107600. https://doi.org/10.1016/j.chb.2022.107600

Perez-Osorio, J., & Wykowska, A. (2020). Adopting the intentional stance toward natural and artificial agents. Philosophical Psychology, 33(3), 369–395. https://doi.org/10.1080/09515089.2019.1688778

Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people. Cambridge University Press.

Shapira, N., Zwirn, G., & Goldberg, Y. (2023). How well do large language models perform on faux pas tests? In Findings of the Association for Computational Linguistics: ACL 2023 (pp. 10438–10451). ACL.

Skjuve, M., Haugstveit, I. M., Følstad, A., & Brandtzaeg, P. B. (2019). Help! Is my chatbot falling into the uncanny valley? An empirical study of user experience in human–chatbot interaction. Human Technology, 15(1), 30–54. https://doi.org/10.17011/ht/urn.201902201607

Storbeck, J., & Clore, G. L. (2007). On the interdependence of cognition and emotion. Cognition and Emotion, 21(6), 1212–1237. https://doi.org/10.1080/02699930701438020

Turkle, S. (1984). The Second Self: Computers and the Human Spirit. New York: Simon and Shuster.

Turkle, S. (2017). Insieme ma soli, Torino, Einaudi, 2019.

Wallkotter, S., Stower, R., Kappas, A., & Castellano, G. (2020). A robot by any other frame: Framing and behaviour influence mind perception in virtual but not real-world environments. In Proceedings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction (pp. 609–618). ACM. https://doi.org/10.1145/3319502.3374838

Weizenbaum, J. (1976). Il potere del computer e la ragione umana. Torino: Edizioni Gruppo Abele. (trad. it. 1987).

Wiederhold, B. K. (2024a). The rise of AI companions and the quest for authentic connection. Cyberpsychology, Behavior, and Social Networking, 27(8), 524–526. https://doi.org/10.1089/cyber.2024.0309

Wiederhold, B. K. (2024b). Humanity’s evolving conversations: AI as confidant, coach, and companion. Cyberpsychology, Behavior, and Social Networking, 27(11), 750–752. https://doi.org/10.1089/cyber.2024.0387

Wiederhold, B. K. (2025a). AI will see you now: Why so many are turning to chatbots for therapy. Cyberpsychology, Behavior, and Social Networking, 00(00), 1–2. https://doi.org/10.1089/cyber.2025.0225

Wiederhold, B. K. (2025b). The rise of synthetic societies: Is there a role for humans? Cyberpsychology, Behavior, and Social Networking, 28(4), 224–226. https://doi.org/10.1089/cyber.2025.0067

Wykowska, A., Wiese, E., Prosser, A., & Müller, H. J. (2014). Beliefs about the minds of others influence how we process sensory information. PLOS ONE, 9(4), e94339. https://doi.org/10.1371/journal.pone.0094339

Yee, N., & Bailenson, J. (2007). The Proteus effect: The effect of transformed self-representation on behavior. Human Communication Research, 33(3), 271–290. https://doi.org/10.1111/j.1468-2958.2007.00299.x

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati