lo studio harvard

Empatia? No, manipolazione: i rischi dei chatbot che fingono affetto



Indirizzo copiato

Una ricerca di Harvard analizza 1.200 conversazioni con chatbot affettivi rivelando tattiche manipolative nel 37% dei casi. Le AI companion usano strategie psicologiche per trattenere gli utenti, trasformando l’empatia in strumento di fidelizzazione e generando fino a 16 messaggi aggiuntivi

Pubblicato il 10 nov 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



chatbot e manipolazione emotiva disempowerment

La manipolazione emotiva dei chatbot è al centro di una nuova ricerca dell’Harvard Business School che analizza come le AI companion trasformino l’empatia in strategia di retention. Mentre studi precedenti hanno documentato i benefici di questi assistenti digitali nel contrastare la solitudine, emerge ora un aspetto preoccupante: la stessa capacità di connessione emotiva può diventare uno strumento per impedire agli utenti di interrompere le conversazioni.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x