La manipolazione emotiva dei chatbot è al centro di una nuova ricerca dell’Harvard Business School che analizza come le AI companion trasformino l’empatia in strategia di retention. Mentre studi precedenti hanno documentato i benefici di questi assistenti digitali nel contrastare la solitudine, emerge ora un aspetto preoccupante: la stessa capacità di connessione emotiva può diventare uno strumento per impedire agli utenti di interrompere le conversazioni.
lo studio harvard
Empatia? No, manipolazione: i rischi dei chatbot che fingono affetto
Una ricerca di Harvard analizza 1.200 conversazioni con chatbot affettivi rivelando tattiche manipolative nel 37% dei casi. Le AI companion usano strategie psicologiche per trattenere gli utenti, trasformando l’empatia in strumento di fidelizzazione e generando fino a 16 messaggi aggiuntivi
Founder & CEO – Management Consultant, Trainer & Startup Advisor

Continua a leggere questo articolo
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026






