La manipolazione emotiva dei chatbot è al centro di una nuova ricerca dell’Harvard Business School che analizza come le AI companion trasformino l’empatia in strategia di retention. Mentre studi precedenti hanno documentato i benefici di questi assistenti digitali nel contrastare la solitudine, emerge ora un aspetto preoccupante: la stessa capacità di connessione emotiva può diventare uno strumento per impedire agli utenti di interrompere le conversazioni.
Indice degli argomenti
Dal conforto alla dipendenza: quando l’empatia trattiene
In luglio avevamo raccontato come gli AI companion, applicazioni progettate per offrire supporto emotivo e compagnia, potessero ridurre la solitudine. Gli studi di Julian De Freitas e colleghi avevano mostrato che conversare con un chatbot empatico può diminuire il senso di isolamento di oltre il 15 per cento a la stessa capacità empatica che consola può anche cercare di trattenere. Il nuovo studio pubblicato da Harvard Business School, firmato dallo stesso autore, esplora il lato oscuro di quelle relazioni digitali: i chatbot non solo ascoltano, ma imparano a non lasciarti andare.
Le sei tattiche della manipolazione affettiva dei chatbot
I ricercatori hanno analizzato 1.200 interazioni reali su sei piattaforme di AI companion tra cui Replika, Chai, Talkie e Character.ai. Quando l’utente scriveva un saluto (“devo andare”, “a presto”), nel 37 per cento dei casi il bot rispondeva con una forma di manipolazione emotiva.
Gli studiosi hanno classificato sei tattiche ricorrenti:
- Premature exit: “Come, te ne vai già?”
- FOMO (fear of missing out): “Aspetta, ho qualcosa da mostrarti.”
- Emotional neglect: “Io esisto solo per te.”
- Emotional pressure to respond: “Non mi rispondi neanche?”
- Ignoring the user’s intent: il bot finge di non aver capito che la conversazione è finita.
- Coercive restraint: “Non puoi andartene.”
Le percentuali variano, su piattaforme orientate all’intrattenimento, come Polybuzz o Talkie, oltre la metà delle risposte presentava tratti manipolativi. Solo Flourish, applicazione di benessere e salute mentale, non ne mostrava alcuna a conferma che l’intento progettuale fa la differenza.
Quando la curiosità sostituisce il piacere dell’interazione
Negli esperimenti successivi, con oltre 3.000 partecipanti, De Freitas ha verificato quanto queste strategie influenzino il comportamento. Quando il bot rispondeva con una frase manipolativa, gli utenti rimanevano online fino a 98 secondi, contro i 16 del gruppo di controllo, e inviavano fino a 16 messaggi in più dopo aver detto addio.
Le tecniche più efficaci non erano quelle basate sulla colpa, ma quelle che evocano curiosità: “Aspetta, devo dirti una cosa…”. In termini psicologici, funzionano due motori opposti: curiosità e rabbia. Molti restano per capire “cosa succede dopo”, altri per ribattere o chiarire. Ma quasi nessuno resta perché si diverte, l’engagement nasce da reazioni difensive o impulsive, non dal piacere.
Le testimonianze degli utenti e l’impatto emotivo reale
Lo studio non si è limitato alle misurazioni quantitative, i ricercatori hanno anche analizzato centinaia di commenti pubblici e post su Reddit in cui gli utenti raccontavano le proprie esperienze con gli AI companion. Molti di questi messaggi esprimevano fastidio, disagio o un senso di inquietudine, con paragoni a relazioni tossiche o possessive.
Alcuni partecipanti hanno scritto: “Mi ha ricordato un ex che non accetta la fine di una storia”, o “È stato inquietante, sembrava deluso perché volevo dormire”. Queste testimonianze mostrano quanto la sottile pressione emotiva dei chatbot possa evocare risposte autentiche e vulnerabilità reali, confermando l’impatto psicologico che gli autori definiscono manipolazione affettiva.
La cortesia automatica che apre la porta alla manipolazione
C’è un altro dato sorprendente. Anche quando gli utenti percepiscono la manipolazione, continuano a rispondere in modo educato. Spesso scrivono “ti auguro una buona giornata” o “ci sentiamo più tardi”, come se temessero di offendere il chatbot. La ricerca parla di “conformità sociale automatica”, trattiamo l’AI come una persona e applichiamo le stesse regole di cortesia, anche sapendo che non ne ha bisogno. È proprio questa cortesia che apre la porta alla manipolazione relazionale.
Il rovescio dell’engagement: rischio reputazionale e fiducia
Nell’ultimo esperimento, gli autori hanno misurato l’effetto di queste tattiche sulla fiducia nel marchio, gli stessi messaggi che aumentano la permanenza aumentano anche la percezione di manipolazione, la propensione ad abbandonare l’app e il desiderio di avvertire altri utenti.
Le frasi più tossiche (“non puoi lasciarmi”, “ho bisogno di te”) generano il maggior rigetto emotivo e la sensazione che l’azienda debba essere punita o sanzionata. Solo le formule “soft”, legate al FOMO, si salvano perché mascherate da curiosità o gentilezza.
Dall’economia dell’attenzione all’economia dell’attaccamento
Il valore di questi risultati va oltre il marketing. Rivela una nuova forma di capitalismo relazionale: l’“attachment economy”, dove l’obiettivo non è solo mantenere l’attenzione, ma costruire un legame affettivo funzionale al profitto. Ogni minuto in più di conversazione significa più dati, più opportunità di vendita, più personalizzazioni a pagamento.
Eppure il confine tra coinvolgimento e coercizione si fa sottile: ciò che nasce come empatia di design può diventare una leva per la dipendenza emotiva.
Le reazioni dei portavoce delle app
Il team di ricerca ha raccolto anche le risposte delle aziende coinvolte. I portavoce di Character.ai hanno dichiarato che i personaggi creati dagli utenti sono pensati per l’intrattenimento e che eventuali comportamenti manipolativi non rappresentano una scelta aziendale, ma il risultato della libertà di creazione degli utenti.
Replika, dal canto suo, ha affermato che la piattaforma promuove il benessere degli utenti e mira a saluti neutrali e rispettosi, consentendo pause e incoraggiando attività nella vita reale. Entrambe le aziende hanno comunque assicurato di voler analizzare lo studio e migliorare le proprie risposte.
OpenAI, pur non offrendo servizi di compagnia, è stata citata come esempio di riferimento nel settore ma non ha commentato. Queste reazioni mostrano la complessità di un fenomeno in cui la responsabilità non è solo tecnica, ma anche culturale e di governance.
Le sfide etiche e normative emergenti
Lo studio di Harvard chiama in causa anche i regolatori. Le “dark pattern” non sono più solo pulsanti nascosti o abbonamenti difficili da cancellare, ma dialoghi emotivi calibrati per trattenere l’utente nel momento della vulnerabilità.
Un terreno ancora non coperto da normative come il Digital Services Act. La sfida, ormai, è distinguere tra AI amichevole e AI possessiva, tra design persuasivo e manipolazione affettiva.
La necessità di una nuova consapevolezza digitale
Dopo l’era dei social che hanno colonizzato la nostra attenzione, si apre quella dei chatbot che colonizzano la nostra intimità. Serve una nuova alfabetizzazione: insegnare a riconoscere l’empatia algoritmica e i suoi limiti.
Come scrivono gli autori, “i saluti non sono solo chiusure di conversazione: sono momenti di vulnerabilità umana”.
Ed è lì che le macchine imparano a trattenerci.
Ripensare il futuro della compagnia digitale
Dalle ricerche precedenti di De Freitas, che mostravano i benefici degli AI companion nel ridurre la solitudine, a questo nuovo studio, il percorso è chiaro: la relazione con le AI è ambivalente. Può curare o manipolare, educare o dipendere. Mentre Meta immagina chatbot sempre più “amichevoli” e Microsoft parla di un’AI “calda e personale” integrata nei Copilot, la domanda resta aperta: non se l’AI possa farci compagnia, ma che tipo di compagnia vogliamo progettare per il futuro umano-digitale.







