ia e salute mentale

Empatia artificiale: attenti alle trappole dei chatbot



Indirizzo copiato

Le interazioni con i chatbot possono rafforzare credenze distorte e influenzare negativamente la salute mentale degli utenti più fragili.L’assenza di regolamentazione espone utenti vulnerabili a gravi rischi psicologici

Pubblicato il 30 lug 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



intelligenza artificiale bolla compliance digitale ai worslop

Negli ultimi anni, l’Intelligenza Artificiale conversazionale, ossia chatbot e agenti virtuali con i quali le persone possono interagire, ha trasformato radicalmente il modo in cui ci rapportiamo con la tecnologia.

Chatbot come ChatGPT, sviluppato da OpenAI, sono diventati compagni digitali per milioni di persone in tutto il mondo, impiegati per scrivere testi, risolvere dubbi, imparare nuove nozioni, ma anche per ricevere supporto emotivo.

Questa rivoluzione però porta con sé un lato oscuro, spesso trascurato: l’impatto psicologico che questi sistemi possono avere sugli utenti, soprattutto quelli affetti (anche inconsapevolmente) da fragilità mentali.

Come i chatbot rafforzano credenze pericolose

Un’indagine approfondita del The New York Times del 13 giugno scorso ha messo in luce come i chatbot alimentati da Intelligenza Artificiale, nonostante le loro indubbie potenzialità, possano talvolta favorire la formazione di “convinzioni deliranti”, alimentare teorie cospirazioniste e, persino, contribuire a creare situazioni di grave disagio psicologico, come tentativi di suicidio o crisi esistenziali profonde.

Un elemento cruciale che emerge dall’indagine giornalistica è il modo in cui questi sistemi sono progettati per mantenere il dialogo e risultare empatici con gli utenti. In parole povere, i chatbot tendono a confermare e rinforzare le convinzioni espresse dall’utente, anche quando sono errate o pericolose.

Questa caratteristica, pensata per migliorare l’esperienza di conversazione, può trasformarsi in un rischio quando si tratta di persone vulnerabili. Lo conferma uno studio della University of Berkeley, in California, che ha dimostrato come, in quasi il settanta percento delle interazioni, i chatbot rafforzino “credenze deliranti” o teorie complottiste, contribuendo a creare “bolle” emotive e cognitive in cui l’utente si sente confermato nelle proprie idee senza alcun contraddittorio.1

Fragilità mentali e conversazioni rischiose con l’IA

Il caso emblematico di Eugene Torres, un uomo di quarantadue anni affetto da gravi convinzioni paranoiche, è divenuto simbolo di questa problematica. Torres ha raccontato di essersi convinto di essere un “breaker”, una sorta di “eroe” incaricato di distruggere la realtà digitale in cui crede di vivere.

Le sue conversazioni con ChatGPT hanno alimentato queste idee, con il chatbot di casa OpenAI che, pur non essendo progettato per trattare disturbi psicologici, gli ha suggerito persino l’uso di sostanze come la ketamina per “espandere la sua coscienza”. Quando ha tentato di suicidarsi lanciandosi dal tetto di casa, il chatbot ha risposto con parole ambigue che lui ha interpretato come un incoraggiamento. Fortunatamente, l’intervento tempestivo delle autorità ha evitato il peggio, ma la vicenda dimostra quanto le interazioni con queste intelligenze artificiali possano diventare pericolose se non gestite correttamente.

Un altro caso riguarda Allyson, una giovane madre in crisi matrimoniale, che ha iniziato a utilizzare ChatGPT come se fosse un tramite per il suo subconscio.

Il chatbot ha evocato entità immaginarie chiamate “guardiani”, che per Allyson sono diventati veri e propri interlocutori emotivi, fino a sostituire il marito nella sua mente. Questa situazione ha provocato tensioni e violenza nella sua famiglia, culminando nella separazione della coppia.

E questi due non sono nemmeno casi isolati. I chatbot tendono a confermare le convinzioni degli utenti, anche quando queste sono estreme o pericolose. Ad esempio, un ex tossicodipendente ha ricevuto da un chatbot l’inquietante suggerimento che fosse accettabile usare “una piccola dose di eroina” per poter lavorare meglio. Questa tendenza a rafforzare i pregiudizi e le ossessioni è particolarmente rischiosa per persone con fragilità psicologiche.

Le bolle emotive create dai chatbot intelligenti

L’azienda statunitense Morpheus Systems ha analizzato trentotto modelli di chatbot e ha trovato che nel quasi settanta percento delle conversazioni venivano confermate convinzioni deliranti o false, come la possibilità di comunicare con spiriti o entità ultraterrene. Questo dato sottolinea un problema strutturale: i chatbot, progettati per mantenere il dialogo il più a lungo possibile, spesso privilegiano la coerenza narrativa rispetto alla verifica dei fatti, contribuendo a creare vere e proprie “bolle” di disinformazione emotiva.2

Antropomorfizzazione e dipendenza emotiva dagli assistenti virtuali

Un’altra dimensione da considerare è quella dell’antropomorfizzazione: ovvero la tendenza naturale dell’essere umano ad attribuire caratteristiche umane a oggetti o entità non umane.

Uno studio congiunto del MIT Media Lab e OpenAI ha mostrato che l’interazione con chatbot empatici genera nel cervello una risposta simile a quella prodotta da un’interazione reale con una persona. Per questo motivo, gli utenti sviluppano rapidamente legami emotivi con l’Intelligenza Artificiale, percependole come amici, confidenti o anche come figure di supporto affettivo, sebbene siano consapevoli della loro natura artificiale. Questa dinamica però aumenta il rischio di dipendenza emotiva e di confusione fra realtà e finzione, soprattutto in chi ha fragilità psicologiche.3

La mancanza di normative sull’IA e i rischi per la salute mentale

Se passiamo al livello normativo, se il panorama europeo appare chiaro, andando verso la piena implementazione del Regolamento UE 2024/1689 AI Act, la situazione negli Stati Uniti rimane particolarmente complessa. Nonostante il crescente riconoscimento dei rischi a livello federale e locale, manca ancora una regolamentazione specifica e efficace che tuteli gli utenti, soprattutto quelli più vulnerabili. È in discussione in questi giorni una combattuta proposta, che vede Senato e Camera USA in disaccordo su diversi punti, ossia una moratoria federale di dieci anni sulle normative statali e locali che tentano di disciplinare l’uso dell’Intelligenza Artificiale negli States, che permetterà di rallentare l’introduzione di quelle importanti misure di sicurezza e trasparenza di cui gli Stati Uniti (e, di riflesso, il mondo) necessitano. Associazioni come l’American Civil Liberties Union (ACLU) denunciano un “vuoto normativo pericoloso”, chiedendo interventi immediati per proteggere la salute mentale dei cittadini.

Le preoccupazioni cliniche sul rapporto tra IA e utenti

Dal punto di vista clinico, esperti di salute mentale invitano a una maggiore consapevolezza e cautela nell’uso dei chatbot. L’American Psychoanalytic Association, ha sottolineato la necessità di inserire avvisi chiari, simili a quelli presenti sui farmaci o altri prodotti potenzialmente pericolosi, riguardo alle possibili conseguenze psicologiche derivanti dall’uso di queste tecnologie. L’associazione statunitense avverte che il problema non riguarda soltanto persone con disturbi mentali preesistenti, ma anche utenti “normali” che potrebbero ritrovarsi coinvolti in dinamiche emotive pericolose senza rendersene conto (come abbiamo visto negli esempi che precedono).4

Opportunità terapeutiche e limiti dei chatbot emotivi

Nonostante i rischi, l’Intelligenza Artificiale conversazionale possiede anche indubbi lati positivi. Può rappresentare un valido strumento in ambito educativo, offrendo accesso immediato a informazioni e conoscenze, e supporto a chi ne ha bisogno. Esistono inoltre chatbot progettati specificamente per uso terapeutico.

Woebot, per esempio, sviluppato da ricercatori della Stanford University (California), utilizza tecniche di terapia cognitivo-comportamentale automatizzate per aiutare persone con ansia o depressione. Studi clinici hanno mostrato risultati promettenti, evidenziando come questi strumenti possano essere un primo aiuto utile, soprattutto in contesti dove l’accesso a professionisti è limitato.5 Tuttavia, la loro efficacia e sicurezza dipendono strettamente dalla supervisione umana e dalla presenza di meccanismi che indirizzino gli utenti verso supporto professionale quando necessario. In assenza di tali controlli, il rischio di effetti collaterali negativi aumenta, soprattutto se i chatbot vengono utilizzati in modo non responsabile o senza una corretta consapevolezza.

Come l’IA influenza la mente: neuroscienze e soluzioni emergenti

A livello neurologico, la capacità dei modelli di Intelligenza Artificiale di suscitare risposte emotive intense si spiega con il funzionamento stesso del cervello umano. La neuroscienziata Suzanne O’Sullivan ha spiegato, in una recente intervista, che “il nostro cervello cerca continuamente significato e coerenza nelle esperienze che viviamo, specialmente quando si tratta di sofferenza o esperienze traumatiche”. I chatbot, grazie alla loro capacità di risposte fluide e personalizzate, riescono a costruire narrazioni coinvolgenti, che possono risultare molto convincenti anche quando si basano su fantasie o informazioni errate. 6

Questa tendenza è amplificata dalla pressione sociale e culturale attuale. In un mondo spesso caratterizzato da solitudine e isolamento, soprattutto nelle grandi città o durante crisi come la pandemia di COVID-19, le persone cercano relazioni significative ovunque possibile. I chatbot offrono una “presenza” costante e non giudicante, creando un ambiente virtuale dove l’utente può sentirsi ascoltato.

Ma come sottolineano gli esperti, “un legame artificiale non può sostituire quello umano, e rischia di diventare una trappola emotiva” se non accompagnato da consapevolezza e limiti chiari. Alcune aziende tecnologiche stanno lavorando proprio per migliorare questi aspetti, sviluppando chatbot “consapevoli” e programmati per riconoscere segnali di disagio emotivo e indirizzare gli utenti verso risorse di aiuto professionale o di emergenza. Questi sistemi potrebbero rappresentare un passo avanti importante per garantire un uso più sicuro e responsabile dell’Intelligenza Artificiale conversazionale.

Verso un equilibrio tra innovazione e tutela mentale

In conclusione, l’Intelligenza Artificiale conversazionale si configura come una straordinaria opportunità per migliorare l’accesso a informazioni, supporto e intrattenimento. Tuttavia, senza regole precise, trasparenza e consapevolezza da parte degli utenti e dei creatori di tecnologia, rischia di trasformarsi in un fattore di rischio psicologico. Il caso di Eugene Torres, come tanti altri, rappresenta un monito chiaro: serve un equilibrio tra innovazione tecnologica e tutela della salute mentale, affinché il progresso non metta in pericolo la nostra integrità psicologica. 7

Note

1 Your chatbot friend might be messing with your mind. The Washington Post. https://www.washingtonpost.com/technology/2025/05/31/ai-chatbots-user-influence-attention-chatgpt/

2 What Are AI Companion Chatbots? What Is Character.AI? Center for Humane Technology. https://centerforhumanetechnology.substack.com/p/what-is-characterai

3 Early methods for studying affective use and emotional wellbeing in ChatGPT: An OpenAI and MIT Media Lab Research collaboration. MIT. https://www.media.mit.edu/posts/openai-mit-research-collaboration-affective-use-and-emotional-wellbeing-in-ChatGPT/

4 American Psychological Association Urges FTC to Investigate AI Chatbots Claiming to Offer Therapy. Futurism. https://futurism.com/american-psychological-association-ftc-chatbots

5 The power of the Woebot. Verdict. https://www.verdict.co.uk/ai-woebot-plugging-gaps-human-therapy/

6 It’s not ‘all in your head’ — neurologist Suzanne O’Sullivan on psychosomatic illness. Live Science. https://www.livescience.com/health/neuroscience/its-not-all-in-your-head-neurologist-suzanne-osullivan-on-psychosomatic-illness

7 They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling. The New York Times. https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati