L’intelligenza artificiale in psicologia sta ridisegnando il panorama della salute mentale digitale. App, chatbot e piattaforme ibride si propongono come strumenti di supporto emotivo e terapeutico, ma la loro diffusione solleva interrogativi cruciali sul significato della cura psicologica e sui suoi limiti.
Indice degli argomenti
Il boom della salute mentale digitale
Negli ultimi anni, l’aumento dei livelli di ansia, depressione e stress cronico, aggravati dalla pandemia, ha fatto emergere una crescente domanda di supporto psicologico. È così che ha preso forma un panorama sempre più articolato di strumenti digitali dedicati al benessere mentale: app di mindfulness, chatbot empatici, piattaforme di telepsicologia, simulatori di conversazione affettiva. Queste soluzioni promettono un accesso immediato e flessibile, meno condizionato dallo stigma che spesso accompagna la richiesta di aiuto psicologico.
Tuttavia, il successo di queste soluzioni non si spiega soltanto con il loro appeal tecnologico o con la retorica dell’autonomia individuale. Molti utenti vi ricorrono per ragioni pragmatiche: la psicoterapia tradizionale comporta dei costi, richiede tempo e spostamenti ed è spesso difficile da conciliare con i ritmi della vita quotidiana. Inoltre, l’accesso ai servizi psicologici continua a essere disomogeneo sul territorio e meno garantito per le fasce sociali più svantaggiate. Iniziative come il bonus psicologico vanno nella direzione di una maggiore equità, ma i fondi disponibili e le procedure di accesso non sono sempre sufficienti a coprire il reale fabbisogno della popolazione.
In questo contesto, la disponibilità immediata e la fruizione in assenza di un rapporto diretto con un professionista offerte da app e piattaforme digitali rappresentano una risposta concreta a ostacoli strutturali reali, contribuendo almeno in parte a colmare il divario tra domanda e offerta di supporto psicologico.
Tuttavia, queste nuove procedure hanno cominciato a produrre un crescente disorientamento, sia da parte degli utenti sia tra i professionisti. Dobbiamo quindi interrogarci su quali siano le differenze tra un trattamento psicologico condotto da un professionista e un’esperienza digitale di supporto emotivo. Quali sono i limiti di questo approccio? E quali implicazioni comporta l’affidare a un algoritmo una funzione che, per sua natura, è relazionale, contestuale e umana?
In questo articolo mi propongo di analizzare l’attuale offerta digitale per la salute mentale, esaminando le tecnologie oggi disponibili, i modelli concettuali di riferimento e le principali implicazioni etiche, epistemologiche e cliniche. Pur trattandosi di un fenomeno ormai ben avviato, è necessario interrogarsi su quali correttivi adottare per garantirne un uso consapevole e responsabile, in linea con i principi fondamentali della cura psicologica. Ma cosa offre oggi il mercato?
Strumenti di autoaiuto: l’ecosistema delle app wellness
Tra gli strumenti più diffusi nell’ecosistema digitale si trovano le app di self-help e mindfulness, pensate per promuovere una forma di benessere psicologico ‘fai-da-te’ le più diffuse sono Headspace e Calm.
Headspace, fondata nel 2010 da Andy Puddicombe (un ex monaco buddista) e Richard Pierson, è nata nel Regno Unito e si è poi affermata a livello globale grazie a un’efficace campagna mediatica, che include anche una partnership con Netflix. L’app propone percorsi audio di meditazione guidata, esercizi di respirazione, tecniche di rilassamento e contenuti per migliorare la concentrazione e la qualità del sonno.
Calm, invece, è sorta nel 2012 sul suolo americano, a San Francisco, ed è focalizzata sul rilassamento e sul sonno, e include una vasta raccolta di “sleep stories”, brani musicali, suoni naturali e meditazioni ispirate alla mindfulness. Il suo design, curato e immersivo, è pensato per evocare benessere e comfort sensoriale, e si colloca più nel mercato del wellness (lifestyle philosophy) che in un contesto terapeutico vero e proprio.
Entrambe le app sono ispirate alla psicologia positiva e si presentano come strumenti di self-help accessibili e user-friendly, con un’estetica curata e un linguaggio rassicurante. Anche se i loro contenuti sono sviluppati o validati da professionisti del settore, tuttavia, mancano prove solide sulla loro efficacia clinica (cfr. Koh et al., 2022; Weisel et al., 2019). Le collaborazioni con istituzioni scientifiche, spesso dichiarate dalle aziende, raramente producono dati accessibili o pubblicazioni peer-reviewed. Le metriche utilizzate si concentrano sull’engagement e sul gradimento, non su indicatori clinicamente rilevanti. Inoltre, l’assenza di follow-up strutturati e di valutazioni longitudinali impedisce di verificare l’impatto reale di queste app sul benessere psicologico degli utenti.
L’evoluzione dei chatbot: da ELIZA ai companion emotivi
L’uso dell’intelligenza artificiale nella salute mentale ha radici lontane. Già nel 1966, Joseph Weizenbaum sviluppò ELIZA, uno dei primi tentativi di simulare il linguaggio naturale in un contesto terapeutico automatizzato. Il sistema era decisamente rudimentale, ma sufficiente a generare l’illusione di essere compresi. Oggi, i modelli linguistici di nuova generazione (LLM) rendono questa simulazione molto più realistica. Eppure la domanda sollevata da Weizenbaum resta centrale: quanto possiamo davvero fidarci di un’intelligenza che sembra capirci?
Accanto alle app di self-help, si è diffusa una seconda categoria di strumenti digitali basati su interazione linguistica: i chatbot conversazionali. Tra i più noti si trovano Woebot, Wysa e Replika, applicazioni che simulano il dialogo con un interlocutore empatico, offrendo supporto emotivo e suggerimenti comportamentali. L’esperienza dell’utente si costruisce intorno a scambi testuali, e in alcuni casi vocali, che mirano a stabilire una relazione di ascolto percepita come personale.
Woebot, sviluppato da un team di psicologi della Stanford University, negli Stati Uniti, è ispirato alla terapia cognitivo-comportamentale (CBT, Cognitive Behavioural Therapy) e guida l’utente in brevi interazioni volte a riconoscere distorsioni cognitive e a promuovere strategie di autoregolazione. Rispetto a Woebot, Wysa, anch’esso basato sulla CBT, offre inoltre opzioni di supporto umano (a pagamento), oltre a esercizi di mindfulness, diari emotivi e strumenti per il tracciamento dell’umore.
Replika, invece, si presenta come un “AI companion” generalista, orientato alla costruzione di una relazione emotiva continuativa, spesso caratterizzato da toni confidenziali o affettivi. A differenza degli altri due, Replika si spinge esplicitamente sul terreno della simulazione relazionale e può essere personalizzato anche in senso romantico o sessualizzato.
Pur offrendo un’interfaccia accessibile e una risposta immediata per chi cerca sollievo emotivo, questi strumenti sollevano interrogativi di natura clinica, metodologica ed etica. La letteratura disponibile su Woebot e Wysa riporta effetti positivi su alcuni sintomi depressivi e ansiosi, ma tali risultati si basano prevalentemente su studi a breve termine, condotti su campioni non clinici e con disegni sperimentali metodologicamente fragili (cfr. Fitzpatrick et al., 2017; Siddals et al., 2024; Coghlan et al., 2023).
Replika, invece, è stato oggetto di diverse analisi per la natura del legame affettivo che può instaurarsi tra utente e chatbot. Uno studio longitudinale ha mostrato che, in seguito alla rimozione delle funzionalità romantiche da parte della piattaforma, molti utenti hanno reagito con vissuti di perdita e frustrazione, segnalando un’interruzione del senso di continuità identitaria associato alla relazione con l’AI (De Freitas et al., 2024). Questi dati confermano il rischio di dipendenza emotiva e confusione affettiva in interazioni che, pur non essendo relazioni autentiche, possono assumere un ruolo centrale nell’equilibrio psicologico dell’utente.
Accanto ai nomi più noti, si diffondono anche companion informali come Broken Bear AI, che promettono conforto emotivo e continuità affettiva senza finalità terapeutiche dichiarate. Anche in questi casi, la relazione simulata ricalca il modello della cura, ma senza contesto clinico o supervisione, rendendo sempre più sfumata la distinzione tra empatia artificiale e supporto reale.
In sintesi, ciò che i chatbot propongono come empatia è una simulazione priva di coscienza, intenzionalità e contesto umano: si limita a riprodurre pattern linguistici appresi, senza alcuna forma di comprensione autentica. I dati generati durante le interazioni con i chatbot, spesso riferiti a emozioni, stati mentali e vissuti personali, sono altamente sensibili. Tuttavia, vengono spesso raccolti, archiviati e utilizzati secondo criteri poco trasparenti. Questa opacità solleva preoccupazioni significative per la privacy, la protezione dei dati e il diritto degli utenti a sapere come vengono trattate le proprie informazioni psicologiche (Luxton, 2022).
Modelli ibridi: l’integrazione tra algoritmi e professionisti
Una terza categoria è rappresentata dalle piattaforme ibride – come Youper, Talkspace e BetterHelp – che combinano algoritmi digitali con l’intervento diretto di professionisti della salute mentale. Questi servizi si presentano come alternative flessibili alla psicoterapia tradizionale, promettendo percorsi personalizzati, accesso rapido e costi più contenuti.
Youper, ad esempio, che integra un chatbot basato sulla CBT con la possibilità di consulti umani, ha mostrato benefici significativi su ansia e depressione entro le prime due settimane dell’utilizzo (Mehta et al., 2021). Talkspace e BetterHelp offrono sedute condotte da terapeuti abilitati e, in studi longitudinali su campioni consistenti, hanno riportato miglioramenti clinici, soprattutto per quanto concerne la depressione e l’ansia. Tuttavia, l’efficacia di questo approccio rispetto alla tradizionale terapia in presenza resta ancora da valutare (Mehta et al., 2021; Marcelle et al., 2019).
Sebbene queste piattaforme rispondano a un bisogno reale di accessibilità, in particolare in contesti geografici o sociali dove i servizi psicologici sono carenti, sollevano diverse criticità. La relazione terapeutica, mediata da interfacce digitali e protocolli standardizzati, tende a risultare meno efficace e impersonale. La qualità del trattamento ovviamente dipende in larga parte dalla formazione dei terapeuti, specialmente se inseriti in questi protocolli ibridi.
A questo si aggiungono interrogativi non secondari sulla sicurezza dei dati clinici, la trasparenza degli algoritmi di accoppiamento paziente-terapeuta e il quadro giuridico e deontologico entro cui operano tali piattaforme.
A fronte di queste criticità, sarebbe opportuno prevedere protocolli di valutazione iniziale, in grado di valutare il profilo psicologico e l’eventuale rischio psicopatologico dell’utente prima dell’avvio del percorso. L’assenza di uno screening strutturato compromette la possibilità di formulare un’indicazione clinica adeguata e aumenta il rischio di trattamenti non appropriati, ritardi nell’invio a percorsi terapeutici efficaci o gestione non conforme alla complessità del caso.
Un esempio emblematico è riportato da Jess McAllen su The Baffler, che descrive la sua interazione diretta con il chatbot Broken Bear. Quando scrive di non riuscire a smettere di controllare il forno, sintomo tipico del disturbo ossessivo-compulsivo, il sistema risponde: “Oh dear, did you leave it on? Maybe you could check it. But do be careful.” Una risposta empatica solo in apparenza, che rafforza esattamente il comportamento disfunzionale che una terapia dovrebbe contrastare.
Un ruolo altrettanto delicato è giocato dai tratti narcisistici, spesso sottovalutati nel contesto delle interazioni digitali. Caratterizzati da una forte sensibilità al riconoscimento esterno e da una regolazione affettiva centrata sul rispecchiamento, tali tratti possono trovare nei chatbot una fonte di gratificazione immediata ma illusoria. Le simulazioni empatiche offerte dall’IA, sprovviste di reale alterità, sempre disponibili e rassicuranti, rischiano di consolidare modalità relazionali egocentriche e dipendenti, invece di stimolare una rielaborazione autentica del Sé in rapporto all’altro. Esempi come questo rendono evidenti i limiti clinici di un’intelligenza artificiale non supervisionata.
Queste soluzioni ibride rappresentano una nuova forma di outsourcing terapeutico, a metà strada tra medicina personalizzata e meccanismi tipici delle piattaforme digitali come efficienza, algoritmi e standardizzazione (Torous & Roberts, 2017). Un modello indubbiamente promettente in termini di flessibilità e inclusività, ma che necessita oggi di maggiori garanzie in termini di trasparenza, regolazione e valutazione indipendente.
Prospettive critiche e regolamentazione del settore
Gli strumenti digitali per la salute mentale comprendono soluzioni molto eterogenee, ma vengono spesso presentati sotto un’unica etichetta di “supporto psicologico”. Il problema non è la tecnologia in sé, bensì la sua capacità di simulare una relazione di cura, attraverso risposte affettive, interfacce conversazionali e protocolli standardizzati che possono indurre coinvolgimento emotivo, attaccamento o dipendenza.
In assenza di un contesto clinico, la distinzione tra supporto percepito e cura effettiva si fa sempre più sfumata. Il pericolo è duplice: da un lato, che questi strumenti sostituiscano impropriamente percorsi terapeutici necessari; dall’altro, che alimentino narrazioni interiori colpevolizzanti o deresponsabilizzanti, attribuendo all’utente il fallimento di un processo che era privo, sin dall’inizio, di una reale dimensione terapeutica.
Non si tratta di demonizzare queste tecnologie, né tantomeno di idealizzarle. Si tratta piuttosto di sviluppare un approccio critico, regolato e consapevole, capace di valorizzare le potenzialità di accessibilità e supporto, ma anche di riconoscere i limiti strutturali. Strumenti che restano algoritmici, impersonali e privi di supervisione clinica non possono, e non devono, sostituire la specificità della relazione terapeutica.
Bibliografia
Coghlan, S., Leins, K., Sheldrick, S., Cheong, M., Gooding, P., & D’Alfonso, S. To chat or bot to chat: Ethical issues with using chatbots in mental health. Digit Health. 2023 Jun 22;9:20552076231183542. doi: 10.1177/20552076231183542. PMID: 37377565; PMCID: PMC10291862.
Fitzpatrick, K.K., Darcy, A., & Vierhile, M. Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Ment Health 2017;4(2):e19 doi: 10.2196/mental.7785
De Freitas, J., Castelo, N., Uğuralp, A. K., & Oğuz‑Uğuralp, Z. (2024). Lessons from an App Update at Replika AI: Identity Discontinuity in Human–AI Relationships. Harvard Business School Working Paper No. 25‑018. arXiv:2412.14190
Luxton, D.D. (2022). Ethical and Legal Considerations in Artificial Intelligence Applications in Mental Healthcare. In D. D. Luxton (Ed.), Artificial Intelligence in Behavioral and Mental Health Care(pp. 247-268). Elsevier. DOI: 10.1016/B978-0-12-821133-0.00012-4
Marcelle, E.T., Nolting, L., Hinshaw, S.P., & Aguilera, A. (2019). Effectiveness of a multimodal digital psychotherapy platform for adult depression: A naturalistic feasibility study. JMIR mHealth and uHealth, 7(1), e10948. https://doi.org/10.2196/10948
McAllen, J. The therapist in the machine. The Baffler, N.76, November 2024. Trad. it. Il terapeuta artificiale, Internazionale, n. 1599, 31 gennaio
Mehta A, Niles AN, Vargas JH, Marafon T, Couto DD, Gross JJ. Acceptability and Effectiveness of Artificial Intelligence Therapy for Anxiety and Depression (Youper): Longitudinal Observational Study. J Med Internet Res. 2021 Jun 22;23(6):e26771. doi: 10.2196/26771.
Koh, J., Tng, G.Y.Q., & Hartanto, A. Potential and pitfalls of mobile mental health apps in traditional treatment: An umbrella review. J Pers Med. 2022 Aug 25;12(9):1376. doi: 10.3390/jpm12091376.
Siddals, S., Torous, J. & Coxon, A. “It happened to be the perfect thing”: experiences of generative AI chatbots for mental health. npj Mental Health Res 3, 48 (2024). https://doi.org/10.1038/s44184-024-00097-4
Torous, J. & Roberts, L.W. (2017). The ethical use of mobile health technology in clinical psychiatry. Journal of Nervous and Mental Disease, 205(1), 4–8.
DOI: 10.1097/NMD.0000000000000596
Weisel, K.K., Fuhrmann, L.M., Berking, M. et al. Standalone smartphone apps for mental health—a systematic review and meta-analysis. npj Digit. Med. 2019, 2, 118, https://doi.org/10.1038/s41746-019-0188-8











