Negli ultimi anni, l’intelligenza artificiale (IA) ha acquisito un ruolo sempre più centrale in diversi settori, tra cui la psicologia clinica. L’integrazione di strumenti basati sull’IA, come chatbot terapeutici e algoritmi avanzati di analisi dei dati, sta trasformando le modalità di valutazione, supporto e intervento psicologico.
Indice degli argomenti
Chatbot terapeutici e riduzione dello stigma
Tra i numerosi vantaggi offerti da queste tecnologie, spicca la capacità di ridurre lo stigma associato ai disturbi mentali (Helgadottir & Menzies, 2023; Wei, 2023). Il timore del giudizio sociale rappresenta infatti una delle principali barriere che impediscono a molte persone di cercare aiuto psicologico, spingendole a evitare il contatto diretto con specialisti. In questo contesto, i chatbot o intelligenze artificiali conversazionali forniscono un ambiente sicuro e anonimo, facilitando un’espressione più autentica di emozioni e pensieri. Smith e Anderson (2018) hanno evidenziato che le persone tendono a discutere più apertamente di tematiche sensibili quando la loro identità è protetta, un aspetto particolarmente rilevante per categorie vulnerabili, come adolescenti e minoranze culturali, che potrebbero incontrare barriere sociali o culturali nel rivolgersi a un terapeuta umano.
Studi sull’efficacia dei chatbot terapeutici
Sebbene la letteratura scientifica su ChatGPT e il suo utilizzo in psicologia e psicoterapia sia ancora limitata (Uludag, 2023), alcuni studi hanno affrontato tematiche correlate. Ad esempio, Bubeck et al. (2023) sostengono che la versione 4 di ChatGPT dimostri una profonda comprensione delle teorie della mente, mentre Sharma et al. (2023) rilevano che le collaborazioni tra intelligenza artificiale e esseri umani portano a interazioni significativamente più empatiche rispetto a quelle esclusivamente umane. Parallelamente, la letteratura empirica ha documentato l’efficacia clinica dei chatbot terapeutici. Uno studio condotto da Fitzpatrick, Darcy e Vierhile (2017) ha evidenziato che Woebot, un agente conversazionale progettato per implementare strategie di terapia cognitivo-comportamentale (CBT), può ridurre significativamente i sintomi ansiosi e depressivi nei giovani adulti. In questa ricerca, condotta con un disegno non in cieco, sono stati reclutati 70 partecipanti di età compresa tra i 18 e i 28 anni tramite una piattaforma di social media dedicata alla comunità universitaria. I partecipanti sono stati assegnati in modo casuale a due gruppi sperimentali: il gruppo sperimentale (n = 34) ha ricevuto un intervento di auto-aiuto basato sui principi della CBT, erogato tramite il chatbot Woebot per una durata di due settimane, con un massimo di 20 sessioni.
Il gruppo di controllo (n = 36), invece, ha avuto accesso esclusivamente a un eBook del National Institute of Mental Health, “Depression in College Students”, fungendo da gruppo di controllo informativo.
Metodologia e risultati degli studi sui chatbot terapeutici
Le variabili dipendenti sono state misurate attraverso la somministrazione online di tre strumenti di valutazione psicologica:
- il Patient Health Questionnaire (PHQ-9), composto da nove domande,
- la Generalized Anxiety Disorder Scale (GAD-7), composta da sette domande,
- la Positive and Negative Affect Scale (PANAS), con rilevazioni effettuate all’inizio dello studio (T1) e dopo 2-3 settimane (T2).
Il campione esaminato presentava un’età media di 22,2 anni (SD = 2,33), con la maggior parte dei partecipanti (circa il 68%) di età compresa tra i 20 e i 24 anni. La distribuzione di genere mostrava una predominanza femminile, con il 67% del campione composto da donne (47 partecipanti su 70). Dal punto di vista etnico, la maggior parte dei partecipanti si identificava come non ispanica (93%, n = 54 su 58) e caucasica (79%, n = 46 su 58).
Per quanto riguarda l’utilizzo del chatbot Woebot, i partecipanti del gruppo sperimentale hanno interagito con il sistema in media 12,14 volte durante il periodo di osservazione, con una deviazione standard di 2,23, suggerendo che la maggior parte dei partecipanti ha completato tra le 10 e le 14 sessioni. Un’analisi preliminare non ha rivelato differenze significative tra i gruppi all’inizio dello studio. Al termine dell’osservazione, l’83% dei partecipanti (58 su 70) ha completato il protocollo, mentre il 17% (12 partecipanti) ha interrotto la partecipazione.
I risultati principali hanno evidenziato che l’utilizzo di Woebot ha prodotto una riduzione significativa dei sintomi depressivi, come misurato dal PHQ-9. L’analisi della covarianza, utilizzando l’approccio intent-to-treat, ha rivelato una differenza significativa tra i gruppi (F = 6,47, p = 0,01), indicando che la probabilità che tale risultato fosse dovuto al caso è solo dell’1%. Al contrario, il gruppo di controllo, che aveva accesso esclusivamente all’eBook, non ha mostrato miglioramenti significativi nei livelli di depressione. Un’analisi successiva, limitata ai partecipanti che hanno completato lo studio, ha mostrato che entrambi i gruppi hanno evidenziato una significativa riduzione dei sintomi ansiosi, misurati tramite il GAD-7.
L’analisi statistica ha prodotto un valore di F = 9,24 (p = 0,004), suggerendo che la probabilità che questo risultato fosse casuale è inferiore allo 0,4%. Il contenuto psicoeducativo fornito tramite Woebot si basava su protocolli consolidati di auto-aiuto per la CBT, come documentato in precedenti studi (Burns, 1980; Burns, 2006; Towery, 2016), indicando che l’integrazione di chatbot terapeutici potrebbe rappresentare un’efficace risorsa per il supporto psicologico, in particolare per le popolazioni che sono più riluttanti a intraprendere un percorso terapeutico tradizionale.
L’evidenza raccolta si allinea a studi precedenti che suggeriscono la possibilità di sviluppare un’alleanza terapeutica tra esseri umani e agenti conversazionali nel contesto della salute mentale. Ad esempio, Bickmore et al. (2005) hanno dimostrato che, nell’arco di 30 giorni, gli individui che interagivano regolarmente con un chatbot progettato per incentivare l’attività fisica sviluppano un legame terapeutico misurabile con l’agente conversazionale.
L’Eliza Effect e l’alleanza terapeutica con i chatbot
Questi risultati indicano che, sebbene l’interazione con un chatbot non possa sostituire completamente il rapporto con un terapeuta umano, è possibile instaurare una relazione di fiducia anche con un’intelligenza artificiale, contribuendo così all’adesione e all’efficacia dell’intervento psicologico. Questo fenomeno è particolarmente significativo in relazione all’ “Eliza Effect”, che descrive la tendenza degli utenti a percepire gli agenti conversazionali come entità umane, nonostante la loro natura artificiale. Tale percezione favorisce maggiore impegno e apertura durante le interazioni, in particolare per coloro che sono reticenti a intraprendere un percorso terapeutico tradizionale.
Il termine “Eliza Effect” prende il nome dal chatbot ELIZA, sviluppato nel 1966 da Joseph Weizenbaum del MIT, che simula un terapeuta rogersiano. Un interessante studio esplorativo del 2013, pubblicato sul Journal of Cognitive and Behavioral Psychotherapies (Cristea et al., 2013), ha confrontato ELIZA con un psicoterapeuta cognitivo-comportamentale in una sessione di psicoterapia. La partecipante, una giovane donna di 23 anni senza pregresse condizioni psichiatriche né esperienze di psicoterapia, ha preso parte allo studio con l’obiettivo di migliorare il proprio sviluppo personale. Dopo essere stata informata che l’esperimento mirava a confrontare due modalità terapeutiche—una in presenza e una mediata da chat—ha partecipato a due brevi sessioni focalizzate su un problema psicologico lieve da lei individuato: l’eccessiva autocritica. La prima interazione, della durata di 15 minuti, è avvenuta con ELIZA, mentre la seconda, di pari durata, specializzato in terapia cognitivo-comportamentale
Le trascrizioni anonime delle due sessioni sono state successivamente valutate da 138 terapeuti internazionali mediante una scala Likert, con l’obiettivo di analizzare diversi parametri, tra cui l’efficacia della discussione, l’adeguatezza dell’approccio al problema e la qualità della relazione terapeutica. Quest’ultima è stata esaminata attraverso i fattori comuni che facilitano lo sviluppo della relazione terapeutica, quali empatia, accettazione incondizionata, collaborazione e attenzione ai bisogni del paziente (Lambert & Barley, 2002). I risultati hanno evidenziato che la maggior parte dei valutatori considerava entrambi i terapeuti—sia ELIZA che il professionista umano—come interlocutori credibili, ma con livelli di competenza distinti.
Limiti e prospettive future dei chatbot terapeutici
La principale differenza percepita tra il chatbot e il terapeuta umano risiedeva nella qualità dell’intervento: mentre lo psicoterapeuta seguiva un iter terapeutico strutturato e orientato al cambiamento, ELIZA si limitava a un’interazione riflessiva priva di una reale capacità di analisi e personalizzazione del trattamento. In uno studio pubblicato sul Journal of Medical Internet Research, Vaidyam et al. (2019) evidenziano come i chatbot possano difatto rappresentare un’integrazione utile, ma non una sostituzione dell’intervento clinico da parte di specialisti della salute mentale.
Tutto questo suggerisce che, sebbene i chatbot possano facilitare l’accesso a un primo livello di supporto psicologico, la profondità e l’efficacia del trattamento dipendono ancora in larga misura dall’intervento umano. Il rischio di una fiducia ingiustificata nei processi decisionali di queste soluzioni tecnologiche rappresenta una delle principali criticità nell’impiego dei sistemi basati sull’apprendimento automatico in ambito psicologico.
L’apparente sofisticazione di tali strumenti può portare gli utenti a delegare loro compiti per i quali è richiesta una valutazione umana esperta, con possibili conseguenze negative in contesti complessi o imprevedibili. Sebbene le tecnologie intelligenti possano costituire un utile complemento alle pratiche psicologiche tradizionali, esse non sono in grado di sostituire il ruolo del clinico, soprattutto in situazioni che richiedono una comprensione profonda delle dinamiche emotive e relazionali. Alla luce di queste considerazioni, è fondamentale che le future regolamentazioni in materia di intelligenza artificiale nell’ambito della salute mentale ne chiariscano i limiti e le implicazioni etiche. In particolare, è necessario riconoscere che le soluzioni basate sull’automazione cognitiva non possono rappresentare un’alternativa alla psicoterapia tradizionale e che eventuali bias nei loro algoritmi potrebbero favorire alcuni approcci terapeutici a scapito di altri potenzialmente più efficaci per specifici gruppi di pazienti.
Pertanto, lo sviluppo e l’integrazione delle tecnologie basate sull’intelligenza artificiale nella psicologia clinica devono avvenire all’interno di un quadro normativo che rispetti rigorosi standard etici e di sicurezza, promuovendo un utilizzo responsabile e consapevole di tali strumenti.
La ricerca futura dovrà focalizzarsi sul perfezionamento delle capacità di intelligenza emotiva dei modelli computazionali, nonché sull’elaborazione di linee guida che ne regolamentino l’impiego, affinché questi strumenti restino supporti complementari, senza mai sostituire il valore fondamentale dell’intervento umano nel contesto terapeutico.
Bibliografia
Wei, M. (2023) Are AI Chatbots the Therapists of the Future? New research suggests chatbots can help deliver certain types of therapy. Retrieved March 10, 2025 from https://www.psychologytoday.com/us/blog/urban-survival/202301/are-ai-chatbots-the-therapists-of-the-future.
Bickmore, W. T., Picard, W. R., (2005). Establishing and maintaining long-term human-computer relationships. ACM Trans. Comput.-Hum. Interact. 12, 2, pp. 293–327. https://doi.org/10.1145/1067860.1067867
Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, Y.T., Li, Y., Lundberg, S., Nori, H., Palangi, H., Ribeiro, M.T., Zhang, Y. (2023) Sparks of artificial general intelligence: early experiments with GPT-4. https://doi.org/10.48550/arXiv.2303.12712
Burns, D., (1980). Feeling Good. The New Mood Therapy. New York, New York: Harper Collins.
Burns, D., (2006). When Panic Attacks. New York, New York: Harmony
Cristea, I. A., Sucală, M., & David, D. (2013). Can you tell the difference? Comparing face-to-face versus computer-based interventions. The “Eliza” effect in psychotherapy. Journal of Cognitive and Behavioral Psychotherapies, 13(2), 291–298.
Fitzpatrick, K.K., Darcy, A., Vierhile, M., (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Ment Health. 6;4(2):e19. doi: 10.2196/mental.7785. PMID: 28588005; PMCID: PMC5478797.
Helgadottir, F., Menzies, R. (2023). AI-therapy. Retrieved April 17, 2025 from https://www.ai-therapy.com.
Lambert, M. J., & Barley, D. E. (2002). Research summary on the therapeutic relationship and psychotherapy outcome. In J. C. Norcross (Ed.), Psychotherapy relationships that work: Therapist contributions and responsiveness to patients, Oxford University Press.
Luxton, D. D. (2014). Artificial intelligence in psychological practice: Current and future applications and implications. Professional Psychology: Research and Practice, 45(5), 332–339. https://doi.org/10.1037/a0034559
Morbini, F., DeVault, D., Georgila, K., Artstein, R., Traum, D., & Morency, L. (2014). A Demonstration of Dialogue Processing in SimSensei Kiosk. In Proceedings of the 2014 international conference on Autonomous agents and multi-agent systems, (SIGDIAL), pages 254–256, Philadelphia, PA, U.S.A.. Association for Computational Linguistics.
Nadelson, T. (1987). The inhuman computer/the too-human psychotherapist. American Journal of Psychotherapy, 41(4), 489–498.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanit Soc Sci Commun 11, 47 (2024). https://doi.org/10.1057/s41599-023-02567-0
Russell, J. S., Norvig, P. (2003) Artificial intelligence : a modern approach/ 2nd edition, Prentice Hall, New Jersey.
Sharma, A., Lin, I.W., Miner, A.S., Atkins, D.C., Althoff, T. (2023) Human–AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support. Nat Mach Intell 5(1). https://doi.org/10.1038/s42256-022-00593-2
Smith, A., Anderson, M. (2018). Social Media Use 2018: Demographics and Statistics. Washington DC: Pew Research Center. Retrieved April 10, 2025 from https://www.pewresearch.org/internet/2018/03/01/social-media-use-in-2018/
Towery, J., (2016). The Anti-Depressant Book. A Practical Guide for Teens and Young Adults to Overcome Depression and Stay Healthy. Palo Alto, CA:
Towery. J., Kadir., U. (2023). The Use of AI-Supported Chatbot in Psychology, doi.org/10.2139/ssrn.4331367.
Vaidyam, A.N., Wisniewski, H., Halamka, J.D., Kashavan, M.S., Torous, J.B. (2019). Chatbots and Conversational Agents in Mental Health: A Review of the Psychiatric Landscape. Can J Psychiatry. 64(7):456-464. doi: 10.1177/0706743719828977. Epub 2019 Mar 21. PMID: 30897957; PMCID: PMC6610568.