C’era da aspettarselo. Con il boom dell’intelligenza artificiale generativa, più di qualcuno – dopo aver capito che il modo corretto per usarla è attivare conversazioni – ha finito per considerarla una sorta di confidente, mentore o, perché no, psicoterapeuta.
Questo articolo cerca di argomentare il “perché no”.
Indice degli argomenti
Il fenomeno dell’intelligenza artificiale in psicoterapia e le prime evidenze
C’è chi racconta a ChatGPT i suoi problemi, chi chiede consigli per stare meglio, chi prova a farsi interpretare i sogni, ricavandone in ogni caso buone sensazioni. Oggi, però, possiamo andare oltre le sensazioni: entra in campo la scienza, quella vera. Nel marzo 2025, è stato pubblicato su Nejm AI (rivista scientifica che – come rivendica sul suo sito – applica “i rigorosi standard di ricerca e pubblicazione del New England Journal of Medicine”) un articolo “serio”, basato su uno studio randomizzato controllato in cui, cioè, vengono confrontati due gruppi di pazienti selezionati con criteri casuali: il gruppo sperimentale – che ha avuto accesso a un terapeuta IA – e il gruppo di controllo.
Therabot: il chatbot terapeutico sotto la lente della scienza
Lo studio ha coinvolto 210 pazienti adulti con tre diverse diagnosi: “disturbo depressivo maggiore”, “disturbo d’ansia generalizzato” e “rischio elevato per disturbi dell’alimentazione e della nutrizione”. 106 di loro (il gruppo sperimentale) hanno usufruito dei servizi di Therabot (sta per “therapy chatbot”), un programma basato sull’IA generativa messo a punto a partire dal 2019, dai ricercatori della Geisel School of Medicine del Dartmouth College (New Hampshire, Usa).
Poi, dopo 4 e 8 settimane, il loro stato clinico è stato confrontato con quello dei restanti 104 del gruppo di controllo, che non avevano usufruito di alcun intervento terapeutico.
Risultati? “Promettenti”, secondo gli autori. Infatti:
- Therabot è stato effettivamente utilizzato dai pazienti (in media, per più di 6 ore in 4 settimane).
- La loro valutazione della relazione terapeutica è stata positiva (“comparabile con quella con terapeuti umani”).
- Per tutti e tre i disturbi, è stato riscontrato un miglioramento statisticamente significativo della situazione clinica rispetto al gruppo di controllo.
Siamo quindi di fronte a una svolta? A un futuro luminoso per i terapeuti digitali?
IA e psicoterapia: risultati promettenti ma cautela necessaria
Meglio andarci piano. D’altra parte, lo stesso sito ufficiale di Therabot, alla domanda “L’intelligenza artificiale del chatbot terapeutico è efficace?”), risponde con prudenza:
Sebbene non sostituisca la terapia tradizionale, molti utenti la trovano utile per gestire lo stress, l’ansia e altre sfide emotive.
La sua efficacia può variare a seconda delle esigenze e delle preferenze individuali.
È una cautela più che giustificata. Intanto perché lo studio non mette a confronto l’efficacia della chatbot con quella di un terapeuta qualificato.
E poi perché Therabot non è del tutto una novità, dato che la storia dei chatbot terapeutici ha radici lontane. Per la precisione negli anni ’60. Gli anni di Eliza…
Intelligenza artificiale psicoterapia: dalle origini con Eliza all’evoluzione
Ai nostri occhi, Eliza è meno di un giocattolo e forse proprio un giocattolo era quello che il suo creatore, Joseph Weizenbaum, voleva ottenere. Eliza parlava come uno psicoterapeuta di scuola rogersiana, di quelli che stimolano il paziente a riflettere e ricordare, senza mai dare risposte definitive né stilare diagnosi. I suoi dialoghi avevano la struttura di una partita di ping pong, in cui la palla veniva rilanciata sempre nella metà campo del paziente. Ecco un paio di scambi tipici, che avvenivano via telescrivente:
- Paziente (chiamiamolo così): “Sono sempre depresso”.
- Eliza: “Pensi che venire qui ti aiuterà a non esserlo?”
- Paziente: “Mi sento un po’ stanco…”.
- “Perché si sente un po’ stanco?”
Negli anni ’60, l’intelligenza artificiale prometteva bene e gli ottimisti vedevano la svolta dietro l’angolo. Ma Eliza di “intelligente” aveva ben poco: si limitava a ribaltare le affermazioni del “paziente”, individuando parole chiave alle quali reagire, e a costruire le frasi in modo da sembrare umano. Ricorda qualcosa?
Le controversie storiche sui chatbot terapeutici
Weizenbaum, che era un informatico senza alcuna velleità psicoterapeutica, lo sapeva benissimo e considerava Eliza un esperimento di Natural Language Processing, diremmo oggi.
Per questo, l’imprevisto successo di Eliza in veste clinica lo prese in contropiede. In primo luogo, con suo grande stupore, si accorse che le persone con qualche problema amavano palarne con Eliza, pur sapendo che si trattava di una macchina (o forse proprio per questo: un computer non giudica).
In secondo luogo, in molti prendevano sul serio l’idea di usare Eliza come psicoterapeuta “vero”. Tra questi, pionieri dell’intelligenza artificiale del calibro di Herbert Simon e psichiatri entusiasti come Kenneth Colby.
Gli argomenti a favore di queste tesi (che Weizenbaum tentò in ogni modo di arginare) erano sostanzialmente due:
- Eliza è efficace nel far stare meglio le persone. Per questo, sistemi del genere possono consentire l’accesso alle lunghe e costose cure psicologiche (o psichiatriche) anche a chi non se le può permettere.
- In fondo, i terapeuti umani non fanno altro che elaborare le informazioni fornite dal paziente seguendo un qualche algoritmo che, come tale, è riproducibile. Detto in negativo: se Eliza ha i suoi limiti, psicologi e psichiatri non sono un granché meglio.
Per provare il secondo punto, qualche anno dopo lo stesso Colby sviluppò Parry, una chatbot che simulava un paziente psichiatrico con tratti paranoidi, ingannando molti dei suoi colleghi a cui spediva i resoconti delle “sedute”.
Quando Parry incontrò Eliza furono scintille. Forse con l’idea di chiudere la questione ridendoci su, nel 1973, Vinton Cerf – famoso come coautore del protocollo TCP-IP – pubblicò un’esilarante seduta tra i due.
Finì a ridere, appunto. Ma settant’anni dopo, il tema si ripropone negli stessi termini e per questo è utile riflettere bene su cosa vuole dire “stare meglio” e su cosa fa veramente uno psicoterapeuta.
I benefici del dialogo, sempre e comunque
Se ci sono problemi, parlarne fa bene di per sé. È un dato incontrovertibile che fa parte dell’esperienza di ciascuno di noi. Ma, attenzione: si tratta di un punto di partenza, non di un obiettivo e men che meno di una terapia.
Un luogo comune sostiene che “parlare” equivale a “sfogarsi” ristabilendo un equilibrio perduto, un po’ come accade quando si apre la valvola della pentola a pressione. C’è del vero, ma questo modo di pensare sottintende un modello “idraulico” della mente che non rende giustizia alla sua complessità.
Parlare fa bene, soprattutto perché trasformare in parole un’emozione negativa (come rabbia, delusione, tristezza, colpa, ansia) obbliga a una prima elaborazione che aumenta la consapevolezza, rende questa emozione “maneggiabile” e in qualche modo ne definisce confini.
È per questo che gli esseri umani amano parlare da soli, tenere un diario o comunicare con divinità, santi, morti, animali, statue, bambole e, oggi, macchine. Interlocutori spesso antropomorfizzati fino all’eccesso.
Vantaggi dell’IA in psicoterapia rispetto al dialogo tradizionale
Un software come Therabot (ma anche quelli non specializzati come ChatGPT o Gemini funzionano bene) porta il parlare da soli a vette mai sperimentate prima. Perché, oltre ad ascoltare, risponde: dispensa commenti, incoraggiamenti e spunti di riflessione, con qualche vantaggio non banale rispetto a una persona. È sempre disponibile, non interrompe, non giudica, non si imbarazza, non tenta in continuazione di parlare di sé, è oggettivo, perché non coinvolto emotivamente.
Come già Eliza, i chatbot IA sono uno schermo perfetto per i meccanismi proiettivi, creando un ibrido che ha tutte le caratteristiche che le persone vorrebbero in un “altro da sé”. E in più possono fidarsi, proprio perché sanno che non è un essere umano con bisogni, emozioni e desideri con cui potrebbero entrare in conflitto.
I limiti strutturali dell’intelligenza artificiale in psicoterapia: oltre la tecnologia
Gli attuali limiti tecnologici delle IA generative (la tendenza all’accondiscendenza, per esempio, o l’incapacità di produrre una diagnosi corretta) non c’entrano: saranno superati in un prossimo futuro.
È che fare psicoterapia significa entrare in un percorso di cambiamento.
La mente è un sistema complesso, non riducibile né a un ingenuo modello idraulico che deve sfogare le sovrappressioni, né a un insieme di reti di neuroni, come vorrebbero i fautori ingenui delle neuroscienze, che vorrebbero assimilare il suo funzionamento a quello di determinati circuiti nervosi (esempio tipico: i neuroni specchio, che spiegherebbero ogni comportamento imitativo). È vero che la mente si basa su neuroni interconnessi, ma questo non vuol dire che si possa comprendere partendo dallo studio di questi neuroni. Sarebbe come tentare di studiare il sistema operativo analizzando uno per uno i miliardi di transistor che compongono la CPU e gli altri microchip. Per capire la mente, è la mente che dobbiamo guardare, evitando ogni riduzionismo, anche se quello che vediamo non ha un immediato e percepibile corrispettivo neurale.
Psicoterapia come trasformazione: perché l’intelligenza artificiale non basta
La mente non è un costrutto logico: è piuttosto un sistema dinamico animato da forze. Quelle che Sigmund Freud chiamava “pulsioni” e noi percepiamo sotto forma di bisogni, desideri e comportamenti. Mai troppo razionali e spesso – anzi – del tutto “irragionevoli”.
Per qualunque terapeuta è evidente che il percorso di cura è una strada fatta di resistenze, ostacoli e trappole, dove non servono i buoni consigli e nemmeno le diagnosi (utilissime, ma non per il paziente). A sua volta, una persona che soffoca il partner col suo controllo ossessivo sa benissimo che dovrebbe essere aperta e tollerante, senza che glielo dica un amico, un terapeuta o un chatbot. E non le servirà a niente l’etichetta di “gelosia patologica”.
Il punto è che un sintomo, qualsiasi sintomo, anche se crea sofferenza è un punto di equilibrio che la mente architetta per andare aventi. Serve come l’insulina a un diabetico o la coperta a Linus. È, se vogliamo, un investimento da preservare e questo spiega i casi (frequenti) in cui al primo accenno di miglioramento il paziente (o un suo familiare) interrompe bruscamente la terapia con mille ringraziamenti per lo “straordinario successo”.
Di solito, un buon terapeuta si accorge piuttosto rapidamente del nocciolo del problema. Quello che viene dopo e richiede tempo e fatica non serve per dire al paziente “sai, dovresti fare a meno della coperta!”. Ma per instaurare una relazione vera, in cui il paziente agisce le sue emozioni profonde (transfert) e il terapeuta guarda dentro di sé per capire cosa sta succedendo (controtransfert), per poi aiutare il paziente a (ri)costruire un equilibrio migliore in cui la coperta, la depressione, il rifiuto del cibo, l’aggressività eccessiva, il controllo ossessivo, l’ansia continua, i rituali o il rifiuto del sonno a un certo punto non servono più.
Non è un lavoro da chatbot.
Bibliografia
Joseph Weizenbaum, 1977, Il potere dei computer e la ragione umana, Edizioni Gruppo Abele.
Michael V. Heinz e altri, 2025 Randomized Trial of a Generative AI Chatbot for Mental Health Treatment, Najm AI, 27 marzo
<https://ai.nejm.org/doi/10.1056/AIoa2400802>
Therabot, sito ufficiale
<https://trytherabot.com/>
Vindice Deplano, 1994, “Storia di Eliza il computer ‘psichiatra’”, Avvenimenti, 31 agosto.
Vinton G. Cerf, 1973, “Parry Encounters the Doctor”
<https://datatracker.ietf.org/doc/html/rfc439>











