L’Intelligenza Artificiale Generativa (GenAI) sta trasformando il modo in cui le persone accedono al supporto psicologico, aprendo scenari fino a pochi anni fa impensabili. Tra questi, i chatbot conversazionali progettati per il benessere mentale rappresentano una delle applicazioni più promettenti, ma anche più controverse.
Vogliamo perciò di seguito presentare Socrate, un chatbot basato su GenAI progettato per favorire riflessione, consapevolezza ed espressione emotiva attraverso il dialogo, ispirandosi alla tradizione socratica e ai modelli psicoterapeutici meaning-based ed evidence-based.
A differenza dei chatbot generalisti, Socrate integra conoscenze cliniche selezionate, istruzioni terapeutiche mirate, sistemi di sicurezza e, nelle sue versioni più avanzate, ambienti immersivi in realtà virtuale. Analizzando il suo funzionamento, dalle logiche di personalizzazione fino all’esperienza interattiva e immersiva, emerge come l’AI possa diventare un alleato della salute mentale, purché progettata con intenzionalità clinica, trasparenza ed etica.
L’obiettivo non è sostituire il terapeuta umano, ma ampliare lo spazio del dialogo psicologico, rendendolo più accessibile, continuo e sostenibile.
Indice degli argomenti
Quando il dialogo diventa tecnologia: le origini del progetto Socrate
Attribuire il nome “Socrate” a un chatbot per il benessere psicologico non è una scelta puramente evocativa né un semplice omaggio culturale, ma rappresenta una vera e propria dichiarazione di intenti, progettuali e teorici.
Il filosofo ateniese, infatti, non concepiva il sapere come un insieme di contenuti da trasmettere in modo lineare, né come una verità da imporre dall’alto, bensì come un processo dinamico da attivare attraverso il dialogo.
La conoscenza, per Socrate, nasceva dall’incontro tra interlocutori e prendeva forma nel tempo, grazie a una sequenza di domande capaci di mettere in discussione convinzioni date per scontate. Il metodo socratico, fondato sull’arte della domanda e sulla maieutica, mirava a far emergere contraddizioni interne, a stimolare il dubbio e a favorire una presa di coscienza personale che non poteva essere delegata a nessun altro. In questo senso, il dialogo non era uno strumento accessorio, ma il cuore stesso del processo conoscitivo (Eliud, 2025).
Socrate, un chatbot nato dalla ricerca accademica
È proprio questa impostazione che guida lo sviluppo di Socrate come chatbot conversazionale per il benessere psicologico (Frisone et al., 2025). Socrate nasce all’interno di un’iniziativa di ricerca congiunta tra l’Università Cattolica del Sacro Cuore e l’Università di Udine, un contesto accademico che ha permesso di intrecciare competenze provenienti dalla psicologia clinica, dalle scienze cognitive, dagli studi sull’Intelligenza Artificiale (AI) e la Realtà Virtuale (VR). In un contesto storico in cui molte tecnologie digitali promettono risposte rapide, automazione, ottimizzazione dei processi e soluzioni immediate ai problemi complessi, Socrate si colloca deliberatamente in controtendenza.
Invece di accelerare il processo decisionale o fornire indicazioni prescrittive, il sistema è progettato per rallentare la conversazione, per sospendere il giudizio e per restituire all’utente il tempo della riflessione. Il suo obiettivo non è risolvere il problema dell’utente, né fornire diagnosi, etichette o interpretazioni definitive del vissuto, ma creare uno spazio dialogico protetto in cui l’utente possa fermarsi, esplorare ciò che prova e riorganizzare il proprio mondo emotivo e cognitivo. In questo spazio, le domande non servono a guidare verso una risposta corretta, ma a rendere visibili connessioni, ambivalenze e significati che spesso restano impliciti nell’esperienza quotidiana.
Una visione del benessere oltre il sintomo
Questa scelta progettuale riflette una visione precisa della salute mentale e del benessere psicologico. Il benessere non viene inteso come la semplice eliminazione del sintomo o come il ritorno a uno stato di funzionamento ottimale, ma come la possibilità di dare senso all’esperienza, anche quando questa è complessa, ambigua o dolorosa (Spencer et al., 2025).
In questa prospettiva, il disagio non è solo qualcosa da correggere, ma può diventare un punto di partenza per un processo di comprensione più profonda di sé (Rossi Monti & D’Agostino, 2018). La tecnologia, quindi, non diventa un fine in sé né un sostituto della relazione umana, ma un mezzo per facilitare un processo umano profondamente antico: il dialogo come strumento di conoscenza di sé, di costruzione di significato e di trasformazione personale.
L’utente di fronte al chatbot: tra sollievo e diffidenza
Le ricerche più recenti sull’interazione uomo-macchina mostrano un dato che, fino a pochi anni fa, sarebbe sembrato paradossale: molte persone faticano a distinguere se una risposta empatica, articolata e contestualizzata provenga da un professionista umano o da un chatbot avanzato basato su modelli di linguaggio di grandi dimensioni (Ayers et al., 2023).
In diversi studi sperimentali, le risposte generate da sistemi di AI vengono valutate come equivalenti e, in alcuni casi, persino superiori a quelle dei clinici umani, su dimensioni considerate centrali nella relazione di aiuto, come l’empatia percepita, la qualità dell’alleanza terapeutica e la competenza comunicativa (Ovsyannikova et al., 2025). Questo non significa che l’AI comprenda l’esperienza umana nel senso fenomenologico del termine, ma suggerisce che la forma linguistica dell’ascolto, ossia il modo in cui una risposta viene costruita, articolata e restituita, gioca un ruolo cruciale nella percezione di essere compresi.
Questo fenomeno apre una questione teorica e clinica di grande rilevanza: che cosa accade quando scopriamo che a porci domande significative non è una persona? La reazione degli utenti è spesso ambivalente. Da un lato, molti riportano un senso di sollievo e di sicurezza: il chatbot non giudica, non si mostra infastidito, è sempre disponibile e non richiede di “fare una buona impressione”.
Questa assenza di valutazione sociale può abbassare le difese e facilitare l’espressione di pensieri ed emozioni che, in un contesto umano, potrebbero risultare più difficili da condividere (Vowels et al., 2024). Dall’altro lato, emerge una diffidenza latente, legata alla consapevolezza che l’interlocutore non possiede intenzionalità, coscienza, né un vissuto soggettivo. Sapere che l’altro non “sente” ciò che ascolta può generare una sensazione di vuoto relazionale o di artificialità dell’incontro (Demszky et al., 2023).
Lo spazio dialogico come potenziale terapeutico
Socrate si inserisce consapevolmente all’interno di questa ambivalenza, senza tentare di eliminarla o di mascherarla. Il sistema non cerca di ingannare l’utente simulando un essere umano, né di costruire un’illusione di reciprocità emotiva. Al contrario, rende esplicita la propria natura artificiale e fonda la relazione non sulla presunta empatia dell’interlocutore, ma sulla qualità del processo dialogico. In questo senso, Socrate propone un cambio di prospettiva: sposta l’attenzione dall’identità di chi fa la domanda all’effetto che quella domanda produce.
Ciò che conta non è chi interroga, ma che tipo di spazio la domanda riesce ad aprire nella mente dell’utente: uno spazio di riflessione, di sospensione del giudizio e di riorganizzazione del significato. È in questo spazio, più che nella relazione in senso stretto, che si colloca il potenziale di supporto psicologico del chatbot.
Come funziona davvero Socrate: vincoli, regole e stile
Dal punto di vista tecnico, Socrate è sviluppato a partire da un Large Language Model (LLM) generalista, ma viene profondamente trasformato attraverso un processo di personalizzazione mirato e intenzionale. Non si tratta, quindi, di una semplice interfaccia conversazionale basata su un modello preesistente, bensì di un sistema che opera entro confini ben definiti, sia sul piano dei contenuti trattabili sia su quello della relazione che instaura con l’utente.
A differenza di una normale interazione con ChatGPT, in cui il modello è progettato per rispondere a una gamma estremamente ampia di richieste, Socrate è vincolato da un insieme di regole, istruzioni e priorità che ne orientano costantemente il comportamento verso obiettivi di supporto psicologico e riflessione personale. Questi vincoli non rappresentano una limitazione, ma una condizione necessaria per rendere l’interazione più sicura, coerente e clinicamente sensata.
La conoscenza clinica come sfondo del dialogo
Il chatbot integra, infatti, un sistema di conoscenze selezionate, costruito a partire da riflessioni provenienti dalla psicologia clinica, dalla psicoterapia e dalla filosofia. Questo insieme di riferimenti teorici non viene utilizzato come un repertorio di nozioni da trasmettere all’utente, ma come una cornice epistemica che orienta il modo in cui le risposte vengono formulate.
In altre parole, il modello non si limita a produrre un testo plausibile, ma genera interventi che risultano compatibili con una visione non riduzionista dell’esperienza psicologica e con approcci meaning-based ed evidence-based (Spring, 2007; Vos & Vitali, 2018). Questa architettura contribuisce a ridurre il rischio di contenuti incoerenti, fuorvianti o eccessivamente semplificati, che potrebbero risultare problematici in un contesto di benessere mentale. La conoscenza teorica funge così da sfondo silenzioso dell’interazione, più che da contenuto esplicito del dialogo.
Lo stile dell’interazione: ascolto, apertura e rispetto dei tempi
Tuttavia, il funzionamento di Socrate non si esaurisce nella disponibilità di un solido impianto teorico. Una parte centrale del progetto riguarda infatti lo stile dell’interazione, considerato un elemento clinicamente rilevante tanto quanto i contenuti (de Borst & de Gelder, 2015). Il chatbot è stato istruito per privilegiare l’ascolto riflessivo, per tollerare l’ambiguità e per rispettare i tempi soggettivi dell’utente, evitando di forzare il ritmo della conversazione.
Le domande sono formulate in modo aperto e non direttivo, senza suggerire risposte implicite o interpretazioni precostituite, e lasciano sempre spazio alla riformulazione, al ripensamento e, quando necessario, al silenzio. In questo senso, Socrate non conduce la conversazione verso un esito prefissato, ma la accompagna, assumendo una posizione che richiama alcuni principi della psicoterapia centrata sulla persona, come l’accettazione incondizionata, la fiducia nelle risorse dell’individuo e il rispetto dell’esperienza soggettiva (Cooper & McLeod, 2011).
RAG e fine-tuning: l’architettura invisibile della personalizzazione
Uno dei principali limiti dei chatbot generalisti è la loro difficoltà a adattarsi in modo significativo al contesto individuale dell’utente (Yeh et al., 2025). Sebbene le risposte risultino spesso fluide, grammaticalmente corrette e apparentemente pertinenti, tendono a rimanere generiche e poco radicate nella storia personale, nei vissuti emotivi e nelle specificità della situazione di chi interagisce. In ambito psicologico, questa mancanza di contestualizzazione rappresenta un limite particolarmente rilevante, poiché il significato di un’esperienza non può essere separato dal contesto in cui si manifesta.
Socrate affronta questo problema attraverso una combinazione di strategie tecnologiche che mirano a rendere l’interazione più situata, coerente e sensibile alle caratteristiche dell’utente, pur senza trasformarsi in un sistema di valutazione clinica automatizzata. Un primo elemento chiave di questa architettura è l’uso della Retrieval Augmented Generation (RAG). Questo approccio consente al modello di generare risposte ancorate a contenuti selezionati, verificati e pertinenti al dominio del benessere psicologico, anziché affidarsi esclusivamente alla probabilità statistica delle sequenze linguistiche.
In termini pratici, la RAG permette a Socrate di consultare un insieme di materiali di riferimento, come linee guida teoriche, cornici cliniche e indicazioni di buone pratiche, prima di formulare una risposta. Il risultato è una maggiore coerenza concettuale e una riduzione delle cosiddette “allucinazioni”, ovvero la produzione di contenuti plausibili ma inaccurati o non appropriati. In un contesto delicato come quello psicologico, questa ancoratura a indicazioni affidabili contribuisce a rendere il dialogo più stabile, prevedibile e sicuro per l’utente.
L’umiltà digitale e la gestione delle crisi
A questo livello di controllo sui contenuti, si affianca un processo di fine-tuning basato su istruzioni dettagliate, che rappresenta uno degli aspetti più rilevanti del funzionamento di Socrate. Il fine-tuning non si limita a insegnare al modello cosa dire, ma definisce in modo esplicito come dirlo e, soprattutto, quando è opportuno non intervenire.
Il modello è addestrato a riconoscere l’incertezza, a tollerare l’ambiguità e a chiedere chiarimenti quando le informazioni fornite dall’utente risultano incomplete o contraddittorie. Allo stesso tempo, Socrate è istruito per evitare interpretazioni affrettate, etichette diagnostiche o suggerimenti prescrittivi. Questa “umiltà digitale”, scaturita dal riconoscimento dei propri limiti, risulta fondamentale in un ambito in cui un’eccessiva sicurezza potrebbe risultare non solo fuorviante, ma potenzialmente dannosa.
Particolare attenzione è stata dedicata, infine, alla gestione delle situazioni di crisi. Socrate è progettato per individuare segnali linguistici che possono indicare un disagio acuto, come espressioni di disperazione intensa, ideazione suicidaria o intenzioni autolesive. In presenza di tali segnali, il sistema sospende la conversazione ordinaria e attiva una modalità di risposta specifica, orientata alla sicurezza, che invita l’utente a rivolgersi a risorse professionali e a servizi di emergenza.
In questi casi, il chatbot esplicita chiaramente i propri limiti e rinuncia a proseguire il dialogo riflessivo. Qui emerge in modo netto il confine tra supporto psicologico e intervento clinico: un confine che Socrate riconosce e che non è autorizzato a oltrepassare.
Voce, avatar e realtà virtuale: quando il dialogo diventa esperienza
Una delle evoluzioni più innovative del progetto Socrate riguarda l’integrazione con ambienti immersivi in VR. In questi contesti, il chatbot non si limita più a produrre risposte testuali sullo schermo, ma diventa un’entità percepibile nello spazio tridimensionale, incarnata in un avatar visivo e vocale.
Questa trasformazione apre nuove possibilità nell’esperienza dell’utente, che non dialoga più con un semplice flusso di testo, ma interagisce con una presenza che sembra abitare lo stesso ambiente. La voce, modulata con intonazioni, pause e ritmo naturale, insieme ai movimenti e alle espressioni dell’avatar, contribuisce a creare un senso di co-presenza molto più intenso rispetto alla comunicazione tradizionale mediata da uno schermo (Yonatan‐Leus & Brukner, 2025).
La presenza virtuale e il suo impatto sull’interazione psicologica
La letteratura sulle interazioni uomo-macchina suggerisce che la percezione di presenza e co-presenza possa avere un effetto diretto sul coinvolgimento emotivo, sulla motivazione a proseguire il dialogo e sulla sensazione di essere realmente “in relazione” (Zhu et al., 2022). In un ambiente VR, fattori come la distanza interpersonale percepita, la postura dell’avatar, i micro-movimenti e il ritmo dello scambio verbale diventano strumenti cruciali per modulare l’interazione.
Non si tratta solo di un abbellimento estetico: queste caratteristiche possono rafforzare la capacità dell’utente di riflettere sulle proprie emozioni, di sentire ascolto e attenzione e di sperimentare un ambiente psicologico sicuro e strutturato. La VR consente quindi di rendere tangibile il dialogo, trasformando un’esperienza cognitiva astratta in un evento tra entità, percepibile anche sul piano corporeo e sensoriale.
La VR non è per tutti: personalizzazione e calibrazione dell’immersione
Va sottolineato, però, che la VR non rappresenta automaticamente la soluzione migliore in tutti i contesti. L’immersione deve essere calibrata in funzione del profilo dell’utente, della sua familiarità con la tecnologia, del livello di ansia o sensibilità emotiva e degli obiettivi dell’intervento. Un’eccessiva stimolazione sensoriale, ad esempio, potrebbe generare disagio o distrazione, vanificando l’effetto terapeutico del dialogo (Lundin et al., 2023).
Al contrario, un’implementazione calibrata e progressiva può facilitare l’apertura emotiva, migliorare la regolazione affettiva e favorire la consapevolezza del proprio vissuto interiore. Questa attenzione alla personalizzazione conferma la coerenza del progetto con la filosofia socratica: l’obiettivo non è stupire o intrattenere, ma creare uno spazio esperienziale funzionale alla riflessione e alla conoscenza di sé.
Corpo, mente e tecnologia: le domande aperte della ricerca
Infine, l’integrazione tra dialogo, voce e presenza dell’avatar apre scenari profondamente innovativi: fino a che punto la dimensione corporea e sensoriale può modulare l’efficacia di un’interazione psicologica, anche quando l’interlocutore è artificiale?
Quanto il senso di presenza contribuisce a consolidare l’alleanza terapeutica, la motivazione al cambiamento e la percezione di supporto? Socrate, combinando tecnologia immersiva, modellazione linguistica e attenzione ai tempi e al ritmo dell’interazione, permette di esplorare questi confini in modo sicuro e scientificamente fondato, offrendo una piattaforma unica per studiare come corpo, mente e tecnologia possano incontrarsi in un’esperienza psicologica integrata.
I punti di forza di Socrate: accessibilità, continuità e auto-esplorazione
Socrate può offrire uno spazio di riflessione sicuro, continuo e non giudicante, disponibile in qualsiasi momento e accessibile a chiunque disponga dell’accesso. La sua presenza costante permette agli utenti di fermarsi, esplorare i propri pensieri e dare forma a emozioni confuse che spesso restano inespresse.
Attraverso domande aperte e riflessive, Socrate favorisce l’auto-esplorazione, stimola la consapevolezza dei propri schemi emotivi e incoraggia la rielaborazione di vissuti complessi. In pratica, può essere un supporto di primo livello, utile in situazioni di stress quotidiano, di ansia leggera o di incertezza emotiva, oppure integrarsi in contesti clinici già strutturati dove le risorse umane risultano limitate, garantendo continuità e accessibilità. Inoltre, la natura digitale consente di raccogliere feedback anonimi e personalizzati, permettendo un’esperienza su misura che si adatta progressivamente al ritmo e alle esigenze dell’utente.
I limiti di Socrate: ciò che l’AI non può fare
Tuttavia, i suoi limiti appaiono altrettanto evidenti e devono essere chiaramente compresi. Socrate non possiede intenzionalità né coscienza metacognitiva; non può provare emozioni reali né percepire l’empatia nel senso umano del termine. Questo significa che, pur riconoscendo parole o frasi che indicano sofferenza, non può “sentire” ciò che l’utente prova.
Non è in grado di cogliere pienamente le sfumature del linguaggio non verbale, della postura o dei segnali corporei che spesso costituiscono una parte fondamentale della comunicazione emotiva (Riva, 2002). Allo stesso modo, non può guidare processi di ristrutturazione cognitiva profonda o affrontare traumi complessi: la trasformazione terapeutica rimane, al momento, un processo eminentemente umano, che richiede la presenza, l’intuito e l’esperienza di un professionista qualificato (Riva et al., 2025).
Supporto sì, terapia no: dove si colloca Socrate
È importante sottolineare come Socrate si collochi tra supporto e informazione, non tra terapia e diagnosi. Può aiutare a esplorare pensieri, a chiarire emozioni e a sviluppare maggiore consapevolezza, ma non sostituisce né diagnosi né trattamenti professionali.
In questo senso, funge da strumento complementare, un facilitatore del dialogo con sé stessi, ma sempre all’interno di limiti chiari e definiti. Riconoscere questi confini è cruciale per un utilizzo sicuro ed efficace: la tecnologia può amplificare la capacità di riflettere, guidare l’auto-esplorazione e ridurre il senso di isolamento, ma la responsabilità del cambiamento profondo resta saldamente nelle mani dell’essere umano.
Il valore concreto del dialogo digitale
Infine, comprendere questi limiti non sminuisce il valore di Socrate, ma ne definisce la funzione reale e concreta: offrire uno spazio di ascolto costante, neutrale e strutturato, dove le parole e le riflessioni dell’utente hanno peso, e in cui il dialogo stesso diventa uno strumento di consapevolezza, senza mai sostituire la complessità e la profondità dell’incontro umano diretto.
Trasparenza, consenso informato e protezione dei dati
L’uso dell’AI in contesti psicologici e di supporto emotivo richiede un’attenzione etica rigorosa e continua, poiché le implicazioni del dialogo automatizzato possono avere effetti significativi sul benessere degli utenti (McBain et al., 2025). Socrate è stato progettato seguendo principi di trasparenza, assicurando che ogni interazione sia chiara: l’utente sa in ogni momento che sta dialogando con un sistema artificiale, senza possibilità di equivoci.
Il consenso informato è parte integrante dell’esperienza: prima di iniziare la conversazione, l’utente riceve spiegazioni dettagliate sul funzionamento del chatbot, sui limiti delle risposte e sulle modalità di trattamento dei dati. La protezione della privacy e dei dati personali è garantita attraverso protocolli di sicurezza avanzati, con l’obiettivo di tutelare informazioni sensibili e creare un ambiente sicuro e affidabile.
Supervisione umana e modelli human-in-the-loop
La supervisione umana rimane un elemento fondamentale per garantire un utilizzo corretto e sicuro. I modelli “human-in-the-loop” permettono di integrare Socrate nei servizi psicologici senza delegare a un algoritmo decisioni cliniche delicate o interventi terapeutici complessi.
Professionisti qualificati possono monitorare le interazioni, intervenire in caso di segnali di disagio acuto e aggiornare continuamente i protocolli di sicurezza e contenuto del chatbot. Questo approccio evita il rischio che l’AI diventi un sostituto della relazione umana, preservando la centralità dell’esperto e assicurando che le risposte automatiche restino strumenti di supporto, non strumenti decisionali autonomi.
Etica in azione: riconoscere i limiti e proteggere l’utente
Oltre alla supervisione e alla trasparenza, l’etica del progetto si concretizza nel rispetto dei limiti della tecnologia. Socrate è programmato per riconoscere situazioni di crisi o linguaggio indicativo di disagio acuto, sospendendo la conversazione ordinaria e indirizzando immediatamente l’utente verso risorse professionali.
Non tenta mai di sostituire il giudizio umano né di assumere ruoli terapeutici per i quali non è autorizzato. In questo senso, la responsabilità della tecnologia è chiara: offrire uno spazio di riflessione e accompagnamento senza oltrepassare i confini della sicurezza e della competenza clinica.
La combinazione di trasparenza, supervisione umana e limiti precisi definisce un modello di dialogo responsabile, capace di sfruttare le potenzialità dell’AI senza compromettere la tutela dell’utente o la qualità della relazione terapeutica.
L’uso responsabile dell’AI nella salute mentale: un modello per il futuro
Infine, l’attenzione etica non riguarda solo la protezione individuale, ma anche la dimensione più ampia dell’uso responsabile della tecnologia. Socrate si inserisce in un dibattito globale sul ruolo dell’AI nella salute mentale, dimostrando che innovazione e sicurezza possono coesistere: l’obiettivo non è creare un assistente onnipotente, ma sviluppare strumenti che amplifichino l’accesso al supporto psicologico e favoriscano l’autoconsapevolezza, sempre sotto la supervisione di professionisti umani e nel rispetto dei principi etici più rigorosi.
Conclusione: il futuro del dialogo psicologico nell’era digitale
E se il dialogo socratico potesse davvero essere promosso da Socrate? Non si tratta di un paradosso filosofico, ma di un vero e proprio esperimento culturale, clinico e tecnologico, che mette in luce come l’AI possa diventare qualcosa di più di uno strumento neutro o di una semplice applicazione. Socrate dimostra che, se progettata con intenzionalità, attenzione etica e consapevolezza dei limiti, l’AI può offrire uno spazio di riflessione autentica, capace di stimolare la curiosità, il dubbio e la consapevolezza di sé. Non sostituisce il dialogo umano, ma lo integra, diventando un compagno di riflessione in quei momenti in cui la presenza di un interlocutore reale non è immediatamente disponibile, o quando le risorse tradizionali sono limitate.
Il progetto Socrate apre anche una riflessione più ampia sul significato stesso di interazione digitale: non è la velocità, l’efficienza o la completezza delle risposte a definire il valore di un sistema, ma la qualità delle domande che riesce a stimolare. L’AI può aiutare l’utente a esplorare le proprie emozioni, a dare forma a pensieri confusi e a creare consapevolezza, pur restando consapevole dei propri limiti. Questo implica una trasformazione dell’approccio alla salute mentale digitale: non più una questione di algoritmi potenti, ma di progettazione centrata sull’esperienza umana, in cui ogni scelta tecnologica sia guidata da principi di etica, sicurezza e responsabilità.
Infine, il futuro della salute mentale digitale non dipenderà solo dalla potenza computazionale o dall’accuratezza degli algoritmi, ma dalla capacità di integrare la tecnologia in modo sensibile, umano e riflessivo. Le innovazioni come Socrate ci mostrano che la tecnologia può diventare un ponte verso la consapevolezza, un invito a fermarsi, interrogarsi e dialogare con sé stessi. L’obiettivo non è sostituire la relazione terapeutica o la profondità del contatto umano, ma ampliare le possibilità di accesso, continuità e riflessione, creando uno spazio dove l’arte del dialogo, anche socratico, può vivere e prosperare nell’era digitale (Riva, 2025). In altre parole, il vero progresso non consiste solo nella potenza degli strumenti, ma nella saggezza con cui impariamo a porre le domande giuste e ad accogliere le risposte, siano esse umane o artificiali.
Bibliografia
- Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., … & Smith, D. M. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal medicine, 183(6), 589-596.
- Cooper, M., & McLeod, J. (2011). Person-centered therapy: A pluralistic perspective. Person-Centered & Experiential Psychotherapies, 10(3), 210-223.
- de Borst, A. W., & de Gelder, B. (2015). Is it the real deal? Perception of virtual characters versus humans: an affective cognitive neuroscience perspective. Frontiers in psychology, 6, 576.
- Demszky, D., Yang, D., Yeager, D. S., Bryan, C. J., Clapper, M., Chandhok, S., … & Pennebaker, J. W. (2023). Using large language models in psychology. Nature Reviews Psychology, 2(11), 688-701.
- Eliud, O. (2025). Socratic method as a therapeutic discourse for mental health. Diagnostics and Therapeutics, 1-9.
- Frisone, F., Pupillo, C., Rossi, C., & Riva, G. (2025). SOCRATES. Developing and evaluating a fine-Tuned ChatGPT model for accessible mental health intervention. Cyberpsychology, Behavior, and Social Networking, 28(5), 366-368.
- Lundin, R. M., Yeap, Y., & Menkes, D. B. (2023). Adverse effects of virtual and augmented reality interventions in psychiatry: systematic review. JMIR mental health, 10, e43240.
- McBain, R. K., Cantor, J. H., Zhang, L. A., Baker, O., Zhang, F., Halbisen, A., … & Yu, H. (2025). Competency of large language models in evaluating appropriate responses to suicidal ideation: Comparative study. Journal of Medical Internet Research, 27, e67891.
- Ovsyannikova, D., de Mello, V. O., & Inzlicht, M. (2025). Third-party evaluators perceive AI as more compassionate than expert humans. Communications Psychology, 3(1), 4.
- Riva, G. (2002). The sociocognitive psychology of computer-mediated communication: The present and future of technology-based interactions. Cyberpsychology & behavior, 5(6), 581-598.
- Riva, G., Rossi, C., Frisone, F., & Oasi, O. (2025). Intelligenza Artificiale in Psicologia: Potenziare la Cura, Preservare l’Umanità. Psicoterapia Cognitiva e Comportamentale, 31(2).
- Riva, G. (2025). Digital “we”: Human sociality and culture in the era of social media and artificial intelligence. American Psychologist, 80(9), 1535.
- Rossi Monti, M., & D’Agostino, A. (2018). Diagnosis or diagnosing? From symptoms to a phenomenological-psychoanalytic stance on the patient’s world. The Psychoanalytic Review, 105(2), 209-222.
- Spencer, L., Broome, M. R., & Stanghellini, G. (2025). The future of phenomenological psychopathology. Philosophical psychology, 38(1), 1-16.
- Spring, B. (2007). Evidence‐based practice in clinical psychology: What it is, why it matters; what you need to know. Journal of clinical psychology, 63(7), 611-631.
- Vos, J., & Vitali, D. (2018). The effects of psychological meaning-centered therapies on quality of life and psychological stress: A meta-analysis. Palliative & supportive care, 16(5), 608-632.
- Vowels, L. M., Francois-Walcott, R. R., & Darwiche, J. (2024). AI in relationship counselling: evaluating ChatGPT’s therapeutic capabilities in providing relationship advice. Computers in Human Behavior: Artificial Humans, 2(2), 100078.
- Yeh, P. L., Kuo, W. C., Tseng, B. L., & Sung, Y. H. (2025). Does the AI-driven Chatbot Work? Effectiveness of the Woebot app in reducing anxiety and depression in group counseling courses and student acceptance of technological aids. Current Psychology, 44(9), 8133-8145.
- Yonatan‐Leus, R., & Brukner, H. (2025). Comparing perceived empathy and intervention strategies of an AI chatbot and human psychotherapists in online mental health support. Counselling and Psychotherapy Research, 25(1), e12832.
- Zhu, Q., Chau, A., Cohn, M., Liang, K. H., Wang, H. C., Zellou, G., & Yu, Z. (2022, July). Effects of emotional expressiveness on voice chatbot interactions. In Proceedings of the 4th conference on conversational user interfaces (pp. 1-11).










