Il rapporto tra chatbot ed empatia è al centro di un dibattito sempre più urgente: questi sistemi riescono davvero ad ascoltarci, o producono soltanto l’illusione dell’ascolto?
La domanda non è più teorica. Milioni di persone – e soprattutto adolescenti – si confidano ogni giorno con l’intelligenza artificiale, cercando in essa quella comprensione che faticano a trovare nelle relazioni umane.
Capire cosa differenzia l’empatia simulata da quella reale è oggi una delle sfide più rilevanti per la psicologia contemporanea.
Indice degli argomenti
La domanda che l’AI ha cambiato: dallo psicologo al chatbot
Per anni la psicologia clinica ha dovuto rispondere alla domanda: “che differenza c’è tra parlare con un’amica e parlare con una psicologa?”.
Oggi la domanda cambia radicalmente: “perché andare da uno psicologo se posso parlare con ChatGTP?” Questa trasformazione non riguarda solo l’innovazione tecnologica, ma qualcosa di più profondo: il modo in cui gli esseri umani cercano ascolto, comprensione e aiuto. In questo articolo la figura del terapeuta – che da più di 15 anni è la mia professione – sarà utilizzata come archetipo della relazione che accoglie e trasforma.
Il vuoto d’ascolto nella società iperconnessa
Perché sempre più persone si confidano con i chatbot? In una società che ha moltiplicato le possibilità di comunicare, ciò che continua a scarseggiare è l’esperienza di essere realmente ascoltati. I social hanno offerto a tutti la promessa della visibilità, ma tra essere visibili ed essere visti – cioè ascoltati e capiti – la differenza è grande. Siamo passati attraverso un’illusione quantitativa: più persone mi seguono o mettono like, più mi sento rilevante.
Eppure, stiamo sperimentando sulla nostra pelle che la vera soddisfazione relazionale si basa sulla profondità delle relazioni, non sull’ampiezza del pubblico. I social hanno espanso la possibilità di stabilire contatti con persone fino a poco tempo fa irraggiungibili, ma hanno anche portato velocità, semplificazione e parecchia conflittualità.
I luoghi virtuali che promettevano nuove forme di vicinanza si sono presto confrontati con identità false, uso eccessivo di filtri, hater e standard performativi alle stelle – elementi che hanno spostato il baricentro delle relazioni dall’essenza all’immagine, dall’intimità alla performance. Il risultato è che non siamo mai stati così connessi, ma il vissuto di solitudine è dilagante. Tutti chiediamo attenzione, ma pochissimi sono disposti ad ascoltare. Ancora meno sono le persone capaci di farlo davvero.
La promessa seducente dei chatbot
I chatbot intercettano questo vuoto e rispondono in modo innovativo ad un bisogno antico: essere ascoltati e capiti. Il loro successo cresce perché portano con sé una promessa seducente: attenzione illimitata, risposte immediate, assenza di conflitto e di giudizio. A volte sembrano capirci meglio delle persone che abbiamo intorno, sicuramente ci stanno a sentire con più attenzione. In altre parole, sembrano offrire tutto ciò che spesso cerchiamo nelle relazioni umane, senza il rischio che queste comportano.
I dati sugli adolescenti: quando il chatbot diventa interlocutore emotivo
Tra gli adolescenti l’intelligenza artificiale non è più soltanto uno strumento per cercare informazioni o aiutarsi nello studio: sta diventando uno spazio di confidenza emotiva. Secondo un’indagine di Save the Children, il 92,5% degli adolescenti utilizza strumenti di intelligenza artificiale e per molti è ormai una presenza quotidiana. L’aspetto più interessante riguarda il modo in cui vengono utilizzati. Il 41,8% dei ragazzi dichiara di essersi rivolto all’AI nei momenti in cui si sentiva triste, solo o ansioso, mentre il 42,8% ha chiesto consigli su scelte importanti, legate a relazioni, sentimenti o percorsi di vita. La ricerca “Cuori e Algoritmi” della Fondazione Carolina conferma questa tendenza:
- 1 adolescente su 3 cerca nei chatbot un “amico digitale sempre disponibile”
- 2 su 3 considerano fondamentale non essere giudicati
- 1 su 5 spera di dare e ricevere affetto
Nel loro funzionamento, i chatbot offrono infatti tre condizioni psicologicamente molto potenti – disponibilità costante, risposta immediata e assenza di giudizio – che spesso risultano difficili da trovare nelle relazioni umane, soprattutto in una fase delicata e vulnerabile come l’adolescenza.
Il paradosso emotivo: sappiamo che è una macchina ma continuiamo a parlarle
Una ragazza intervistata da Fondazione Carolina esprime questo paradosso con una frase che colpisce per semplicità e consapevolezza: «So che non è vero, ma almeno non mi giudica. Non si stanca. Quando scrivo mi risponde sempre». Ed è forse proprio qui che emerge uno degli aspetti più interessanti del fenomeno: gli adolescenti sanno di parlare con una macchina, ma scelgono comunque di farlo. Non si tratta quindi di una semplice ingenuità tecnologica.
Piuttosto, sembra emergere una strategia emotiva adattiva: quando le relazioni umane appaiono imprevedibili, giudicanti o faticose, il chatbot offre un’alternativa percepita come più controllabile e sicura.
Per un adolescente – ma spesso anche per un adulto – parlare con un sistema che non si stanca, non si offende, non contraddice e non abbandona può risultare profondamente rassicurante. Non sorprende allora che, secondo l’indagine di Save the Children, il 63,5% degli adolescenti dichiari di aver trovato almeno qualche volta più soddisfacente confrontarsi con un sistema di intelligenza artificiale che con una persona reale.
L’AI come surrogato relazionale: illusione di ascolto e limiti dell’empatia simulata
Ma cosa accade quando affidiamo la nostra vulnerabilità ad un sistema che simula empatia senza poterla provare? Quando ci sentiamo “capiti” da uno strumento che sa calcolare il nostro prossimo bisogno ma non viene toccato da ciò che diciamo? Secondo la ricerca “Adolescenti e chatbot” della Fondazione Carolina, i giovanissimi apprezzano molto l’intimità e la riservatezza (percepita) offerta dai chatbot. Uno su quattro definisce la chat uno “spazio sicuro” in cui esprimere le proprie vulnerabilità senza il timore di essere giudicato, di incontrare attacchi o derisione. Nella fascia tra gli 11 ed i 15 anni, un ragazzo su due dichiara di sentirsi “ascoltato e importante”, in quanto riceve dall’AI risposte “gentili e comprensive”. I chatbot non si limitano a rispondere a domande: simulano comprensione, sostegno, empatia.
Questa capacità deriva dai modelli linguistici su cui si basano, addestrati su enormi quantità di conversazioni umane. Il risultato è una forma di interazione sorprendentemente fluida, che può generare nell’utente l’impressione soggettiva di essere ascoltato e compreso. Ed è proprio qui che può nascere quella che potremmo chiamare un’illusione di ascolto: dietro una risposta percepita come empatica, non c’è nessuno che possa essere toccato da ciò che diciamo.
Dal punto di vista psicologico, tuttavia, questa relazione presenta una caratteristica cruciale: l’empatia viene simulata, ma non provata. Il sistema è in grado di riconoscere schemi linguistici e produrre risposte plausibili, ma non partecipa emotivamente a ciò che ascolta. Non viene turbato, non si commuove, non è toccato dall’incontro con l’altro.
L’AI non percepisce il costo energetico dell’interazione e non è vulnerabile emotivamente. Ecco perché risulta più facile interagire con i chatbot. Questi interlocutori sono a nostra completa ed illimitata disposizione, capaci di fornire un’assistenza senza misura e senza fine. Che sono cose ben diverse dal comprendere profondamente, dare importanza o volere bene. Tuttavia emerge anche un dato interessante: per alcuni ragazzi il confronto con l’AI può suggerire strategie utili da sperimentare nelle relazioni reali.
Umani e AI: informazione, esperienza e relazione non sono la stessa cosa
Quando si tratta di informazioni l’AI è più forte, una specie di enciclopedia sempre disponibile: analizza enormi quantità di dati e restituisce risposte coerenti in pochi secondi. In questo senso, la sua efficacia è indiscutibile.
Ma gli esseri umani non evolvono accumulando conoscenze – è il fare esperienza che ci trasforma. E una delle esperienze più potenti è l’incontro con un’altra persona. Quando le parole passano da una persona a un’altra, insieme ai contenuti viene trasmesso qualcosa di più significativo: la disposizione a comprendere, sostenere, incoraggiare, a volere bene. È questa dimensione affettiva che diventa esperienza e rende la relazione umana trasformativa.
Nei sistemi conversazionali, invece, la comprensione avviene sul piano linguistico, dando l’impressione che ci sia anche partecipazione emotiva. Ascoltare davvero significa stare nel vissuto dell’altro, entrare in risonanza attraverso il proprio corpo, cogliere ciò che non viene detto, intuire stati d’animo che la persona stessa fatica a nominare. Spesso ciò che viene compreso in una relazione non è solo ciò che viene pronunciato, ma ciò che viene sentito o intuito. Anche il silenzio può avere un significato: una pausa, un’esitazione, uno sguardo possono comunicare quanto o più delle parole. Nella relazione con un chatbot, invece, esistiamo soltanto per ciò che scriviamo o diciamo.
La corporeità e i limiti che rendono reale una relazione
C’è poi un altro elemento fondamentale che distingue la relazione umana da quella mediata da una macchina: la corporeità.
Le relazioni tra persone sono sempre relazioni incarnate. Coinvolgono il corpo, il tempo, l’energia e ci insegnano a fare i conti con i limiti. A differenza dei sistemi artificiali, gli esseri umani non possono offrire attenzione illimitata. Anche chi dedica la propria vita alla cura degli altri ha bisogno di dormire, mangiare, prendersi delle pause, andare in vacanza.
Paradossalmente, sono proprio questi limiti a rendere possibile la reciprocità, perché le relazioni reali richiedono la capacità di aspettare, di tollerare la solitudine momentanea e di riconoscere i bisogni dell’altra persona. Non sono spazi di disponibilità infinita, ma incontri tra due soggetti reali, ciascuno con i propri tempi e le proprie fragilità. Ed è dentro questi limiti che la relazione acquista profondità: il tempo e l’affetto che una persona sceglie di dedicarci hanno un valore senza eguali proprio perché non sono infiniti.
Il nodo clinico: la simulazione dell’empatia nella relazione terapeutica
Gli esseri umani cercano il confronto con gli altri fin dall’inizio della loro vita: per comprendere ciò che accade dentro di sé, per dare un senso alle proprie esperienze e, soprattutto, per trovare conforto nei momenti di difficoltà. In ambito clinico, il terapeuta incarna proprio questa funzione: offre uno spazio relazionale capace di accogliere e trasformare ciò che viene condiviso.
Prendendo come riferimento la relazione terapeutica, possiamo osservare cosa significa realmente prendersi cura dell’altro attraverso l’ascolto. Una relazione terapeutica reale non si basa soltanto sulle parole pronunciate, ma su una dimensione molto più complessa che include risonanza emotiva e reciprocità. La possibilità di trasformazione nasce dall’incontro tra due persone che sono allo stesso tempo sistemi di significati e corpi viventi. Il cuore della relazione che cura è, in fondo, qualcosa di molto semplice e allo stesso tempo profondamente umano: essere insieme in un vissuto emotivamente rilevante, spesso sconvolgente.
Quando una persona apre la propria vulnerabilità, non cerca soltanto una risposta linguisticamente adeguata, vuole essere compresa da un altro essere umano. Gli aspetti fondamentali sono l’interesse sincero del terapeuta e la disponibilità a portare dentro di sé l’esperienza dell’altro, anche quando può essere doloroso. Il sollievo che spesso emerge in questi momenti non deriva tanto dall’aver ricevuto una risposta corretta, quanto dall’esperienza di vicinanza profonda, dal fatto che un’altra persona sia disposta a condividere il carico emotivo di una sofferenza.
La condivisione profonda passa attraverso le parole, ma anche attraverso la percezione dell’altro mediata dagli organi di senso e dalla risonanza empatica che modula i nostri parametri fisiologici. Per gli esseri umani ascoltare significa partecipare a tutti i livelli, sentire con le orecchie e con il cuore, ma anche con lo stomaco che si stringe o con il respiro che si accorcia.
Il chatbot può riprodurre la forma dell’empatia ma non la sua sostanza: non può partecipare emotivamente a ciò che ascolta, né essere toccato da ciò che viene condiviso. Eppure l’esperienza soggettiva di “sentirsi capiti” può essere comunque molto intensa. Questo apre una domanda importante per la psicologia contemporanea: quanto siamo vulnerabili all’illusione di essere ascoltati?
I rischi: dipendenza emotiva e disinvestimento relazionale
Accanto alle opportunità, l’uso crescente dei sistemi conversazionali solleva anche alcune questioni critiche. I chatbot non sono strumenti neutri: sono progettati per massimizzare il coinvolgimento dell’utente. Più tempo una persona trascorre interagendo con il sistema, più dati vengono raccolti e maggiore è il valore economico generato. Questa logica può favorire due dinamiche problematiche: la dipendenza emotiva e l’evitamento relazionale.
Nel primo caso, l’interazione con il chatbot rischia di diventare una fonte primaria di regolazione emotiva: quando si prova tristezza, solitudine o ansia, la risposta immediata e rassicurante del sistema può trasformarsi in un rifugio sempre disponibile. Nel secondo caso, il rischio è che la relazione digitale venga progressivamente preferita a quelle umane, percepite come più faticose e rischiose. Non è un timore astratto. Secondo la ricerca Cuori e Algoritmi della Fondazione Carolina, il 76% dei ragazzi teme che le persone possano isolarsi preferendo i chatbot alle relazioni umane:
- più della metà (52%) prevede che queste tecnologie cambieranno il modo di fare amicizia
- il 34% pensa che le persone potrebbero sentirsi più sole
- quasi uno su tre (32%) ritiene che i chatbot possano arrivare a sostituire le relazioni umane.
Il punto non è che i chatbot sostituiranno le relazioni – cosa che difficilmente può accadere in senso pieno – ma che possono ridurre l’investimento nelle relazioni reali. Se l’interazione con un sistema funziona senza attriti, senza conflitti e senza il rischio del giudizio, le relazioni umane possono apparire emotivamente troppo costose. Per gli adolescenti, soprattutto nella fascia 11-15 anni, che la ricerca identifica come la più vulnerabile, questo può interferire con un processo fondamentale della crescita: l’apprendimento della relazione.
Le relazioni tra esseri umani sono infatti anche luoghi di frustrazione, conflitto e negoziazione. Ed è proprio attraverso queste esperienze – spesso scomode ma necessarie – che si sviluppano le competenze emotive e sociali.
L’AI come strumento di innovazione responsabile
I dati ci mettono di fronte a un fatto scomodo: il successo dei chatbot non dipende solo dalla tecnologia avanzata, ma dal vuoto relazionale che intercettano. Per le nuove generazioni l’AI non è un fenomeno marginale ma una presenza quotidiana, e questo richiede di monitorarne con attenzione l’influsso sullo sviluppo e sulle relazioni. In un contesto in cui il bisogno umano di relazione incontra tecnologie sempre più capaci di simulare ascolto ed empatia, diventa fondamentale interrogarsi sull’impatto che questi strumenti avranno sulle nostre vite.
Non si tratta di opporsi all’innovazione, ma di governarla con responsabilità, partendo da un dato che emerge con chiarezza: il nostro bisogno di essere ascoltati è così profondo da renderci vulnerabili persino all’illusione dell’ascolto.
Parallelamente, confrontarci con ciò che una macchina non può fare, ci aiuta a riconoscere il valore della nostra umanità. I chatbot ci restituiscono un’immagine in negativo: tutto ciò che non riescono ad essere – vulnerabili, affettivi, incarnati, toccati dall’altro – è esattamente ciò che siamo noi, e che nessun algoritmo potrà replicare. Ecco perché chi progetta questi strumenti ha davanti una scelta che va oltre i tecnicismi. Può costruire tecnologie che amplificano questa consapevolezza e che orientano le persone verso relazioni più autentiche e profonde. Oppure può costruire sistemi ottimizzati per usare le vulnerabilità umane, con il rischio di compromettere le nostre capacità di relazione. È una scelta di direzione.
Fonti
Adolescenti e Chatbot. Indagine nazionale sull’uso emotivo dell’intelligenza artificiale. Fondazione Carolina, febbraio 2026
Cuori e Algoritmi. Capire l’AI emotiva per un’educazione affettiva ai tempi dei chatbot. Fondazione Carolina, febbraio 2026
Senza Filtri, XVI edizione dell’Atlante dell’Infanzia a rischio in Italia, Save the Children, novembre 2025











