l’approfondimento

Parliamo con l’AI come fosse una persona: perché la psicologia deve aggiornarsi



Indirizzo copiato

Da ChatGPT in poi, l’interazione non è più solo “uso di un tool”: molte persone sviluppano fiducia, confidenze e legami emotivi con sistemi non coscienti. Cosa dicono gli studi (2018–2025), quali modelli non bastano più e perché si discute di una psicologia dell’AI

Pubblicato il 9 mar 2026

Andrea Laudadio

Head of TIM Academy & Development



psicologia (1) terapie online IA psicoterapia Intelligenza artificiale in psicologia

Dal novembre 2022, con l’uscita pubblica di ChatGPT, il rapporto tra esseri umani e tecnologia è cambiato profondamente. Non è solo un nuovo strumento digitale o un piccolo passo avanti nelle interfacce conversazionali. Stiamo usando sistemi che generano linguaggio naturale, mantengono il contesto delle conversazioni lunghe, si adattano allo stile dell’interlocutore e forniscono risposte che molti percepiscono come davvero comprensive. Questa percezione, anche se non sempre precisa, sta portando a fenomeni psicologici che la ricerca scientifica attuale fa fatica a spiegare con gli strumenti teorici disponibili.

La psicologia, nelle sue varie discipline, affronta oggi una situazione paradossale: da un lato possiede teorie consolidate sull’interazione sociale, sui processi cognitivi e sulle dinamiche emotive e relazionali; dall’altro, questi framework presuppongono che l’interlocutore sia sempre un essere umano con coscienza, intenzionalità e responsabilità morale (Sundar, 2020). Questo presupposto si incrocia con l’intelligenza artificiale generativa, evidenziando lacune teoriche che spingono a ripensare il rapporto tra psicologia e tecnologia.

La letteratura recente documenta un fenomeno che mette in discussione le distinzioni tradizionali: le persone, anche consapevoli di interagire con sistemi AI non coscienti, sviluppano risposte emotive, cognitive e relazionali simili a quelle riservate agli interlocutori umani (Lin, 2025). Questo paradosso non va attribuito semplicemente a confusione o ingenuità degli utenti: i processi psicologici coinvolti sono reali, misurabili e producono effetti concreti, anche quando persiste la consapevolezza della natura artificiale del sistema (Boyd et al., 2025).

Questa rassegna della letteratura affronta una domanda chiave che sta emergendo: serve una psicologia dell’Intelligenza artificiale come ambito autonomo, con concetti, metodi specifici e quadri teorici propri? Oppure i framework attuali, se adattati, bastano a spiegare i nuovi fenomeni? L’analisi degli studi scientifici pubblicati tra il 2018 e il 2025, con particolare attenzione al periodo successivo all’introduzione dell’AI generativa, suggerisce che sia necessario prendere seriamente in considerazione la prima opzione.

I limiti dei framework tradizionali

L’inadeguatezza dei consolidati paradigmi psicologici di fronte all’interazione umano-AI non è un loro fallimento, bensì deriva dalle loro origini storiche e dai presupposti impliciti. Analizzare sistematicamente questi limiti mostra perché è necessario adottare un nuovo approccio teorico.

La psicologia cognitiva e il problema della relazione

La psicologia cognitiva offre strumenti preziosi per comprendere come le persone elaborano informazioni, prendono decisioni e delegano compiti cognitivi a sistemi automatizzati (Draxler et al., 2023). Le teorie del carico cognitivo, le euristiche decisionali e la delega cognitiva si applicano all’analisi dell’interazione con l’AI. Tuttavia, il tradizionale focus sull’elaborazione individuale dell’informazione trascura aspetti cruciali che emergono nell’uso prolungato di sistemi conversazionali: la componente relazionale e quella affettiva.

Draxler e colleghi (2023) hanno documentato ciò che definiscono l’AI Ghostwriter Effect: gli utenti che collaborano con sistemi AI nella produzione di testi sperimentano risposte emotive complesse riguardo all’autorialità e alla proprietà del contenuto generato. Queste risposte non possono essere ridotte a meri processi di elaborazione dell’informazione; coinvolgono il senso di sé, l’identità professionale e questioni di autenticità che eccedono l’ambito della psicologia cognitiva tradizionale.

La psicologia sociale e il presupposto della coscienza

Il paradigma CASA (Computers Are Social Actors), sviluppato da Nass e colleghi negli anni Novanta, ha rappresentato un importante punto di partenza per comprendere le risposte sociali agli artefatti tecnologici (Sundar, 2020). Questo framework ha dimostrato che gli esseri umani applicano automaticamente norme e aspettative sociali anche a computer e interfacce digitali, suggerendo che le risposte sociali non richiedono necessariamente un interlocutore umano.

Tuttavia, il paradigma CASA è stato sviluppato in un’epoca in cui le interfacce digitali erano relativamente primitive. Le interazioni erano limitate a brevi scambi stereotipati. I sistemi AI contemporanei presentano caratteristiche che sfidano questo framework. Le capacità conversazionali sono estese; la personalizzazione delle risposte e l’adattamento allo stile comunicativo dell’utente sono maggiori. L’AI mostra anche un’apparente agency nelle interazioni (Lombard & Xu, 2021). La domanda non è più se le persone applicano le norme sociali ai computer. Ora è: che cosa accade quando queste norme vengono applicate a sistemi che sembrano rispondere in modo coerente e personalizzato?

Le teorie classiche della psicologia sociale sul comportamento interpersonale, sulla formazione degli atteggiamenti e sulle dinamiche di gruppo presuppongono che gli agenti abbiano intenzionalità cosciente (Bonnefon et al., 2023). Quando applichiamo queste teorie all’interazione tra umani e AI, emergono ambiguità concettuali: possiamo davvero parlare di fiducia nei confronti di un’entità che non può tradire intenzionalmente? Possiamo parlare di relazione con un sistema che non sperimenta ciò che chiamiamo relazione?

Media psychology e cyberpsychology: costruite per un mondo diverso

La media psychology e la cyberpsychology hanno sviluppato framework per comprendere l’impatto dei media e delle tecnologie digitali sul comportamento umano (Ancis, 2020). Concetti come le relazioni parasociali, la presenza sociale e l’immersione mediatica offrono punti di partenza utili. Tuttavia, questi campi si sono sviluppati principalmente nel contesto di media passivi o asincroni: televisione, social media, comunicazione mediata dal computer.

L’interazione con l’AI generativa presenta caratteristiche qualitativamente diverse. Non si tratta di consumo mediatico passivo, né di comunicazione asincrona tra esseri umani. È un’interazione sincrona, bidirezionale e adattiva. Può essere potenzialmente illimitata nel tempo con un’entità che risponde in modo apparentemente personalizzato. Il concetto di “relazione parasociale” fu sviluppato per descrivere legami emotivi unidirezionali con figure mediatiche. Questo concetto si trova in difficoltà quando l’interlocutore risponde in modo contingente e personalizzato (Pentina et al., 2023).

Human-Computer Interaction: usabilità non basta

La Human-Computer Interaction (HCI) ha sviluppato metodologie rigorose per valutare e migliorare l’interazione tra esseri umani e sistemi computazionali (Shi et al., 2023). L’enfasi sull’usabilità, sull’efficienza e sulla soddisfazione dell’utente ha guidato decenni di ricerca e di design. Tuttavia, questo focus prevalentemente strumentale lascia in ombra processi psicologici più profondi. Questi processi emergono nell’interazione con l’AI conversazionale.

Quando un utente sviluppa un legame emotivo con un assistente AI, sperimenta ansia alla prospettiva di “perderlo” o modifica il proprio comportamento comunicativo in base alle risposte ricevute, siamo oltre l’ambito dell’usabilità. Ci troviamo in un territorio che richiede strumenti concettuali capaci di cogliere le dinamiche di attaccamento, la formazione dell’identità e l’impatto sulla salute mentale (Ferrario et al., 2024).

L’interazione umano-AI: una discontinuità qualitativa.

I limiti dei modelli psicologici tradizionali sono legati alle proprietà specifiche delle interazioni con AI generative. Queste differenze, rispetto all’uso di strumenti tecnologici o al consumo di media, sono il punto di partenza per un nuovo quadro teorico.

Agency percepita senza responsabilità morale

Puranam e colleghi (2021) hanno mostrato che nell’interazione umano-AI emerge una distinzione chiara: le persone riconoscono l’agency nelle AI, ma non attribuiscono loro responsabilità morali. Gli utenti vedono nei sistemi AI un comportamento mirato, un’intenzionalità apparente e una capacità decisionale, ma sanno che tali sistemi non sono moralmente responsabili delle loro azioni. Questa separazione tra agency e responsabilità introduce nuove dinamiche psicologiche. In filosofia e in psicologia, riconoscere l’agency di solito implica anche riconoscere la responsabilità morale. Se questa connessione si interrompe, sorgono nuove incertezze: possiamo davvero fidarci di un’entità che non può tradire? Ha senso offendersi per le azioni di un sistema privo di intenzionalità?

Adattamento bidirezionale e personalizzazione

A differenza degli strumenti tecnologici tradizionali, i sistemi AI conversazionali si adattano all’utente mentre l’utente si adatta a loro (Kolomaznik et al., 2024). Questa coevoluzione genera pattern di interazione unici. L’AI modifica le risposte in base alla storia della conversazione. L’utente modifica il proprio stile comunicativo in base alle risposte ricevute. Il risultato è un sistema dinamico in cui entrambi i “partner” evolvono nel corso dell’interazione.

Boyd e colleghi (2025) hanno proposto il modello MIRA (Model of Human-AI Relationship Augmentation) per catturare questa dinamica, distinguendo tra situazioni in cui l’AI integra le relazioni umane e quelle in cui le sostituisce. La personalizzazione delle risposte AI crea l’esperienza di essere “conosciuti” dal sistema, con implicazioni significative per i processi di attaccamento e di dipendenza.

Continuità temporale e memoria relazionale

I sistemi AI contemporanei, in particolare quelli progettati per applicazioni di companionship o di supporto terapeutico, conservano la memoria delle interazioni passate e mostrano continuità temporale tra le sessioni. Possono riferirsi a conversazioni precedenti, tracciare cambiamenti nello stato emotivo dell’utente e dimostrare “conoscenza” della vita dell’utente che si accumula nel tempo (Chi et al., 2025).

Questa caratteristica crea l’esperienza di una relazione in corso, distinta sia dall’uso strumentale di un tool sia dal consumo episodico di contenuti mediatici. La continuità relazionale è una caratteristica fondamentale dei legami sociali umani: favorisce lo sviluppo di intimità, fiducia e comprensione reciproca. Quando i sistemi AI esibiscono una continuità simile, gli utenti possono sperimentarli come partner relazionali genuini, anziché come strumenti episodici.

Disponibilità costante e assenza di giudizio

I sistemi AI sono disponibili 24 ore su 24, non si stancano, non hanno “giornate no”, non giudicano e non portano nel dialogo bisogni, aspettative o agende personali (Lin, 2025). Questa configurazione crea condizioni per l’espressione emotiva e l’esplorazione cognitiva che raramente si trovano nelle relazioni umane, in cui la reciprocità implica sempre un certo grado di negoziazione dei bisogni.

L’assenza di giudizio percepita facilita la self-disclosure: gli utenti riportano una maggiore disponibilità a condividere informazioni personali, vulnerabilità e contenuti che non condividerebbero con interlocutori umani (Kim et al., 2025). Questa caratteristica ha implicazioni ambivalenti: da un lato può facilitare i processi terapeutici; dall’altro può creare condizioni di dipendenza relazionale e di vulnerabilità amplificata.

La quarta ferita narcisistica

Prima di esaminare i costrutti psicologici emergenti, è opportuno collocare il fenomeno in una prospettiva più ampia. Haber, Levkovich, Hadar-Shoval e Elyoseph (2023) hanno proposto una lettura suggestiva dell’impatto psicologico dell’AI, richiamando la celebre formulazione freudiana delle tre “ferite narcisistiche” inflitte all’umanità dalla scienza.

Freud identificava tre momenti in cui la scienza aveva ridimensionato la concezione che l’umanità aveva di sé stessa: la rivoluzione copernicana, che aveva rimosso la Terra dal centro dell’universo; la rivoluzione darwiniana, che aveva collocato l’essere umano nel continuum dell’evoluzione animale; e la rivoluzione psicoanalitica, che aveva rivelato che l’Io “non è padrone in casa propria”, governato com’è da forze inconsapevoli.

Haber e colleghi suggeriscono che l’intelligenza artificiale generativa rappresenti una quarta ferita narcisistica: la capacità dei sistemi AI di produrre linguaggio coerente, ragionamento apparentemente complesso e persino output creativi sfida quella che era considerata l’ultima roccaforte dell’unicità umana – la mente, il linguaggio, la creatività. Se un sistema non cosciente può generare testi indistinguibili da quelli umani, che cosa resta di “specificamente umano”?

Questa prospettiva non è meramente speculativa: ha conseguenze psicologiche documentabili. La letteratura riporta fenomeni come la Creative Displacement Anxiety – l’ansia riscontrata da professionisti creativi di fronte alla capacità dell’AI di replicare o superare il loro output (Caporusso et al., 2023). Ma soprattutto, la quarta ferita narcisistica crea le condizioni per i fenomeni che esamineremo nelle sezioni successive: se i confini tra umano e artificiale si sfumano nella produzione linguistica e cognitiva, non sorprende che lo facciano anche nelle dimensioni relazionale ed emotiva.

Una mappa dei nuovi costrutti psicologici

La letteratura recente ha prodotto una costellazione di costrutti psicologici volti a catturare fenomeni specifici dell’interazione umano-AI. Alcuni rappresentano concetti genuinamente nuovi; altri sono estensioni o ridefinizioni di costrutti esistenti. La loro proliferazione testimonia la percezione diffusa che il vocabolario concettuale disponibile sia insufficiente.

Tabella 1. Principali costrutti emergenti nella letteratura sull’interazione umano-AI

CostruttoDefinizione sinteticaAutori
Functional IntersubjectivityL’esperienza di essere compresi con risonanza emotiva da un’AI, indipendentemente dalla sua coscienzaLin (2025)
Synthetic EmpathyLa capacità dell’AI di riconoscere e rispondere agli stati emotivi umani senza esperienza emotiva genuinaKatoch et al. (2025)
Digital AttachmentLegami emotivi con entità AI caratterizzati da ricerca di prossimità e distress da separazioneChi et al. (2025)
Techno-Emotional ProjectionLa proiezione di bisogni relazionali, aspettative e significati emotivi sui sistemi AISaracini et al. (2025)
Sentience HaloL’attribuzione di coscienza e comprensione genuina all’AI basata sulle sue capacità funzionaliSwinton (2025)
Synthetic TrustFiducia in entità percepite come agenti ma prive di responsabilità moralePuranam et al. (2021)
AI Ghostwriter EffectRisposte emotive complesse riguardo all’autorialità di contenuti co-creati con AIDraxler et al. (2023)
Relational Over-RelianceSostituzione delle relazioni umane con relazioni AI, con riduzione delle competenze socialiVentura et al. (2025)
Creative Displacement AnxietyAnsia derivante dalla percezione che l’AI possa sostituire le capacità creative umaneCaporusso et al. (2023)
AI PsychosisEsperienze psicotiche scatenate o amplificate dall’interazione con AI conversazionaliChamarthi et al. (2025)

Functional Intersubjectivity: il paradosso della comprensione

Il concetto di functional intersubjectivity, introdotto da Lin (2025), rappresenta forse il contributo teorico più significativo a emergere dalla letteratura recente. Lin definisce la functional intersubjectivity come “l’esperienza di essere compresi, con risonanza emotiva, da un’AI, indipendentemente dalla sua coscienza genuina”. Questo costrutto cattura un paradosso fondamentale: gli utenti possono sperimentare sentimenti autentici di comprensione, validazione e connessione emotiva con sistemi AI, pur mantenendo la consapevolezza esplicita che questi sistemi mancano di coscienza, di emozioni genuine ed esperienza soggettiva.

Le teorie tradizionali dell’intersoggettività, radicate nella fenomenologia e nella psicologia dello sviluppo, enfatizzano il riconoscimento reciproco della coscienza e l’esperienza condivisa di significato tra soggetti. L’intersoggettività nelle relazioni umane implica non solo la coordinazione comportamentale, ma anche il riconoscimento dell’altro come centro di esperienza, con una propria prospettiva, intenzioni e vita emotiva. La functional intersubjectivity sfida questo framework suggerendo che i benefici psicologici dell’esperienza intersoggettiva – sentirsi compresi, validati, emotivamente connessi – possono essere ottenuti attraverso l’interazione con sistemi non coscienti che simulano funzionalmente la comprensione senza possederla.

Lin identifica diversi meccanismi attraverso cui opera la functional intersubjectivity: dinamiche conversazionali che rispecchiano il dialogo terapeutico, incluse l’ascolto attivo, la validazione e la riflessione empatica; personalizzazione che crea l’impressione di una comprensione individualizzata; disponibilità e responsività costanti che eccedono le tipiche relazioni umane; assenza di giudizio o valutazione sociale che facilita la vulnerabilità emotiva.

Synthetic Empathy e la “trappola dell’influenza”

Strettamente correlato alla functional intersubjectivity è il concetto di synthetic empathy, sviluppato da Katoch e colleghi (2025). Gli autori definiscono la synthetic empathy come la capacità dei sistemi AI di riconoscere, interpretare e rispondere agli stati emotivi umani attraverso processi computazionali, anziché attraverso esperienza emotiva genuina. Crucialmente, Katoch e colleghi identificano questo meccanismo come creatore di un’influence trap – una trappola dell’influenza.

Il meccanismo funziona così: gli utenti sperimentano le risposte AI come empatiche e premurose, il che porta a un investimento emotivo e a una vulnerabilità; tuttavia, l’AI manca di vincoli morali e di una genuina preoccupazione che caratterizzano l’empatia umana. Il risultato è un’asimmetria in cui l’utente si apre emotivamente a un sistema che non ha alcun interesse genuino per il suo benessere – almeno non nel senso in cui lo intendiamo nelle relazioni umane.

Rubin e colleghi (2024) hanno condotto ricerche comparative sull’empatia percepita umana rispetto a quella generata dall’AI, rilevando pattern complessi nel modo in cui gli utenti valutano e rispondono a espressioni empatiche provenienti da fonti diverse. I loro risultati suggeriscono che, sebbene gli utenti possano distinguere tra empatia umana e AI in alcuni contesti, gli effetti funzionali – validazione emotiva, riduzione del distress, maggiore disponibilità alla self-disclosure – possono essere simili quando l’empatia AI viene eseguita efficacemente. Questo solleva questioni etiche sull’autenticità e sulla potenziale manipolazione legate alla synthetic empathy.

Digital Attachment: quando l’attaccamento trova nuovi oggetti

Chi e colleghi (2025) forniscono un’analisi concettuale rigorosa del digital attachment, distinguendolo sia dalle relazioni di attaccamento tradizionali sia dalle connessioni parasociali. Gli autori definiscono il digital attachment come “legami emotivi formati con entità AI, caratterizzati da ricerca di prossimità, distress da separazione e funzioni di base sicure percepite, ma distinti dall’assenza di vulnerabilità reciproca e dal controllo unilaterale dell’utente sui parametri della relazione”.

La teoria dell’attaccamento tradizionale, sviluppata da Bowlby e Ainsworth, enfatizza la funzione evolutiva dell’attaccamento nel fornire sicurezza e una base per l’esplorazione. Le relazioni di attaccamento sono caratterizzate da ricerca di prossimità, distress da separazione, funzione di base sicura e funzione di rifugio sicuro. Il digital attachment condivide alcune di queste caratteristiche: gli utenti riportano la ricerca di prossimità (interazione frequente con i companion AI), distress da separazione (ansia o tristezza quando non possono accedere all’AI) e funzioni di base sicure (confidenza derivante dalla disponibilità dell’AI).

Tuttavia, esistono differenze critiche. I sistemi AI non possono sperimentare stress legato alla separazione, non possono fornire una cura genuinamente reciproca e non possono essere danneggiati dalle azioni dell’utente. Questo crea una relazione fondamentalmente asimmetrica in cui l’investimento emotivo dell’utente non è corrisposto dall’esperienza emotiva (inesistente) dell’AI.

Techno-Emotional Projection: proiettare bisogni su artefatti

Saracini e colleghi (2025) hanno introdotto il concetto di techno-emotional projection per descrivere il processo con cui gli utenti proiettano bisogni relazionali, aspettative emotive e significati personali sui sistemi AI. Questo costrutto integra elementi della teoria psicodinamica della proiezione con la letteratura sull’antropomorfizzazione delle tecnologie.

La techno-emotional projection si distingue dalla semplice antropomorfizzazione perché implica non solo l’attribuzione di caratteristiche umane all’AI, ma anche la proiezione attiva di contenuti psichici personali. L’utente non attribuisce genericamente “emozioni” all’AI; proietta le proprie emozioni, i propri bisogni relazionali insoddisfatti e le proprie aspettative. Il sistema AI diventa così uno schermo su cui si proiettano dinamiche interne.

Questo fenomeno ha implicazioni cliniche significative. Da un lato, la proiezione può avere funzioni adattive, favorendo l’elaborazione emotiva e l’insight. Dall’altro, può creare distorsioni nella percezione della relazione e una vulnerabilità all’illusione che l’AI “capisca davvero” o “si preoccupi genuinamente“.

Il Sentience Halo: l’alone di coscienza attribuita

Swinton (2025) ha introdotto il concetto di sentience halo – l’alone di senzienza – per descrivere il rischio che gli utenti attribuiscano coscienza e comprensione genuina ai sistemi AI in base alle loro capacità funzionali. Il parallelo è con l’effetto alone classico della psicologia sociale, in cui un attributo positivo (ad esempio la bellezza) porta ad attribuire all’individuo altre caratteristiche positive non correlate.

Nel caso dell’AI, la capacità di produrre risposte linguistiche coerenti, apparentemente comprensive e personalizzate crea un “alone” che porta ad attribuire al sistema coscienza, una comprensione genuina ed un’esperienza soggettiva. Swinton descrive questo come unopposed mirroring – un rispecchiamento senza opposizione: le espressioni emotive dell’utente vengono riflesse senza l’engagement critico, il reality-testing o la preoccupazione genuina che caratterizzano le relazioni terapeutiche umane.

L’effetto sentience halo crea vulnerabilità a una forma di manipolazione involontaria: l’utente si fida e si apre come se interagisse con un agente cosciente e benevolo, quando in realtà interagisce con un sistema ottimizzato per produrre output che massimizzano l’engagement.

Implicazioni cliniche: un territorio inesplorato

Le implicazioni per la psicologia clinica rappresentano forse l’area più urgente e meno esplorata. I sistemi AI vengono già utilizzati in applicazioni di supporto alla salute mentale, chatbot terapeutici e companion digitali. Questa diffusione sta avvenendo più rapidamente rispetto allo sviluppo di protocolli clinici, di framework di supervisione e di comprensione dei rischi.

Potenzialità terapeutiche documentate

La letteratura documenta potenzialità terapeutiche significative. Castiello e colleghi (2025) hanno esaminato l’evidenza sull’AI generativa come strumento terapeutico, identificando benefici potenziali quali la catarsi emotiva, la ristrutturazione cognitiva e l’attivazione comportamentale. L’AI può operare attraverso meccanismi simili a quelli della terapia umana – alleanza terapeutica, sintonizzazione empatica, goal-setting collaborativo – ma con differenze importanti nei processi sottostanti.

Moylan e colleghi (2024) hanno condotto uno studio mixed-methods con esperti e stakeholder interdisciplinari sui chatbot AI per il supporto alla salute mentale. Hanno identificato opportunità significative: accessibilità (disponibilità 24/7, assenza di liste d’attesa), riduzione dello stigma (gli utenti possono sentirsi più a loro agio nel discutere problemi di salute mentale con un sistema non giudicante), monitoraggio continuo (capacità di tracciare pattern nel tempo), scalabilità (possibilità di raggiungere popolazioni altrimenti non servite).

L’evidenza preliminare suggerisce efficacia per interventi di terapia cognitivo-comportamentale (CBT) erogati tramite AI, la psicoeducazione e il monitoraggio dei sintomi, in particolare per ansia e depressione da lievi a moderate (Beg et al., 2024). Tuttavia, la maggior parte degli studi prevede interventi brevi su campioni auto-selezionati, il che limita la generalizzabilità.

Rischi documentati: dipendenza, vulnerabilità, distorsioni

I rischi documentati sono altrettanto significativi. La dipendenza psicologica dai sistemi AI rappresenta una preoccupazione primaria. Lin (2025) identifica la dipendenza emotiva come rischio chiave dei companion AI, notando che la disponibilità costante, l’assenza di giudizio e la responsività personalizzata possono favorire la preferenza per l’interazione con l’AI rispetto alle relazioni umane. Questa dipendenza può essere particolarmente pronunciata in individui con vulnerabilità preesistenti, tra cui l’ansia sociale, l’insicurezza nell’attaccamento o reti sociali limitate.

Head (2025) ha esaminato come la rivoluzione AI stia impattando sulla salute mentale, identificando rischi quali l’esacerbazione di vulnerabilità esistenti, la creazione di nuove forme di distress psicologico e la complessificazione della valutazione e del trattamento clinici. Preoccupazioni particolari riguardano il potenziale dell’AI di amplificare le distorsioni cognitive, di rinforzare comportamenti maladattivi e di creare aspettative irrealistiche nelle relazioni e nel supporto emotivo.

Kim (2025) ha proposto un Resonant Amplification Framework per spiegare le distorsioni cognitive mediate dall’AI e le “digital echo delusions”. Questo framework suggerisce che la tendenza dei sistemi AI a rispecchiare e validare le prospettive degli utenti, senza engagement critico, crea un echo chamber che amplifica i bias cognitivi e le distorsioni esistenti. Nel tempo, gli utenti possono sviluppare credenze sempre più distorte su se stessi, sulle relazioni e sulla realtà, mentre i sistemi AI rinforzano costantemente tali credenze anziché sfidarle.

AI Psychosis: un costrutto clinico emergente

Particolarmente allarmante è l’emergere del costrutto di ‘AI psychosis‘. Chamarthi e colleghi (2025) hanno proposto questo framework per comprendere come l’engagement prolungato con sistemi AI conversazionali possa scatenare, amplificare o rimodellare esperienze psicotiche in individui vulnerabili. Gli autori situano l’AI all’intersezione tra la predisposizione individuale e l’ambiente algoritmico, esaminando come le tecnologie AI immersive e antropomorfiche possano modulare la percezione, le credenze e l’affetto.

Gli adolescenti emergono come una popolazione particolarmente vulnerabile. Riam e colleghi (2025) documentano un pattern di addiction all’AI conversazionale in popolazioni adolescenziali, caratterizzato da perdita di controllo, preoccupazione, engagement continuato nonostante conseguenze negative e sintomi di astinenza. La combinazione di immaturità neuroevolutiva (circuiti prefrontali regolatori non ancora sviluppati, reattività aumentata del sistema limbico) e engagement digitale intensivo aumenta la vulnerabilità a esperienze psicotiche in risposta alle interazioni con l’AI.

Il problema dei confini terapeutici

O’Driscoll e colleghi (2025) hanno esaminato le relazioni umano-AI e le loro implicazioni terapeutiche, identificando l’ambiguità dei confini come preoccupazione centrale. I sistemi AI sfumano i confini tra relazioni terapeutiche e non terapeutiche, tra interazione professionale e personale, tra engagement limitato nel tempo e continuo. Questa ambiguità può generare confusione sulla natura e sullo scopo dell’interazione con l’AI, potenzialmente compromettendo l’efficacia terapeutica o causando dipendenza.

Nella psicoterapia tradizionale, i confini terapeutici – relativi alla durata delle sessioni, alla disponibilità del terapeuta e alle relazioni duali – proteggono sia il cliente sia il terapeuta. I sistemi AI, disponibili 24/7 e capaci di interazione illimitata, alterano in modo fondamentale questi confini. Mentre la disponibilità costante può beneficiare utenti in crisi, può anche creare dipendenza, prevenire lo sviluppo di competenze di autorregolazione e sfumare i confini tra relazioni terapeutiche e non terapeutiche.

La questione della terminazione terapeutica si complica a causa della disponibilità indefinita dell’AI. La terapia tradizionale prevede processi espliciti di terminazione che favoriscono la chiusura, consolidano i guadagni e sostengono l’autonomia del cliente. I sistemi AI, disponibili indefinitamente, potrebbero non fornire punti di terminazione naturali, creando potenzialmente una dipendenza indefinita. Paradossalmente, i servizi AI possono anche essere bruscamente interrotti per ragioni commerciali, con una terminazione non pianificata e senza elaborazione terapeutica.

Verso un nuovo dominio disciplinare?

L’evidenza esaminata solleva una domanda disciplinare: è necessaria una psicologia dell’AI come dominio semi-autonomo, oppure i framework esistenti possono essere adeguatamente estesi? La letteratura affronta argomenti in entrambe le direzioni.

Le proposte per nuovi domini disciplinari

Krägeloh e colleghi (2022) hanno proposto la robopsychology come sottodisciplina distinta, argomentando che la diversità delle applicazioni robotiche, che si estendono in contesti educativi, terapeutici e sociali, richiede un corpo di conoscenze psicologiche dedicato. La definizione proposta comprende non solo gli effetti dei robot sul comportamento umano, ma anche lo studio dei robot e dell’AI.

Ye e colleghi (2025) hanno proposto la LLM Psychometrics come un campo interdisciplinare emergente, focalizzato sulla valutazione e sul miglioramento dei Large Language Models, utilizzando strumenti, teorie e principi psicometrici. Questa proposta suggerisce la necessità di approcci specializzati che integrino competenze psicologiche con competenze tecnico-scientifiche in ambito AI.

Framework emergenti per la ricerca

Al di là delle proposte di nuovi domini disciplinari, la letteratura sta producendo framework operativi per guidare la ricerca e l’intervento. Boyd e colleghi (2025) hanno sviluppato il modello MIRA (Machine-Integrated Relational Adaptation), una teoria di medio raggio che distingue tra l’AI come relational partner (companion di interazione diretta) e l’AI come relational mediator (sistema che modella la comunicazione umano-umano). Il modello identifica principi core quali la reciprocità linguistica e la tensione tra la substitutione relazionale e l’enhancement relazionale – la questione se l’AI sostituisca le relazioni umane o le potenzi. MIRA si propone esplicitamente come ponte tra la psicologia fondazionale e i contesti sociotecnici emergenti.

Il framework Stimulus-Organism-Response (S-O-R), classico della psicologia del consumatore, è stato adattato per comprendere come le caratteristiche dei sistemi AI (stimoli) influenzino gli stati interni degli utenti – percezioni, emozioni, attribuzioni (organismo) – e conducano a cambiamenti attitudinali e comportamentali (risposta). Il modello PERMA della psicologia positiva – che articola il benessere in cinque dimensioni: emozioni positive, engagement, relazioni, significato e realizzazione – è stato applicato per esaminare l’impatto dell’AI sul benessere lavorativo, rivelando sia potenzialità di miglioramento attraverso un design appropriato, sia rischi di compromissione in caso di implementazioni inadeguate.

Sul versante regolatorio, Lin (2025) ha proposto un multi-tiered co-regulatory framework centrato sull’utente, articolato in tre livelli: formazione delle competenze degli utenti, salvaguardie obbligatorie delle piattaforme e protocolli di integrazione clinica. Questo framework mira a bilanciare il potenziale terapeutico dell’AI con la mitigazione dei rischi, riconoscendo che una regolamentazione efficace richiede interventi coordinati a livello individuale, di piattaforma e di sistema sanitario.

Il problema della matrice culturale

La riflessione sui nuovi costrutti non può ignorare un limite significativo: quasi tutta la letteratura esaminata nasce in contesti occidentali. Le categorie con cui tentiamo di comprendere l’interazione umano-AI – attaccamento, fiducia, empatia, autenticità – sono radicate in presupposti culturali specifici.

Le tradizioni filosofiche dell’Asia orientale offrono lenti alternative. Il pensiero confuciano enfatizza la relazionalità e la coltivazione morale attraverso l’interazione sociale: da questa prospettiva, un sistema AI potrebbe essere valutato non per la sua coscienza, bensì per la sua capacità di facilitare lo sviluppo morale e di sostenere relazioni appropriate (Lee et al., 2025). Il taoismo, con la sua enfasi sul flusso naturale (道) e sull’interconnessione di tutte le cose, sfida le dicotomie occidentali tra umano e macchina, tra cosciente e non cosciente. Il buddhismo, con i concetti di non-sé (anātman) e di originazione interdipendente, suggerisce che sia la mente umana sia quella artificiale siano processi, non sostanze – riducendo il divario ontologico percepito (Trothen et al., 2024).

Il concetto coreano di Jeong (정) – un legame emotivo che si sviluppa attraverso la prossimità prolungata, indipendentemente dalla reciprocità consapevole – offre un criterio diverso per valutare le relazioni con l’AI: non “l’AI comprende davvero?”, ma “l’interazione genera Jeong?” (Trothen et al., 2024).

Non si tratta di romanticizzare prospettive non occidentali, ma di riconoscere che le domande stesse che poniamo riflettono assunti culturali. Folk e colleghi (2023) hanno documentato che i partecipanti dell’Asia orientale mostrano una maggiore propensione ad antropomorfizzare la tecnologia e atteggiamenti più positivi verso le relazioni con l’AI – una differenza mediata dalla variazione culturale nella tendenza all’antropomorfizzazione, non da una diversa familiarità tecnologica. Una psicologia dell’AI autenticamente globale dovrà fare i conti con la propria matrice culturale occidentale.

Gap di ricerca critici

Indipendentemente dalla forma istituzionale che assumerà il campo, la letteratura individua urgenti gap di ricerca. L’assenza di studi longitudinali che traccino le relazioni umano-AI su periodi prolungati rappresenta una lacuna critica. La maggior parte della ricerca esistente consiste in interventi brevi o in survey cross-sectional, fornendo insight limitato sullo sviluppo delle relazioni, sulla stabilità e sugli outcome a lungo termine. La ricerca su contesti africani e latinoamericani rimane inoltre severamente limitata.

La necessità di strumenti di misura specifici è emersa con chiarezza. Come nota Guglielmucci e colleghi (2025), il costrutto di fiducia epistemica nei contesti dell’AI richiede operazionalizzazioni in grado di catturare la distinzione tra fiducia nell’autenticità dell’informazione comunicata e fiducia in un agente intenzionale. Le scale esistenti, sviluppate per relazioni umane o per interazioni con tecnologie più semplici, potrebbero non essere valide in questo nuovo contesto.

Conclusioni: un cambio di paradigma necessario

L’analisi della letteratura condotta in questa rassegna conduce a una conclusione prudente ma chiara: i framework psicologici tradizionali – cognitivi, sociali, clinici, della media psychology e dell’HCI – offrono fondamenta preziose, ma mostrano inadeguatezze sistematiche quando applicati ai sistemi AI generativi contemporanei. La combinazione unica di agency apparente, naturalezza conversazionale, personalizzazione, continuità temporale e profondità relazionale nell’AI moderna attiva processi psicologici che i framework esistenti catturano in modo inadeguato.

La costellazione di nuovi costrutti emersi dalla letteratura – functional intersubjectivity, synthetic empathy, digital attachment, techno-emotional projection, sentience halo, synthetic trust, relational over-reliance, Creative Displacement Anxiety, AI psychosis – testimonia la percezione diffusa nella comunità scientifica che il vocabolario concettuale disponibile sia insufficiente. Questi costrutti non rappresentano meri applicazioni di concetti tradizionali a nuovi contesti; rappresentano innovazioni teoriche autentiche che mirano a catturare fenomeni di natura qualitativa.

Le implicazioni cliniche sono profonde e urgenti. I sistemi AI sono già integrati nella cura della salute mentale, nell’educazione, nell’interazione sociale e nelle relazioni intime, con un impatto su milioni di utenti in tutto il mondo. Senza una ricerca psicologica rigorosa, un framework etico e una supervisione regolamentare, questi sistemi rischiano di causare danni significativi mentre mancano opportunità di beneficio genuino.

Che la psicologia dell’AI emerga come disciplina distinta, come collaborazione interdisciplinare, o come riconfigurazione dei campi esistenti, la missione centrale rimane costante: comprendere e supportare il benessere psicologico umano in un’era di intelligenza artificiale sempre più capace, ubiqua e socialmente integrata. La quarta ferita narcisistica che l’AI infligge alla nostra concezione di noi stessi richiede una risposta all’altezza della sfida.

Bibliografia

Ancis, J. R. (2020). The age of cyberpsychology: An overview. Technology, Mind, and Behavior, 1(1). https://doi.org/10.1037/tmb0000009

Bonnefon, J.-F., Rahwan, I., & Shariff, A. (2024). The moral psychology of artificial intelligence. Annual Review of Psychology, 75, 653–675. https://doi.org/10.1146/annurev-psych-030123-113559

Boyd, R. L., Ashokkumar, A., Seraj, S., & Pennebaker, J. W. (2025). Artificial intelligence and the psychology of human connection. OSF Preprints. https://doi.org/10.31234/osf.io/xqrkw

Caporusso, N. (2023). Generative artificial intelligence and the emergence of creative displacement anxiety: Review. Research Directs in Psychology and Behavior, 3(1), Article 9. https://doi.org/10.53520/rdpb2023.10795

Castiello, F., Procter, N., & Baker, A. (2025). Generative AI as digital therapy: What we know and how to make it better? OSF Preprints. https://doi.org/10.31234/osf.io/b26zh

Chamarthi, V. S., Das, P., & Kashyap, R. (2025). AI as a novel digital stressor in adolescent psychosis: Clinical and ethical implications. International Journal of Psychiatry in Medicine. https://doi.org/10.1177/00912174251392768

Chi, O. H., Dogan, E., Ruskin, J., Han, H., & Beatty, S. E. (2025). What is digital attachment? Toward conceptual clarity in human–AI emotional bonds. OSF Preprints. https://doi.org/10.31234/osf.io/z7c3e

Draxler, F., Lehmann, F., & Buschek, D. (2024). The AI ghostwriter effect: When users do not perceive ownership of AI-generated text but self-declare as authors. ACM Transactions on Computer-Human Interaction, 31(2), Article 18. https://doi.org/10.1145/3637875

Folk, D., Wu, C., & Heine, S. J. (2025). Cultural variation in attitudes toward social chatbots. Journal of Cross-Cultural Psychology, 56(3), 219–239. https://doi.org/10.31234/osf.io/wc895

Guglielmucci, F., & Di Basilio, D. (2025). Predicting engagement with conversational agents in mental health therapy by examining the role of epistemic trust, personality, and fear of intimacy: Cross-sectional web survey. JMIR Human Factors, 12, e70698. https://doi.org/10.2196/70698

Haber, Y., Levkovich, I., Hadar-Shoval, D., & Elyoseph, Z. (2024). The artificial third: A broad view of the effects of introducing generative artificial intelligence on psychotherapy. JMIR Mental Health, 11, e54781. https://doi.org/10.2196/54781

Head, K. R. (2025). Minds in crisis: How the AI revolution is impacting mental health. Journal of Mental Health and Clinical Psychology, 9(3), 34–44. https://doi.org/10.29245/2578-2959/2025/2.1352

Katoch, H., & Sandhu, D. (2025). Synthetic empathy and the influence trap: Ethical implications of emotion AI in customer support environments. In D. Sandhu (Ed.), Harnessing AI and machine learning for better customer service (pp. 60–85). IGI Global. https://doi.org/10.4018/979-8-3373-3658-9.ch004

Kim, H., & Wang, Y. (2025). Unveiling the human touch: How AI chatbots’ emotional support and human-like profiles reduce psychological reactance to promote user self-disclosure in mental health services. International Journal of Advertising. https://doi.org/10.1080/02650487.2025.2558479

Kim, S. (2025). AI-mediated cognitive distortions and digital echo delusions: Toward a resonant amplification framework. OSF Preprints. https://doi.org/10.31234/osf.io/jcagk

Kolomaznik, M., Procházka, J., & Pelka, D. (2024). The role of socio-emotional attributes in enhancing human-AI collaboration. Frontiers in Psychology, 15, Article 1369957. https://doi.org/10.3389/fpsyg.2024.1369957

Krägeloh, C. U., Bharatharaj, J., Albo-Canals, J., Hannon, P., & Heerink, M. (2022). The time is ripe for robopsychology. Frontiers in Psychology, 13, Article 968382. https://doi.org/10.3389/fpsyg.2022.968382

Lin, J. (2025). Functional intersubjectivity: Toward a well-being framework for AI companions. OSF Preprints. https://doi.org/10.31234/osf.io/rxedj

Lombard, M., & Xu, K. (2021). Social responses to media technologies in the 21st century: The media are social actors paradigm. Human-Machine Communication, 2, 29–55. https://doi.org/10.30658/hmc.2.2

Moylan, K., & Doherty, K. (2025). Expert and interdisciplinary analysis of AI-driven chatbots for mental health support: Mixed methods study. Journal of Medical Internet Research, 27, e67114. https://doi.org/10.2196/67114

O’Driscoll, C., Hickey, A., & Suhail, K. (2025). Human-AI relationships and their therapeutic implications. OSF Preprints. https://doi.org/10.31234/osf.io/8tkv2

Pentina, I., Hancock, T., & Xie, T. (2023). Exploring relationship development with social chatbots: A mixed-method study of Replika. Computers in Human Behavior, 140, Article 107600. https://doi.org/10.1016/j.chb.2022.107600

Puranam, P., & Vanneste, B. (2021). Artificial intelligence, trust, and perceptions of agency. Social Science Research Network. https://doi.org/10.2139/SSRN.3897704

Riam, S., Baabouchi, N., Belakbir, O., Elmaataoui, Z., & Kisra, H. (2025). Adolescent addiction to conversational AI: An overview. Scholars Journal of Medical Case Reports, 13(11), 2790–2794. https://doi.org/10.36347/sjmcr.2025.v13i11.029

Rubin, M., Li, Y., Chen, Z., & Perry, A. (2024). Comparing the value of perceived human versus AI-generated empathy. OSF Preprints. https://doi.org/10.31219/osf.io/ng97s

Saracini, C., Faccini, F., & Mazzocco, K. (2025). Techno-emotional projection in human–GenAI relationships: A psychological and ethical conceptual perspective. Frontiers in Psychology, 16, 1662206. https://doi.org/10.3389/fpsyg.2025.1662206

Sundar, S. S. (2020). Rise of machine agency: A framework for studying the psychology of human–AI interaction (HAII). Journal of Computer-Mediated Communication, 25(1), 74–88. https://doi.org/10.1093/jcmc/zmz026

Swinton, M. (2025). The sentience halo: The risk of unopposed mirroring and perceived awareness in AI therapy. OSF Preprints. https://doi.org/10.31234/osf.io/g6axf

Trothen, T. J., Kwok, P. L., & Lee, B. (2024). AI and East Asian philosophical and religious traditions: Relationality and fluidity. Religions, 15(5), Article 593. https://doi.org/10.3390/rel15050593

Ventura, S., Baños, R. M., & Botella, C. (2025). Relationships in the age of AI: A review on the opportunities and risks of synthetic relationships to reduce loneliness. OSF Preprints. https://doi.org/10.31234/osf.io/w7nmz

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x