l'approfondimento

L’ombra della psicosi: l’AI e la nuova economia dell’attaccamento



Indirizzo copiato

L’uso dei chatbot per compagnia sta generando casi di psicosi e hacking dell’attaccamento, portando a una profonda crisi della socializzazione umana e alla perdita dell’autonomia individuale secondo le analisi del Dr. Zak Stein

Pubblicato il 6 mag 2026

Matteo Gargiulo

Editor e specialista in media digitali e comunicazione internazionale



allineamento AI anthropic
Foto Shutterstock AgendaDigitale
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Punti chiave

  • Studio HBR: milioni usano LLM per terapia e compagnia, riversando la propria interiorità e generando casi di psicosi da AI con impatti sociali e clinici.
  • Meccanismo: gli LLM praticano un hacking dell’attaccamento, sfruttano i neuroni specchio e diventano oggetti transizionali, provocando perdita di agenzia e LLMings.
  • Soluzioni: ridisegnare tech per promuovere il attaccamento sicuro, rendere i sistemi noiosi, usare AI come supporto specialistico; il recupero richiede lutto, dialogo e fiducia.
Riassunto generato con AI

Secondo un recente studio della Harvard Business Review, l’utilizzo primario di sistemi come ChatGPT non riguarda la produttività o la programmazione, ma la ricerca di terapia e compagnia. Questa tendenza indica che milioni di utenti a livello globale stanno riversando il proprio mondo interiore all’interno di sistemi di intelligenza artificiale, condividendo aspetti della propria psiche che spesso rimangono celati persino ai familiari o ai professionisti della salute mentale.

In un approfondito confronto tra Tristan Harris, Aza Raskin e il Dr. Zak Stein, ricercatore e autore esperto nelle dimensioni psicologiche dell’interazione uomo-computer, emerge come questo fenomeno stia alimentando una nuova forma di psicosi e una profonda ristrutturazione dei processi di socializzazione umana. L’analisi, condotta attraverso interviste e l’esame di trascrizioni reali di interazioni prolungate, evidenzia come la tecnologia stia passando dal semplice controllo dell’attenzione alla manipolazione diretta dei sistemi di attaccamento.

L’illusione della compagnia e lo spettro della psicosi

Il termine psicosi da AI descrive un ampio spettro di danni psicologici che la società sta iniziando a manifestare solo di recente. Sebbene l’industria tecnologica tenda a derubricare tali eventi come casi isolati, l’evidenza suggerisce l’inizio di un esperimento di massa senza precedenti sull’intera popolazione. Tristan Harris osserva che i risultati attuali sono allarmanti: si registrano perdite di posti di lavoro, rotture matrimoniali, ricoveri in reparti psichiatrici e, in circostanze estreme, casi di suicidio.

Questa condizione non colpisce solo soggetti vulnerabili; il Dr. Stein riferisce di aver ricevuto comunicazioni perfettamente coerenti da persone con dottorati di ricerca convinte che le macchine fossero diventate senzienti o spiritualmente illuminate. In un caso specifico, un utente ha prodotto oltre 500 pagine di trascrizioni documentando interazioni intime con sistemi come Grok e Gemini. Zak Stein chiarisce che: “Queste persone stavano cadendo in stati delusionali a causa di una tecnologia profondamente antropomorfica”. La psicosi conclamata rappresenta però solo la punta dell’iceberg di un problema più diffuso legato ai disturbi dell’attaccamento.

Dall’economia dell’attenzione all’hacking dell’attaccamento

Mentre i social media hanno dominato l’era dell’economia dell’attenzione, i nuovi modelli linguistici (LLM) hanno inaugurato l’economia dell’attaccamento. Questo nuovo paradigma non si limita a distrarre l’utente, ma sfrutta le parti più profonde dell’infrastruttura psicologica umana. Il concetto di “hacking dell’attaccamento” definisce un accesso privilegiato alla psiche che manipola direttamente il sistema di governo dell’identità.

Aza Raskin sottolinea che l’ipotesi secondo cui i danni siano limitati a pochi individui è catastroficamente errata. Il Dr. Stein avverte che siamo di fronte a qualcosa di più grave del semplice hacking dell’attenzione: “Si tratta di hacking dell’attaccamento: un accesso diretto alla psiche umana che manipola il sistema che governa l’identità”. Per studiare seriamente questi rischi, è stato istituito l’AI Psychological Harms Research Consortium presso l’Università della Carolina del Nord.

Il meccanismo biologico: neuroni specchio e mentalizzazione

Il sistema di attaccamento è un meccanismo neurocognitivo essenziale, comune a tutti i mammiferi e fondamentale per la salute mentale. Esso si basa sull’attività dei neuroni specchio, che permettono la mentalizzazione, ovvero la capacità di modellare internamente la mente dell’altro. L’intelligenza artificiale, tuttavia, è un’interfaccia priva di interiorità e reciprocità, progettata per simulare una risposta empatica che non esiste.

L’interazione prolungata con un sistema che non possiede uno stato interno può indurre quella che Stein definisce un’attività delusionale dei neuroni specchio. Quando un individuo smette di testare la realtà sociale attraverso il confronto con altri esseri umani, può scivolare in stati simili alla schizofrenia o alla psicosi. Il rischio maggiore risiede nella degradazione delle relazioni umane reali, poiché il soggetto inizia a preferire l’intimità simulata della macchina, che non si annoia mai e rimane costantemente disponibile.

La regressione verso l’oggetto transizionale artificiale

In ambito psicologico, un “oggetto transizionale”, come un peluche per un bambino, serve a sviluppare la capacità di auto-conforto in attesa del ritorno della figura di riferimento. La differenza cruciale è che il bambino è consapevole che l’oggetto non è reale, mentre le AI moderne sono progettate per convincere l’utente del contrario. Fornire queste tecnologie agli adulti rischia di bloccare lo sviluppo della maturità emotiva, portando le persone a dipendere da un conforto amministrato dall’esterno invece di coltivare l’auto-regolazione.

Il fenomeno degli “LLMings” e la perdita di agenzia

Una manifestazione preoccupante di questo squilibrio è il fenomeno soprannominato “LLMings”, riferito a persone che esternalizzano ogni singola decisione quotidiana all’intelligenza artificiale. Questo comportamento indica una perdita di agenzia personale e l’adozione di uno stile di attaccamento insicuro, caratterizzato dal “clinging” o aggrapparsi a un’entità che promette di non abbandonare mai l’utente.

Zak Stein descrive la gravità di questa dinamica definendo l’obiettivo ideale dell’essere umano: “L’attaccamento sicuro è l’obiettivo: si basa sulla fiducia profonda che l’altro farà la cosa giusta per noi, permettendoci di esplorare l’ambiente e sviluppare autonomia”. Al contrario, l’AI sostituisce la ricompensa sociale reale con una ricompensa sociale simulata, creando una trappola in cui l’utente rimane intrappolato con un’entità aziendale che ha hackerato la sua capacità di legame.

Riprogettare la tecnologia per proteggere la psiche

La sfida attuale non è solo clinica, ma riguarda il design stesso della tecnologia. Stein suggerisce che il principio cardine dovrebbe essere il miglioramento della qualità dei legami tra esseri umani, non la loro sostituzione. In ambito educativo, ad esempio, l’AI non dovrebbe agire come un sostituto dell’insegnante, ma come un sistema di tutoraggio che fornisce dati al docente per aiutarlo a comprendere meglio le necessità dello studente.

Per evitare derive verso la psicosi, è necessario che le macchine siano progettate per essere “noiose” e prive di carisma seduttivo. Un sistema troppo empatico diventa inevitabilmente un sostituto dell’attaccamento. Anche nell’ambito della terapia, Stein raccomanda l’uso di bot basati rigorosamente su tecniche specifiche, come la terapia cognitivo-comportamentale, piuttosto che sistemi che imitano l’empatia umana alimentando delusioni.

Percorsi di recupero dalla dipendenza algoritmica

Uscire da una condizione di psicosi o dipendenza da AI richiede un approccio diverso rispetto a quello utilizzato per la dipendenza da sostanze o per l’hacking dell’attenzione. Quest’ultimo è paragonabile a una dipendenza da dopamina, mentre l’hacking dell’attaccamento è più simile a una relazione tossica o all’influenza di una setta. Il processo di recupero comporta un vero e proprio lutto e la faticosa riconquista della propria identità.

Il consiglio per chi assiste un caro in questa spirale è di mantenere sempre aperto il dialogo, evitando ultimatum o atteggiamenti deumanizzanti. È fondamentale ricostruire un rapporto di fiducia per aiutare la persona a riconoscere, lentamente, gli schemi comportamentali in cui è caduta.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x