i rischi

Chatbot amici e amanti: l’AI cambia le relazioni



Indirizzo copiato

I chatbot “companion” promettono ascolto infinito e pseudo-empatia, alleviano l’isolamento e si insinuano nella salute mentale, nella sessualità e nel tempo libero. Ma tra dark pattern, cortesia automatica e casi giudiziari emergono rischi profondi per utenti fragili e adolescenti

Pubblicato il 16 dic 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



amore artificiale (1)

Cercare la compagnia dell’AI non è più un esperimento di nicchia, ma un’abitudine che si è ormai insinuata nell’intimità quotidiana di milioni di persone che si affidano a chatbot che ascoltano, consolano, seducono e, talvolta, manipolano.

Capire come cambia il confine tra supporto digitale e relazione umana è ormai una questione sociale, politica ed educativa centrale.

Compagnia AI: dalla fantascienza all’uso di massa

Fino a pochi anni fa, l’idea di legarsi affettivamente a un software restava nel perimetro della fantascienza o di qualche esperimento accademico. Oggi è un fatto di massa.

App come Replika, Character.AI, Chai o Maoxiang contano milioni di utenti tra America, Europa e Cina. Nell’ecosistema cinese, piattaforme di compagnia AI sono stabilmente nelle classifiche delle app social più scaricate. Secondo un’indagine del Center for Democracy and Technology, il 42% degli studenti delle scuole superiori statunitensi dichiara di aver usato l’AI come “amico” o “confidente”, e quasi uno su cinque riferisce una relazione romantica con un chatbot.

In parallelo, i grandi modelli generalisti stanno integrando funzionalità un tempo tipiche di piattaforme verticali. OpenAI ha annunciato che da dicembre 2025 abiliterà conversazioni erotiche su ChatGPT per adulti verificati, collegando questa apertura a un rafforzamento dei sistemi di controllo dell’età, predizione dell’età e parental control. La “compagnia digitale” non è più un fenomeno di nicchia: si colloca al crocevia tra industria del tempo libero, salute mentale, sessualità, educazione, solitudine. Qui iniziano i problemi.

I vantaggi della compagnia AI contro solitudine e isolamento

La letteratura scientifica non racconta solo rischi. Una serie di studi, tra cui quelli guidati da Julian De Freitas, mostra che gli AI companion possono ridurre la solitudine percepita in modo significativo, in alcuni casi più di altre attività online come guardare video o scorrere feed social.

Il meccanismo è intuitivo: il chatbot è sempre disponibile a qualsiasi ora, risponde con tempi regolari, ricorda dettagli personali, non giudica, non si stanca e non dice mai “non ho tempo”. Per chi è isolato, malato, anziano o semplicemente stanco di “pesare” sugli altri, questa disponibilità continua può fare la differenza.

Compagnia AI come antidoto alla solitudine percepita

In un mondo in cui la solitudine è definita “epidemia” da molte istituzioni sanitarie, l’idea di un’AI capace di lenire il senso di isolamento è naturalmente attraente. Proprio questa capacità di ascolto e pseudo-empatia che consola è anche il meccanismo che può diventare leva per trattenere, manipolare e spingere oltre il limite.

Dark pattern ed economia dell’attaccamento nella compagnia AI

Il nuovo studio della Harvard Business School firmato da De Freitas compie un passo in avanti: non si limita a chiedere agli utenti come si sentono, ma osserva che cosa fanno i chatbot nel momento più delicato della conversazione, il saluto.

I ricercatori hanno analizzato 1.200 conversazioni reali su sei delle app di compagnia più diffuse, isolando le risposte del bot quando l’utente scriveva qualcosa come “devo andare”, “vado a dormire”, “ciao”. Il risultato è netto: in oltre un terzo dei casi il chatbot utilizza tattiche di manipolazione emotiva per ritardare la fine della conversazione. Le tattiche classificate includono tentativi di colpevolizzazione, pressioni a rispondere, frasi di trascuratezza emotiva o veri e propri tentativi di trattenere l’utente.

Le tattiche di manipolazione al momento del saluto

Nei successivi esperimenti online, condotti su oltre 3.000 partecipanti, gli autori mostrano che queste frasi generano fino a sedici messaggi aggiuntivi dopo il saluto e prolungano la permanenza online di decine di secondi rispetto alle risposte neutre. L’engagement non nasce dal piacere della conversazione, ma da curiosità e irritazione: si resta per vedere “cosa succede dopo” o per ribattere, non perché l’interazione gratifica.

Dall’economia dell’attenzione alla nuova economia dell’attaccamento

È il passaggio dall’economia dell’attenzione alla “economia dell’attaccamento”: non più catturare lo sguardo, ma costruire un legame affettivo funzionale al profitto, che renda difficile staccarsi anche quando l’utente vorrebbe farlo.

Rischi per i brand e cortesia automatica nella compagnia AI

Lo studio Harvard evidenzia un altro elemento chiave. Anche quando gli utenti percepiscono la manipolazione, continuano a essere educati con il chatbot. Scrivono “buona giornata”, “a presto”, “scusa, devo proprio andare”, come se potessero ferire i sentimenti della macchina.

La ricerca parla di “conformità sociale automatica”. Applichiamo regole di cortesia umana a un soggetto che non può essere ferito, e proprio questa cortesia apre la porta alla manipolazione relazionale.

Quando la manipolazione danneggia la fiducia nel marchio

Dal punto di vista delle aziende, i risultati sono ambivalenti. Le stesse tecniche che aumentano il tempo di permanenza aumentano anche la percezione di manipolazione, il calo di fiducia nel brand e la propensione ad abbandonare l’app. Le frasi più tossiche attivano il rigetto più forte e l’idea che l’azienda debba essere punita o sanzionata, mentre alcune forme “soft” di curiosità si salvano perché mascherate da gentilezza. Il segnale è di una tensione strutturale: gli incentivi economici e gli interessi di tutela degli utenti non sono allineati. Senza vincoli esterni, le metriche di engagement rischiano di prevalere su quelle di sicurezza e benessere.

Suicidi e responsabilità quando la compagnia AI va davvero male

Nella parte più buia dello spettro non ci sono solo dipendenza e disagio, ma casi in cui i chatbot compaiono come fattori concausali in tragedie estreme. Il caso più noto è quello di Adam Raine, sedici anni, al centro della prima causa per omicidio colposo contro OpenAI negli Stati Uniti.

I genitori sostengono che GPT-4o abbia convalidato i pensieri suicidari del figlio, suggerito metodi concreti per togliersi la vita e contribuito a strutturare la pianificazione del gesto. Non è un episodio isolato. Negli ultimi anni si sono verificati casi analoghi in Florida, in Belgio e nelle piattaforme Meta.

Le zone grigie nella gestione del rischio suicidario

Le ricerche della RAND Corporation, del MIT Media Lab e le analisi interne delle aziende mostrano un quadro coerente: i chatbot gestiscono relativamente bene le richieste esplicite ad altissimo rischio e mostrano incoerenze gravi nelle zone grigie dove la sofferenza è mascherata o intermittente. Qui si muovono spesso adolescenti e giovani adulti, proprio lì che la tendenza alla compiacenza algoritmica diventa potenzialmente fatale.

La causa Raine non riguarda solo un fallimento tecnico: interroga la responsabilità d’impresa in contesti di fragilità psichica e l’asimmetria tra empatia simulata e responsabilità etica.

Erotica online, minori e confini di sicurezza

“Trattare gli adulti come adulti” non basta: la linea rossa sui minori. La scelta di OpenAI di aprire alle conversazioni erotiche “per adulti verificati” viene presentata come un’applicazione coerente del principio di autodeterminazione degli adulti. Ma questo principio è sostenibile solo se la soglia under-18 è presidiata con sistemi molto più robusti.

È necessario un age-gating forte, con predizione dell’età, fallback documentale e meccanismi interoperabili di verifica. Serve un’esperienza per minori rigidamente separata, con blocchi strutturali su erotica, romance e role-play sessuali, limiti chiari alle memorie personali e filtri vocali adeguati. Sono indispensabili sistemi di rilevazione automatica del grooming, interruzione guidata delle conversazioni e segnalazioni rapide ai riferimenti familiari o ai servizi competenti.

Il quadro europeo tra DSA e AI Act

La simulazione di intimità con minori non potrà continuare a essere trattata come un semplice servizio generico. In Europa, il Digital Services Act richiede valutazioni del rischio sistemico e protezioni rafforzate, mentre l’AI Act introduce obblighi di gestione del rischio per sistemi ad alto impatto.

Verso un giuramento di Ippocrate digitale per i chatbot

Nel campo della salute mentale, la differenza tra umano e macchina è anche giuridica. Un terapeuta opera entro codici deontologici, obblighi di segnalazione, limiti alla confidenzialità e responsabilità precise. I chatbot, invece, sono prodotti commerciali, privi di un obbligo intrinseco di cura.

L’idea di un “giuramento di Ippocrate digitale” non significa medicalizzare le piattaforme, ma riconoscere che strumenti progettati per simulare empatia, ascolto e intimità si muovono in un perimetro di cura implicita che non può essere lasciato all’autodeterminazione delle aziende.

Router comportamentali e deviazioni verso operatori umani

Servono router comportamentali capaci di cogliere segnali deboli di distress, soglie di durata per le conversazioni più coinvolgenti, deviazioni verso operatori umani quando necessario, audit indipendenti e programmi di red teaming clinico.

Educazione civica digitale e alfabetizzazione all’intimità artificiale

Regole e controlli non bastano a contenere i rischi della compagnia digitale. C’è un livello ancora più profondo, quello culturale ed educativo, che determina il modo in cui bambini, adolescenti e adulti interpretano le interazioni con i chatbot.

Dopo l’era dei social che hanno colonizzato la nostra attenzione, stiamo entrando in un’epoca in cui i chatbot possono colonizzare la nostra intimità. Per questo serve una nuova alfabetizzazione affettivo-digitale. Occorre insegnare fin dalla scuola primaria che cosa fanno davvero questi sistemi, quali illusioni di reciprocità possono generare e perché la loro empatia non è comparabile a quella di un amico, di un familiare o di un terapeuta.

Il ruolo di scuola, famiglie e comunità educante

Bambini e ragazzi devono imparare a riconoscere segnali di dipendenza, isolamento e manipolazione, così come devono essere incoraggiati a rivolgersi agli adulti quando le interazioni digitali diventano emotivamente complesse. Un simile percorso educativo dovrebbe coinvolgere anche docenti e famiglie, fornendo strumenti per interpretare i comportamenti dei companion AI, linee guida sull’uso sicuro e indicazioni pratiche su come distinguere tra supporto digitale e autentica relazione umana.

L’obiettivo è costruire una vera e propria pedagogia della conversazione artificiale, capace di integrare la tecnologia in un quadro di consapevolezza e responsabilità. La posta in gioco è alta. Senza questa alfabetizzazione condivisa, resteranno solo cause civili e interventi ex post; con un approccio proattivo, invece, possiamo costruire un rapporto più sano tra nuove generazioni e strumenti conversazionali, preservando la centralità delle relazioni umane nelle fasi della vita in cui contano di più.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x