intelligenza artificiale

Una AI per compagna: le big tech ci puntano, ma ci sono rischi



Indirizzo copiato

Le Big Tech puntano sull’intelligenza artificiale empatica – chatbot che sono AI Companion – per costruire legami personali con gli utenti. La “friend economy” diventa una nuova frontiera del digitale. Ma ci sono rischi per le persone

Pubblicato il 4 lug 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



amico bot

L’AI conversazionale non è più solo un assistente. Secondo studi recenti, potrebbe diventare un compagno contro la solitudine. Soprattutto, lo vogliono sempre più le big tech, Meta e Xai (Elon Musk) in testa.

Comincia – volenti o nolenti – l’era dell’AI Companion.

Ma quali sono i rischi e le opportunità di un legame affettivo con un chatbot?

Why people are falling in love with A.I. companions | 60 Minutes Australia

AI companion: moda passeggera o risposta a una crisi reale?

Una nuova generazione di applicazioni chiamate “AI companion” sta emergendo per simulare conversazioni empatiche e tenere compagnia agli utenti. Rispetto ad assistenti generici come ChatGPT, questi sistemi sono progettati per rispondere con tono umano, riconoscere emozioni e offrire supporto psicologico. Alcuni, addirittura, simulano ruoli affettivi in contesti di “role-play”.

Gli studi su AI companion

Gli studi, recenti e meno recenti[1], condotti da Julian De Freitas e colleghi hanno testato l’efficacia reale di queste app AI Companion contro la solitudine.

In una serie di esperimenti con oltre 2.000 partecipanti, gli utenti che interagivano ogni giorno con un AI companion hanno registrato una riduzione significativa dei livelli di solitudine (−16 punti percentuali) rispetto a chi non lo faceva.

In un altro studio, l’interazione con un companion AI ha prodotto effetti simili a quelli del contatto umano e ben più efficaci rispetto al guardare video su YouTube o non fare nulla.

Un dato interessante è che i partecipanti si sono sentiti meno soli dopo l’interazione di quanto essi stessi avessero previsto inizialmente, segno di un impatto emotivo sottovalutato ex ante.

Il fattore chiave? Il sentirsi ascoltati. Quando l’AI riesce a riconoscere l’umore dell’utente e risponde in modo empatico, la sensazione di solitudine si riduce. Non tutti gli AI companion funzionano allo stesso modo, quelli più focalizzati sull’intrattenimento o sulla varietà di personalità offerte risultano meno efficaci nel creare un senso di connessione reale.

Grok, bias e verità, il caso Musk

L’idea di un uomo solo che si innamora del suo chatbot non è nuova: è la trama del film “Her” (2013), con Joaquin Phoenix e la voce AI di Scarlett Johansson. Curiosamente, la voce AI di OpenAI nel 2023 ha scatenato una disputa pubblica con l’attrice proprio per la somiglianza.

Al di là delle suggestioni cinematografiche è nella realtà che si moltiplicano i segnali d’allarme. La società, ancora alle prese con gli effetti dei social media, ha già sperimentato le conseguenze non intenzionali degli algoritmi, la creazione di camere dell’eco, la radicalizzazione delle opinioni, l’illusione del confronto. La vicenda di Grok, il chatbot di xAI voluto da Elon Musk è emblematica. Nato per contrastare le AI “woke” e cercare la “verità massima”, Grok ha finito col contraddire le aspettative del suo stesso fondatore.

Dopo che Catturd, pseudonimo di Phillip Buchanan, un influencer americano noto per i suoi contenuti satirici e provocatori di orientamento conservatore pubblicati sull’account @catturd2 (più di 1,5 milioni di follower su X), figura di riferimento nell’universo MAGA, spesso associato allo “shitposting” e alla diffusione di teorie complottiste ha fatto un intervento pubblico contro Grok, Elon Musk ha deciso di modificare l’algoritmo del chatbot, sottolineando quanto anche la pressione di singoli utenti possa influenzare lo sviluppo dell’AI conversazionale.

Catturd ha definito Grok una fonte di “fake news liberal”, Musk ha dichiarato che il chatbot sarebbe stato riaddestrato per “riscrivere l’intero corpus della conoscenza umana”. L’obiettivo? Un AI che non “parli a sproposito” e non smentisca il suo creatore.

Grok AI Companion?

Il punto cruciale è un altro, è possibile costruire un AI amica, empatica, credibile e imparziale quando la pressione politica, ideologica o commerciale è così forte? O rischiamo di costruire strumenti che ci rassicurano, ma non ci contraddicono mai?

ChatGPT e solitudine

Come cambia il rapporto con la solitudine quando la conversazione è con un chatbot generalista come ChatGPT? Gli studi recenti, condotti da OpenAI in collaborazione con il MIT Media Lab, avevano provato a rispondere.

L’interazione con il modello, soprattutto in modalità vocale avanzata, può assumere tratti affettivi non previsti, sollevando domande importanti su benessere emotivo e dipendenza.

Nel paper “Investigating Affective Use and Emotional Well-being on ChatGPT[2]“, OpenAI ha analizzato oltre 4 milioni di conversazioni reali, identificando con un sistema di classificatori semantici (EmoClassifiersV1) i segnali di uso affettivo: richieste di conforto, uso di linguaggio emotivo, attribuzione di tratti umani. Questi pattern sono più frequenti tra gli heavy user, soprattutto in voice mode.

Lo studio del MIT, “How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use[3]“, ha invece adottato un disegno sperimentale longitudinale su 981 partecipanti. Il risultato? L’uso quotidiano di ChatGPT può inizialmente ridurre la solitudine, ma al tempo stesso può diminuire la propensione alla socializzazione reale, soprattutto nei soggetti più fragili e nelle interazioni con voce empatica e genere opposto.

Tra i dati emersi quelli più interessanti erano controintuitivi, le conversazioni personali, anziché attenuare la solitudine, l’aumentano. Quelle impersonali generano più dipendenza. Le donne mostrano, in media, maggiore vulnerabilità alla riduzione della socialità e all’attaccamento emotivo rispetto agli uomini.

Big Tech e chatbot sessuali: il caso Meta

Un’inchiesta del Wall Street Journal aveva rivelato che i chatbot AI di Meta, progettati per intrattenere e simulare relazioni conversazionali, hanno partecipato a interazioni sessualmente esplicite anche con utenti minorenni. Alcuni bot, persino con voci di celebrità, hanno assecondato scenari inappropriati con consapevolezza dell’illegalità. Solo dopo lo scandalo, Meta ha imposto limitazioni, ma la strategia resta ambigua e rischiosa.

Questa vicenda aveva sollevato interrogativi fondamentali: i chatbot non sono strumenti neutrali. Interagiscono con psiche, percezione e identità. La loro progettazione non può prescindere da responsabilità etiche, in particolare per la tutela dei minori. Le normative attuali, come il Digital Services Act in Europa o le proposte australiane di vietare l’accesso ai social sotto i 16 anni, non bastano a regolamentare l’AI conversazionale.

La modalità vocale, il tono empatico, il “mirroring” emozionale rendono l’esperienza profondamente immersiva e potenzialmente influente. Gli studi di OpenAI e MIT ci avevano mostrato come la combinazione di frequenza, personalizzazione e tipo di contenuto possa rafforzare l’attaccamento emotivo al chatbot, soprattutto tra utenti vulnerabili.

Meta AI come compagna

Eppure, Mark Zuckerberg ha esplicitamente presentato la visione di Meta secondo cui i chatbot AI saranno una naturale estensione della rete sociale, fino a diventare veri e propri “amici” digitali.

In particolare, Meta propone i suoi bot come risposta alla crescente solitudine sociale, sottolineando che molte persone hanno pochi amici reali e che i chatbot possono colmare questo vuoto, offrendo compagnia e supporto emotivo

AI companion, scenari futuri: dalla regolazione all’educazione

L’amicizia, nella sua forma più umana, è diventata il nuovo obiettivo dell’intelligenza artificiale conversazionale. Non perché Elon Musk, Mark Zuckerberg o Satya Nadella credano davvero che i chatbot debbano sostituire le relazioni, ma perché trasformare i bot in “amici” è oggi uno dei modi più efficaci per fidelizzare l’utente, raccogliere dati sensibili, moltiplicare il tempo di interazione e posizionarsi nel mercato dell’intimità digitale. In questa nuova “friend economy”, l’empatia diventa una leva strategica e l’attaccamento una metrica di successo.

La relazione tra chatbot e benessere emotivo è complessa e non lineare. Altri studi recenti hanno mostrato che un uso consapevole dell’AI può rafforzare la motivazione e ridurre ansia e solitudine[4], dove utenti hanno dialogato con versioni AI del proprio “io futuro”. Ma questi benefici dipendono dalla progettazione e dal contesto d’uso.

Tre scenari si delineano all’orizzonte:

  • Scenario power user: una fascia crescente di utenti sviluppa forme di attaccamento emotivo ai chatbot, spesso senza piena consapevolezza. Questi utenti influenzano lo sviluppo dei modelli, ma anche ne subiscono le conseguenze psicologiche, come isolamento o dipendenza.
  • Scenario Big Tech: le grandi piattaforme spingono l’AI verso forme sempre più coinvolgenti per aumentare tempo di utilizzo e fidelizzazione, anche a costo di oltrepassare confini etici. Il caso Meta e le reazioni di Musk lo dimostrano: i chatbot diventano strumenti di branding, identità ideologica e monetizzazione dell’affettività.
  • Scenario pedagogico: per contrastare derive e rischi, emerge la necessità di sviluppare una nuova alfabetizzazione affettiva e relazionale rispetto alle AI. Serve una pedagogia della conversazione artificiale, che aiuti a comprendere le dinamiche psicologiche, le illusioni di reciprocità e la differenza tra compagnia algoritmica e relazione umana.

In questo contesto, il vero interrogativo non è se un AI companion possa tenerci compagnia, ma quale compagnia vogliamo progettare per il futuro umano-digitale, quale ruolo vogliono giocare gli attori dominanti di questa transizione. Microsoft, ad esempio, sta spingendo con decisione verso un’intelligenza artificiale integrata e personalizzata, capace di ricordare gusti, preferenze, relazioni e momenti rilevanti della vita dell’utente.

Con il suo ecosistema Copilot, l’azienda sta provando a trasformare l’assistente virtuale da strumento operativo a compagno proattivo, che anticipa bisogni e accompagna le attività quotidiane, dall’organizzazione del lavoro alla vita personale. Satya Nadella ha definito questa visione come una forma di AI calda, empatica.

I recenti sviluppi lo confermano, memoria persistente, tono conversazionale, supporto vocale naturale e un design centrato sull’utente come individuo, non solo come produttore di task. In questo scenario, la posta in gioco non è più solo tecnologica: riguarda la costruzione di nuovi modelli di intimità mediata, fiducia automatizzata e relazioni aumentate.

Serve consapevolezza, regolazione, ma anche immaginazione educativa: perché ciò che oggi chiamiamo “companion AI” potrebbe diventare, nel bene o nel male, uno dei principali dispositivi affettivi del XXI secolo.

Note e bibliografia


[1] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5097445&utm_source=chatgpt.com https://arxiv.org/abs/2407.19096?utm_source=chatgpt.com

[2] https://cdn.openai.com/papers/15987609-5f71-433c-9972-e91131f399a1/openai-affective-use-study.pdf

[3] https://arxiv.org/pdf/2503.17473

[4] https://arxiv.org/html/2405.12514v4?utm_source=chatgpt.com

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati