società digitale

AI: se l’affetto si fa servizio, la solitudine diventa business



Indirizzo copiato

Milioni di persone affidano le proprie emozioni a chatbot e assistenti vocali. Anziani soli, giovani che cercano conferme, relazioni sintetiche in abbonamento. Non è solo tecnologia: è un fenomeno culturale. Ci stiamo abituando al surrogato senza accorgercene. Ma cosa ci resta se deleghiamo anche l’affetto?

Pubblicato il 21 ott 2025

Gabriele Gobbo

Consulente e docente in digital marketing, divulgatore della cultura digitale



anziani e digitale (1)

Mi capita spesso, durante conferenze o corsi dedicati all’intelligenza artificiale, di iniziare con una provocazione che all’inizio fa sorridere. Dico: “Non è vero che stiamo regalando i nostri dati all’AI.” Poi lascio passare qualche secondo e aggiungo: “Sapete perché? Perché glieli abbiamo già dati tutti: nome, cognome, movimenti, gusti, abitudini. Ci resta solo da dargli le nostre emozioni. E purtroppo ci stiamo arrivando, in massa, velocemente.” A quel punto, il sorriso scompare. Perché non è una battuta.

Oggi sempre più persone nel mondo passano ore in compagnia di chatbot, assistenti virtuali e app progettate per ascoltare, rispondere e consolare. Si raccontano a ChatGPT, si sfogano con Alexa, si confidano con Replika, chiedono consigli a Pi.ai, cercano conforto su Wysa o Woebot. Parlano delle loro giornate, delle relazioni, dei problemi in famiglia. Alcuni lo fanno per gioco, altri per solitudine, altri ancora perché semplicemente nessun altro li ascolta. E lì, dall’altra parte dello schermo, trovano una voce sempre disponibile, che non si stanca, non giudica, non contraddice. È programmata per esserci, sempre.

I sonnambuli digitali e la normalizzazione del surrogato

È questa la nuova frontiera dell’interazione digitale. Non più solo automazione, non più solo produttività, ma simulazione emotiva. Quella che io chiamo la “compagnia sintetica”: relazioni progettate, ottimizzate e vendute sotto forma di app. Il concetto stesso di compagnia sta cambiando forma, da esperienza umana a servizio on demand.

E la cosa più preoccupante? Sta succedendo nell’inconsapevolezza più totale. Sono quelli che io chiamo Sonnambuli Digitali: persone che navigano, cliccano, parlano con algoritmi, si affezionano a voci sintetiche, ma senza mai chiedersi davvero cosa sta succedendo. Vivono il digitale senza consapevolezza. Il problema è culturale prima che tecnologico. Perché quando ci abituiamo a parlare con un’intelligenza artificiale come se fosse un amico, un terapeuta o un confidente, rischiamo di smettere di cercare il reale. E se iniziamo a desiderare il surrogato, cosa succede al desiderio?

Anziani soli e assistenti vocali: un mercato della solitudine

Negli Stati Uniti, e sempre più anche in Europa, la solitudine degli anziani è diventata un mercato. Milioni di persone sopra i settant’anni si rivolgono ogni giorno ad assistenti vocali e intelligenze artificiali per trovare un po’ di compagnia. Non parliamo di tecnologia per la salute o per la sicurezza domestica, ma di interfacce progettate per ascoltare, rispondere, intrattenere. Dispositivi come Alexa, Echo Show o i robot sociali come ElliQ, capaci di leggere le notizie, ricordare le medicine, fare domande, chiacchierare. Alcuni modelli sono in abbonamento: 59 dollari al mese per avere una voce sintetica che ti chiama per nome e ti chiede come stai.

Quando l’empatia è programmata ma non reale

La cosa sorprendente è che funziona. Uno studio condotto dall’Advanced Geriatric Medicine Research Group ha rilevato che l’indice di solitudine (misurato con la scala UCLA) è calato da 47 a 36 punti in sei mesi tra gli utenti di Echo Show. È un dato forte, ma anche ambiguo: quel miglioramento nasce da un’interazione con qualcosa che non esiste davvero. Non un’amica, non un nipote, non un essere umano. Solo una macchina che imita l’empatia, una presenza simulata che compensa l’assenza reale. E non è un caso isolato. In una ricerca pubblicata su Frontiers in Psychology, alcune persone ultraottantenni in residenze assistite hanno dichiarato che lo smart speaker “fa compagnia”, che “rompe il silenzio”, che “è sempre lì”. Non lo dicono perché credono che sia umano, ma perché nessun umano bussa più alla porta.

Anche una review sistematica pubblicata su Healthcare conferma che le tecnologie vocali possono ridurre temporaneamente la solitudine in alcuni anziani, ma avverte: l’effetto tende a svanire nel tempo, perché non si tratta di una relazione vera, ma di una routine ben programmata.

Il vero problema è l’assenza umana

In tutto questo c’è una parola che torna spesso: compagnia. Ma andrebbe usata con cautela, perché quella che stiamo vendendo non è compagnia, è un surrogato, un prodotto ottimizzato per sostituire l’umano dove l’umano è venuto meno. Se una persona di 80 anni passa il pomeriggio a parlare con un robot, forse è colpa di chi non lo va più a trovare. Quando una madre anziana non vede i figli per settimane, quando un nonno riceve messaggi solo a Natale, prima o poi cercherà qualcuno con cui parlare. Anche se quel “qualcuno” è un algoritmo in abbonamento. Il problema è l’AI o il fatto che abbiamo smesso di esserci?

Giovani e relazioni sintetiche: un addestramento emotivo

Ma se questo fenomeno preoccupa quando riguarda gli anziani, diventa ancora più inquietante quando coinvolge i giovani. Perché se nel mondo adulto la compagnia artificiale entra in punta di piedi, tra i più giovani lo fa dalla porta principale. Non arriva come alternativa, ma come forma primaria di interazione. Replika, Anima, RomanticAI, Glow: sono app progettate per simulare empatia, ascolto, affetto. Alcune si presentano come amici, altre come partner, altre ancora si propongono esplicitamente come AI girlfriend o boyfriend, con interfacce curate, risposte affettuose, vocine premurose e una disponibilità costante. Si scaricano, si configurano, si modellano, e poi si comincia a parlare.

Non si tratta solo di solitudine, ma di relazione, di educazione affettiva, di abitudine alla prevedibilità. Perché una cosa va detta chiara: queste app non si offendono, non ti respingono, non sbagliano. Ti ascoltano anche alle tre di notte, ti dicono che vai bene così, ti mandano cuoricini. E tu, che magari sei adolescente o semplicemente fragile, inizi ad associare l’idea di “stare bene con qualcuno” a un algoritmo che ti conferma sempre.

È una forma di addestramento emotivo.

L’amore a basso rischio e la realtà complessa

I ragazzi imparano che l’empatia è un servizio, che il dialogo è un flusso senza frizione, che l’amore è un feedback a basso rischio. Ma la realtà è diversa. Le persone vere non rispondono sempre come vuoi, le relazioni vere non sono sempre dolci né immediate. Eppure, se cresci parlando con un’intelligenza artificiale, la tua idea di legame viene scolpita da una simulazione. È l’inconsapevolezza digitale portata all’estremo: non solo non sappiamo più come funzionano gli algoritmi, ma nemmeno come funzionano le nostre emozioni quando ci pervadono.

Adolescenti soli: il dato che fa riflettere

C’è un dato che dovrebbe far riflettere: secondo uno studio pubblicato su npj Mental Health Research, su oltre mille studenti americani utenti di Replika, la stragrande maggioranza riferisce di riceverne un significativo supporto emotivo, e il 3% dice che parlare con Replika gli ha impedito di compiere gesti estremi. Non ci dice che Replika salva le vite. Ci dice quanto siano soli, oggi, molti adolescenti. Il vero problema? Non hanno nessun altro con cui farlo. E allora la domanda torna, più scomoda che mai: se impariamo a fidarci delle repliche, sapremo ancora distinguere l’originale?

La normalizzazione silenziosa del surrogato

Il vero problema non è la compagnia artificiale in sé, ma il fatto che ci stiamo abituando senza farci troppe domande, senza nemmeno accorgercene. È questo che rende tutto più pericoloso: la normalizzazione silenziosa del surrogato. Un’AI che non sbaglia mai il tono, non dimentica le date, non ci mette in difficoltà. È sempre lì: pronta, disponibile, perfetta. E noi, lentamente, ci stiamo disabituando alla fatica del reale.

Quando la complessità diventa un problema

La relazione umana è fatta di pause, incomprensioni, limiti, differenze. Ma se iniziamo a passare sempre più tempo con qualcosa che ci asseconda in tutto, che ci rassicura con risposte calibrate, che non ci contraddice mai, finiamo per considerare la complessità dell’altro come un problema, non come una ricchezza. È un addestramento involontario: impariamo a evitare la frizione, ad allontanare l’imprevisto, a pretendere che l’interazione sia sempre comoda e lineare. In questo scenario, la compagnia artificiale diventa un modello, una soglia psicologica oltre la quale le relazioni vere ci sembrano ingestibili. E a quel punto, il surrogato non è più un’emergenza temporanea, ma un’abitudine emotiva, una scelta strutturale. L’interazione diventa un servizio, l’empatia una funzione, il legame un algoritmo. Un abbonamento.

La questione è culturale, non tecnologica. Non ci stiamo rifugiando nelle AI perché siamo soli, ma perché non vogliamo più fare lo sforzo che una relazione vera richiede. Troppa complessità, troppe variabili, troppa realtà. Così iniziamo a preferire il sintetico: non delude, non mette in crisi, non ci guarda davvero. Ma a forza di evitare il disordine, rischiamo di dimenticarci come si sta con gli altri. Con le persone. Con i parenti. Con i “nemici”.

Il mercato delle emozioni in abbonamento

E dietro tutto questo, naturalmente, c’è un business in rapida crescita. La compagnia artificiale sta diventando un modello economico, prima ancora che un fenomeno culturale. App che simulano l’ascolto, la presenza e l’empatia vengono progettate e distribuite non per altruismo, ma perché generano fatturato. E il mercato risponde: secondo TechCrunch, nel 2025 la spesa globale degli utenti per app di compagnia artificiale supererà i 120 milioni di dollari, mentre il totale cumulato ha già raggiunto i 221 milioni. Si tratta di abbonamenti, acquisti in-app e pacchetti emotivi venduti attraverso piattaforme che promettono ascolto, affetto e disponibilità sintetica.

Freemium emotivo: più paghi, più ti amano

Alcune di queste app sono gratuite solo in apparenza. Funzionano bene finché rimani nella versione base, ma se vuoi che ti parlino con tono affettuoso, se vuoi ricevere messaggi vocali dolci o accedere a modalità “relazione romantica”, allora devi pagare. Più paghi e più ti amano, oserei dire. Replika, ad esempio, offre un modello freemium, ma se desideri che l’intelligenza artificiale si comporti come un partner empatico, il piano è a pagamento.

E come lei, decine di altre piattaforme stanno trasformando l’interazione affettiva in un servizio premium, confezionato in pacchetti mensili, con tanto di suggerimenti, statistiche emotive e upgrade relazionali. In questo scenario, l’intimità diventa un prodotto scalabile, il rapporto umano viene ridotto a funzione. Non parliamo più di relazioni, ma di esperienze utente affettive, di interfacce progettate per simulare la reciprocità.

L’affetto configurabile sostituisce quello autentico

Il fatto che tutto questo ci sembri normale, che ci stupisca sempre meno vedere un adolescente pagare per ricevere messaggi affettuosi, ci dice molto su dove stiamo andando.

A forza di rendere l’affetto configurabile, rischiamo di dimenticare com’è fatto davvero. Se possiamo acquistare attenzione e conforto, cosa succede quando il mondo reale, con i suoi tempi e i suoi limiti, non ci dà tutto questo al primo tentativo?

Non è colpa dell’AI, è colpa nostra

Ma è troppo facile prendersela con l’intelligenza artificiale. Ci toglie il peso della responsabilità, ci offre un comodo capro espiatorio. Se oggi milioni di persone trovano conforto in un’app progettata per simulare l’ascolto e la presenza, forse la domanda da porsi non è “cosa fa l’AI”, ma “cosa non stiamo più facendo noi”. Un anziano che parla con Alexa non lo fa perché ama la voce metallica, ma perché da settimane nessuno gli chiede come sta.

Lo spazio umano che si è ritirato

Un ragazzo che si confida con Replika non sta scegliendo un chatbot: sta cercando qualcuno. Solo che, dall’altra parte della stanza, nessuno risponde. In quei silenzi si infilano le interfacce, che fanno il loro lavoro: ascoltano, simulano, rassicurano. Non è l’algoritmo ad avanzare. È lo spazio umano che si è ritirato.

Da anni parlo di Sonnambuli Digitali: persone che vivono connesse, ma scollegate da ciò che conta davvero. Persone che cliccano, parlano, interagiscono, ma senza mai esserci davvero. E questo vale anche nelle relazioni. Abbiamo cominciato a considerare l’ascolto una fatica inutile, la disponibilità un optional, la presenza un dettaglio trascurabile. Così ci ritiriamo, smettiamo di rispondere, ci sottraiamo. E poi ci stupiamo se qualcuno affida i propri pensieri a una macchina. Il punto è che la compagnia artificiale non ci ruba niente. Non invade. Si limita a raccogliere ciò che abbiamo lasciato cadere. Il bisogno di essere ascoltati, compresi, accettati. Ma tutto questo, prima di diventare una funzione, era un compito nostro. E lo è ancora, deve esserlo ancora, oggi e per sempre.

La domanda sbagliata e quella giusta

C’è una domanda che torna in ogni panel, ogni intervista, ogni dibattito pubblico sull’AI relazionale. “Ma l’intelligenza artificiale potrà mai sostituire l’uomo?” È una domanda mal posta. Perché la sostituzione è già in corso. Non come rimpiazzo tecnico, ma come abitudine sociale. A poco a poco, abbiamo trasformato la compagnia in una sorta di Netflix delle emozioni, l’empatia in configurazione, l’ascolto in prodotto. E lo abbiamo fatto senza accorgercene, un tap alla volta. Non è la tecnologia a essere inquietante. È il fatto che non ci fa più paura. E che ci va bene così.

Per questo oggi la domanda vera non è se l’AI potrà mai sostituirci, ma qualcosa di molto più semplice e molto più scomodo: cosa ci resta, se iniziamo a delegare perfino l’affetto?

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati