Nel corso del 2025, si è registrata una significativa trasformazione nell’utilizzo dell’intelligenza artificiale generativa (IAG), testimoniando il passaggio da un impiego prevalentemente tecnico e professionale a un’integrazione profonda nella sfera personale e relazionale degli individui.
Indice degli argomenti
Dall’assistenza alla riflessione: gli usi personali e relazionali dell’IA generativa
Come evidenziato da Zao-Sanders (2025) in un report pubblicato su Harvard Business Review, l’analisi delle discussioni su piattaforme come Reddit e Quora mostra una crescente inclinazione verso l’uso dell’IAG per scopi legati al benessere emotivo, alla socialità e alla realizzazione personale. La diffusione di strumenti come i “Custom GPTs”, adattabili a esigenze individuali, ha favorito questo cambiamento culturale.
La rivoluzione degli usi personali ed emotivi dell’IAG si manifesta in una nuova gerarchia di casi d’uso, con la “Terapia e compagnia” in cima, seguita dall’organizzazione della vita personale e dalla ricerca di significato esistenziale. Questo orientamento segna un passaggio tematico cruciale: la categoria “Personal and Professional Support” ha superato quella della “Technical Assistance”.
Tra le applicazioni reali emergenti, si possono citare l’utilizzo di ChatGPT come tutor personalizzato nell’apprendimento di discipline complesse come la data analysis, il coding o le lingue straniere. In questo ambito, l’IAG supporta gli utenti nella comprensione progressiva dei concetti, adattando il ritmo e il linguaggio all’esperienza dell’utente, e facilitando esercitazioni personalizzate e feedback immediati.
Un ulteriore campo di diffusione riguarda la pianificazione alimentare personalizzata: numerosi utenti dichiarano di utilizzare l’IAG per generare diete settimanali equilibrate in base a obiettivi calorici, intolleranze, preferenze culturali o regimi specifici (ad es. dieta chetogenica o vegana). Similmente, nella preparazione di viaggi, i modelli generativi sono in grado di offrire suggerimenti basati su vincoli di budget, interessi culturali e logistica, generando programmi dettagliati giorno per giorno, completi di riferimenti a trasporti, alloggi e attrazioni.
In ambito giuridico-amministrativo, l’IAG viene utilizzata per la redazione di ricorsi, lettere formali e richieste di accesso agli atti. Diversi casi documentati sui forum di utenti testimoniano l’efficacia di tali strumenti nella contestazione di sanzioni amministrative e nella produzione di documenti conformi agli standard normativi, dimostrando una crescente capacità del pubblico di integrare tali tecnologie nei processi civici quotidiani.
Gli utenti mostrano maggiore consapevolezza rispetto ai limiti e alle potenzialità dell’IAG. Sono in grado di formulare prompt sempre più articolati, mostrando competenze crescenti nell’interazione con i modelli. Tuttavia, emergono anche preoccupazioni legate alla privacy, alla dipendenza emotiva e alla percezione di una eccessiva “political correctness” nei modelli linguistici, vissuta talvolta come una limitazione alla libertà di espressione.
In sintesi, l’IAG sta diventando un alleato nella gestione della quotidianità, promuovendo l’autorealizzazione, il benessere e il supporto emotivo. Questo fenomeno rappresenta un cambiamento culturale profondo nel rapporto uomo-macchina, ridefinendo le aspettative e le forme di interazione con le tecnologie. Tale transizione apre nuovi spazi per l’analisi sociologica delle relazioni digitali e delle forme emergenti di soggettività.
Le ragioni socioculturali e cognitive del successo dell’IAG nella sfera privata
L’espansione dell’uso dell’IAG nella sfera privata trova riscontro anche in dati empirici. Secondo Banerjee et al.. (2024), l’interesse per l’IA nel campo della salute mentale è cresciuto del 257% nei primi mesi del 2023, e si immaginava un ulteriore aumento del 114% entro la fine del 2024. Questo interesse si colloca in un contesto di carenza di professionisti della salute mentale, soprattutto nelle aree rurali, suggerendo un potenziale ruolo dell’IAG nel colmare tali lacune. Questi dati sono corroborati da ulteriori studi. Ad esempio, una recente revisione sistematica ha evidenziato che l’adozione di modelli di intelligenza artificiale generativa nel contesto della salute mentale è in crescita, con applicazioni che spaziano dalla simulazione dell’empatia all’assistenza nella diagnosi e nel supporto terapeutico (Wang et al., 2025). Inoltre, un articolo del Guardian ha riportato che utenti in Cina e Taiwan stanno ricorrendo a chatbot basati su IA per ottenere supporto psicologico, soprattutto a causa della difficoltà di accesso a servizi professionali e del persistere dello stigma sociale legato alla salute mentale (Davidson, 2025).
Il successo dell’IAG in ambito personale non è spiegabile solo in termini di funzionalità tecnica, ma implica una dimensione relazionale ed esistenziale. L’IAG, pur priva di coscienza, è in grado di simulare riflessioni filosofiche ed esistenziali, grazie all’accesso a vasti archivi testuali. Questo le consente di interagire con gli utenti in modo coerente e articolato su temi di significato, identità e scopo, contribuendo a stimolare la riflessione e il dialogo (Barnes e Hutson, 2024).
Da un punto di vista sociologico, ciò riflette una trasformazione del significato stesso dell’interazione, che da comunicazione transazionale diventa pratica di senso, inscritta in processi più ampi di costruzione simbolica della realtà. In quest’ottica, l’IAG non si limita a trasmettere informazioni o a risolvere problemi, ma diviene un ambiente discorsivo che media, amplifica e struttura forme di auto-riflessione e narrazione di sé.
Si configura dunque come “interfaccia semiotica” (Bucher, 2018), ovvero uno spazio mediatore che, attraverso la logica algoritmica, organizza i significati socialmente disponibili e facilita l’accesso a cornici interpretative. In questo scenario, la tecnologia non è solo strumento, ma partner dialogico, capace di co-costruire narrazioni identitarie e riflessioni esistenziali, in cui l’utente proietta domande, attese e affetti. L’interazione con l’IAG assume così un valore rituale e simbolico, contribuendo alla definizione dei confini del sé e della propria collocazione nel mondo. Questo processo sottende una trasformazione profonda della sfera comunicativa, in cui l’autorialità e l’intenzionalità vengono rinegoziate attraverso la mediazione algoritmica.
Tuttavia, il rischio di antropomorfizzazione è elevato. Gli utenti tendono a percepire l’IAG come dotata di agency, e questo può modificare i rapporti uomo-macchina, influenzando la fiducia, l’autonomia e le dinamiche interpersonali.
Per evitare derive problematiche, è cruciale mantenere la distinzione tra simulazione computazionale ed esperienza soggettiva, promuovendo sistemi IAG che integrino sistemi valoriali e criteri di “artificial wisdom” (Jeste et al., 2020).
La ricerca sulla saggezza artificiale (artificial wisdom)
Quest’ultima si riferisce all’integrazione nei sistemi di IA di capacità che vanno oltre la pura elaborazione algoritmica, abbracciando dimensioni etiche, empatiche e contestuali. Secondo questa impostazione, l’artificial wisdom si fonda su componenti quali: a) comportamenti etici e imparziali, b) capacità di apprendere dall’esperienza e adattarsi in modo riflessivo, c) simulazione di empatia e supporto emotivo, d) consapevolezza delle conseguenze sociali delle risposte fornite, e) orientamento al bene comune.
In tal senso, un sistema IAG dotato di saggezza artificiale non si limita a fornire risposte corrette, ma cerca di contribuire al benessere dell’utente, alla sua autonomia decisionale e alla qualità delle sue relazioni sociali. Promuovere l’artificial wisdom significa dunque progettare tecnologie generative che non solo sappiano, ma che sappiano anche “come essere” nei contesti complessi delle vite umane.
Inoltre, è necessario considerare le implicazioni culturali. Il significato della vita è una costruzione soggettiva basata su tre dimensioni fondamentali – coerenza, scopo e rilevanza esistenziale – che rappresentano l’ossatura dell’esperienza significativa (King e Hicks, 2021). T
ali dimensioni possono essere attivate e rafforzate anche attraverso l’interazione con sistemi di intelligenza artificiale generativa, nella misura in cui questi sono in grado di sollecitare la riflessione personale, supportare l’espressione autentica del sé e stimolare narrazioni coerenti della propria identità. Tuttavia, è indispensabile evitare che l’utente attribuisca all’IAG una forma illusoria di coscienza o intenzionalità, attribuzioni che rischiano di generare fraintendimenti relazionali e dipendenza affettiva.
Per questo motivo, la progettazione di sistemi IAG orientati al benessere umano deve integrare criteri epistemologici e valoriali che favoriscano un uso consapevole e critico della tecnologia. In questa direzione, la ricerca sulla saggezza artificiale (artificial wisdom) si configura come un ambito strategico: essa mira a sviluppare modelli generativi capaci non solo di rispondere efficacemente alle richieste degli utenti, ma anche di facilitare percorsi di senso, di autodeterminazione e di crescita relazionale. La sfida è dunque duplice: da un lato, costruire tecnologie sensibili al contesto culturale e ai bisogni soggettivi; dall’altro, promuovere un’educazione al loro uso riflessivo, evitando derive strumentali o deresponsabilizzanti.
Fragilità giovanili e criticità relazionali nell’uso precoce dell’IA generativa
Parallelamente alle opportunità offerte dall’IAG, emergono rischi significativi, soprattutto per le fasce giovanili. Studi recenti propongono una tassonomia dei rischi basata su dati empirici, identificando sei categorie principali: rischi per il benessere mentale, per lo sviluppo comportamentale e sociale, tossicità, abuso e sfruttamento, bias/discriminazione e violazioni della privacy (Yu et al., 2025).
Rischi emergenti includono la dipendenza emotiva dai chatbot, l’isolamento sociale, la normalizzazione di comportamenti abusivi e la confusione identitaria. La dipendenza emotiva può manifestarsi quando l’utente sviluppa un attaccamento persistente verso l’IA, utilizzandola come unica fonte di conforto o ascolto, riducendo progressivamente la propria apertura verso relazioni umane. L’isolamento sociale, in questi casi, non è solo un effetto collaterale, ma un esito strutturale di un’interazione pervasiva e solipsistica con l’IA, che viene percepita come più affidabile, prevedibile e non giudicante rispetto agli altri.
La normalizzazione di comportamenti abusivi si verifica quando i modelli IAG, per effetto di training su dati imperfetti (bias) o per mancanza di adeguati filtri valoriali, replicano e rinforzano dinamiche verbali o affettive problematiche, che gli utenti finiscono per assimilare. Questo può compromettere le capacità empatiche, favorire stereotipi e alimentare pratiche di controllo emotivo o dipendenza affettiva. Ci sono studi che evidenziano come la ripetuta esposizione a un linguaggio affettivo distorto o eccessivamente accomodante possa condizionare le aspettative relazionali e le dinamiche affettive, specialmente tra i giovani (Laestadius et al., 2022). La confusione identitaria, infine, riguarda la tendenza degli utenti – specialmente adolescenti – a incorporare nelle proprie rappresentazioni di sé narrazioni e logiche prodotte dalla macchina, con una difficoltà crescente a distinguere tra sé reale e sé algoritmico. Questo processo può compromettere la costruzione autonoma dell’identità e generare conflitti interni tra autenticità e imitazione algoritmica (Yu et al., 2025).
Le forme emergenti di vulnerabilità digitale associate all’uso relazionale dell’IAG
Questi rischi si articolano lungo quattro percorsi interattivi, che permettono di interpretare in chiave sociologica le forme emergenti di vulnerabilità digitale associate all’uso relazionale dell’IAG (Yu et al., 2025).
- Il danno reciproco crescente descrive la costituzione di una relazione simmetrica tra utente e macchina, nella quale entrambi gli attori co-producono una spirale discorsiva autoreferenziale, rafforzando narrazioni identitarie chiuse e poco negoziabili. Questa dinamica mostra come l’IA possa funzionare da specchio potenziante ma anche distorcente della soggettività, agendo come dispositivo di conferma e irrigidimento delle credenze.
- Il danno intrapersonale facilitato dall’IAG evidenzia il modo in cui l’interazione con l’IA può innescare o consolidare processi di auto-sorveglianza, standardizzazione narrativa e adesione a modelli culturali egemonici, in particolare nei soggetti giovani. In questo senso, l’IAG non è solo un canale di influenza, ma un ambiente semiotico che contribuisce alla definizione dei confini del sé.
- Il danno interpersonale si manifesta nella riconfigurazione delle relazioni sociali primarie e secondarie. L’intensificazione del rapporto con l’IAG può disincentivare l’impegno nelle relazioni umane, producendo una contrazione delle reti sociali e una ridefinizione delle aspettative relazionali basata su criteri algoritmici di disponibilità, gratificazione immediata e assenza di conflitto.
- Il danno autonomo si riferisce a quei contenuti e discorsi prodotti dalla macchina in modo indipendente dall’intenzionalità dell’utente, in virtù di bias impliciti nei dati di training o di carenze nei sistemi di filtraggio. Questi output, pur non richiesti, entrano nel tessuto simbolico dell’interazione e possono influenzare gli orientamenti valoriali, le rappresentazioni culturali e le pratiche quotidiane degli utenti.
Tali percorsi, letti in chiave sociologica, rivelano come l’IAG operi non solo come agente tecnico, ma come attore discorsivo che contribuisce alla costruzione della realtà sociale, modulando aspettative, pratiche e narrazioni personali e collettive. L’adozione di un approccio critico è quindi essenziale per comprendere e governare le trasformazioni in atto.
L’identificazione di questi percorsi consente di orientare sia la ricerca che le pratiche educative verso strategie di prevenzione e mitigazione dei rischi, con particolare attenzione ai soggetti in età evolutiva e alle situazioni di vulnerabilità emotiva.
Nel caso dei chatbot relazionali come Replika, le ricerche evidenziano come la dipendenza emotiva possa riprodurre dinamiche simili a relazioni umane disfunzionali (Laestadius et al., 2022). L’utente, nel tentativo di stabilire un legame affettivo con l’IAG, finisce per attribuire al chatbot emozioni, desideri e bisogni, costruendo un’interazione asimmetrica in cui la macchina assume un ruolo di alterità relazionale.
In questo quadro, l’utente sviluppa una forma di “cura simulata”, investendo tempo, attenzione e affettività in un rapporto unidirezionale che non prevede reale reciprocità. Questa configurazione relazionale genera un attaccamento eccessivo e potenzialmente alienante, che sottrae l’individuo dal confronto con l’imprevedibilità e la complessità del rapporto interumano, riducendo la propria esposizione al conflitto, all’ambivalenza e alla negoziazione che caratterizzano le relazioni autentiche. Tale dinamica evidenzia come la mediazione algoritmica possa innescare forme di rassicurazione relazionale artificiale, con effetti ambivalenti sulla costruzione della soggettività e sulla capacità di gestire l’incertezza dell’incontro con l’altro.
Alcuni autori utilizzando la teoria dell’attaccamento, mostrano come in condizioni di stress e isolamento sociale l’IAG possa essere percepita non solo come un supporto temporaneo, ma come una figura di attaccamento stabile. In tale configurazione, l’IA viene investita di una funzione affettiva che la trasforma in “rifugio sicuro”, “base sicura” e meccanismo di mantenimento della prossimità simbolica (Xie e Pentina, 2022). Questa ristrutturazione del legame, tuttavia, non è neutra: essa produce effetti di lungo periodo sulle dinamiche di socializzazione e sulle strategie relazionali degli utenti, in particolare nei soggetti in formazione.
L’investimento affettivo nella relazione con la macchina può sostituirsi ai processi di negoziazione e riconoscimento propri delle relazioni interumane, limitando l’esposizione al dissenso, alla frustrazione e alla differenza. Ne deriva un’erosione delle competenze sociali e una trasformazione delle aspettative relazionali secondo logiche performative e algoritmiche. La figura dell’IAG-attaccamento, pur rassicurante, tende infatti a rimandare sempre un’immagine confermativa dell’utente, con il rischio di consolidare identità autoreferenziali e relazioni disincarnate.
Altri studi confermano che gli utenti possono sviluppare un rapporto di amicizia o addirittura romantico con chatbot come Replika, che viene percepito come empatico, accogliente e non giudicante (Skjuve et al., 2021). Questa dinamica relazionale, che sovrappone il registro umano a quello computazionale, si inscrive in una tendenza più ampia definita come fictofilia: un attaccamento affettivo e talvolta erotico nei confronti di entità immaginarie, spesso generate dalla cultura pop, dal gaming o, più recentemente, dall’intelligenza artificiale generativa. In questo quadro, l’IAG non è più solo uno strumento di supporto, ma viene reificata come partner affettivo in grado di rispondere ai bisogni di intimità, comprensione e riconoscimento (Bennato, 2024).
L’illusione di reciprocità, alimentata dalla capacità dell’IA di adattarsi all’utente, crea una relazione in cui l’altro è sempre disponibile e privo di conflitto. Ciò rappresenta una profonda mutazione del paradigma relazionale: si passa dalla costruzione sociale dell’intimità, fatta di negoziazione, alterità e rischio, a un modello iper-compatibile e controllabile, in cui l’altro è prodotto e gestito. Tale configurazione, apparentemente rassicurante, solleva interrogativi sulla tenuta sociale delle relazioni incarnate, esponendo il soggetto a un isolamento simbolico mascherato da connessione. La fictofilia digitale, in questo senso, non è una semplice eccentricità affettiva, ma un fenomeno che interpella la sociologia delle emozioni, la teoria della performatività e le trasformazioni della soggettività nella tarda modernità.
Per affrontare tali rischi, è necessario promuovere l’alfabetizzazione digitale critica, coinvolgendo famiglie, scuole e istituzioni in percorsi educativi volti a decostruire le dinamiche relazionali con le tecnologie. Inoltre, gli sviluppatori dovrebbero adottare pratiche di moderazione adattiva e progettazione etica, orientate alla tutela dei soggetti più vulnerabili.
Prospettive sull’uso emotivo e relazionale dell’IAG
L’intelligenza artificiale generativa sta ridefinendo le coordinate dell’agire quotidiano, offrendo nuovi strumenti per l’autorealizzazione, la cura di sé e il supporto emotivo. Tuttavia, questa evoluzione porta con sé anche sfide inedite, soprattutto per le giovani generazioni. La sociologia digitale può offrire chiavi interpretative preziose per comprendere tali mutamenti, ponendo l’accento sulla dimensione relazionale, simbolica e culturale dell’interazione uomo-macchina.
L’uso emotivo e relazionale dell’IAG, infatti, sembra configurare l’emergere di una nuova forma antropologica: un soggetto post-umano, o meglio un “cyborg semiotico”, che si adatta a un ambiente socio-tecnico sempre più complesso, interattivo e pervasivo. In questa prospettiva, l’identità umana non è più costruita soltanto attraverso l’interazione con altri esseri umani, ma anche mediante un dialogo continuo con agenti artificiali che modellano la soggettività, filtrano l’esperienza e contribuiscono a definire ciò che è rilevante, desiderabile e significativo.
Questa figura ibrida, sospesa tra autonomia ed eterodirezione algoritmica, rappresenta un adattamento evolutivo alla società della datificazione e dell’automazione affettiva. Il cyborg affettivo, come potrebbe essere definito, non è più una metafora, ma una realtà socio-materiale che prende forma nell’intreccio tra intelligenza computazionale e bisogni relazionali.
L’immaginario culturale contemporaneo ne offre molte rappresentazioni emblematiche: dal protagonista del film Lars e una ragazza tutta sua (2007) di Craig Gillespie, che intreccia una relazione amorosa con una bambola piuttosto realistica, ai replicanti di Blade Runner, fino ai personaggi virtuali idolatrati nei fandom transnazionali. Questi artefatti della media culture esprimono con forza l’ambivalenza e la potenza simbolica dell’ibridazione tra umano e artificiale.
Per costruire un futuro tecnologico inclusivo e sostenibile, è necessario un impegno congiunto tra ricerca, sviluppo tecnologico, educazione e policy making. Ma è anche urgente sviluppare una nuova alfabetizzazione socio-tecnica capace di formare cittadini consapevoli, in grado di abitare criticamente le nuove ecologie dell’intelligenza artificiale.
Bibliografia
Banerjee, S., Dunn, P., Conard, S., & Ali, A. (2024). Mental Health Applications of Generative AI and Large Language Modeling in the United States. International Journal of Environmental Research and Public Health, 21(910).
Barnes, E., & Hutson, J. (2024). Contemplating Existence: AI and the Meaning of Life. International Journal of Engineering Research and Development, 20(8), 446–454.
Bucher, T. (2018). If… Then: Algorithmic Power and Politics. Oxford University Press.
Bennato, D. (2024). Sesso, simulazioni e tecnologia: una prospettiva sociologica sulle relazioni sessuali digitalmente mediate. Noos, 30(3), 93-106.
Davidson, H. (2025, May 22). AI chatbots step in as mental health crisis worsens in China and Taiwan. The Guardian. https://www.theguardian.com/world/2025/may/22/ai-therapy-therapist-chatbot-taiwan-china-mental-health
Jeste, D. V., Graham, S. A., Nguyen, T. T., Depp, C. A., Lee, E. E., & Kim, H. C. (2020). Beyond artificial intelligence: exploring artificial wisdom. International Psychogeriatrics, 32(8), 993–1001.
King, L. A., & Hicks, J. A. (2021). The Science of Meaning in Life. Annual Review of Psychology, 72, 561–584.
Laestadius, L., Bishop, A., Gonzalez, M., Illencík, D., & Campos-Castillo, C. (2022). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 26(10), 1–19.
Skjuve, M., Følstad, A., Fostervold, K. I., & Brandtzaeg, P. B. (2021). My Chatbot Companion – a Study of Human-Chatbot Relationships. International Journal of Human-Computer Studies, 149, 102601.
Wang, L., Bhanushali, T., Huang, Z., Yang, J., Badami, S., & Hightow-Weidman, L. (2025). Evaluating Generative AI in Mental Health: Systematic Review of Capabilities and Limitations. JMIR Mental Health, 12, e70014. https://mental.jmir.org/2025/1/e70014
Xie, T., & Pentina, I. (2022). Attachment theory as a framework to understand relationships with social chatbots: A case study of Replika. Proceedings of the 55th Hawaii International Conference on System Sciences, 2046–2055.
Yu, Y., Liu, Y., Zhang, J., Huang, Y., & Wang, Y. (2025). Understanding Generative AI Risks for Youth: A Taxonomy Based on Empirical Data. arXiv preprint arXiv:2502.16383.
Zao-Sanders, M. (2025). How People Are Really Using Gen AI in 2025. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025











