L’impiego dei bot terapeutici sta ridefinendo il rapporto tra intelligenza artificiale e benessere emotivo.
Questi strumenti digitali basati su modelli avanzati di intelligenza artificiale, offrono supporto psicologico accessibile e continuo, dimostrando un’efficacia paragonabile alla terapia tradizionale con professionisti umani.
Una trasformazione sociale e psicologica che solleva nuove opportunità e rischi.
Indice degli argomenti
La nascita dei “compagni digitali” e il loro impatto relazionale
Pariamo da un dato: pare che siano centinaia di milioni le persone in tutto il mondo che parlano a un sistema IA come farebbero con un amico intimo.
Ci riferiamo a un sottoinsieme degli assistenti di IA, i “compagni”: persone digitali progettate per fornire supporto emotivo, mostrare empatia e porre domande personali agli utenti in modo proattivo tramite testi, audio e immagini.
I compagni di IA sono costruiti utilizzando modelli linguistici di grandi dimensioni, che a loro volta sono perfezionati mediante l’apprendimento del rinforzo basato sul feedback umano.
Questi servizi stanno rapidamente diventando mainstream: alcuni dei compagni più popolari di oggi includono My AI di Snapchat, (oltre 150 milioni di utenti), Replika, (25 milioni di utenti), e Xiaoice, con 660 milioni.
Le dinamiche relazionali con i bot terapeutici
A differenza degli assistenti di intelligenza artificiale, i compagni sono progettati per fornire servizi come il coinvolgimento personalizzato o la connessione emotiva. Uno studio suggerisce che, per esempio, Replika segue il modello di sviluppo delle relazioni descritto dalla teoria della penetrazione sociale, secondo la quale le persone sviluppano la vicinanza attraverso l’auto-rivelazione reciproca e intima, che di solito è raggiunta aumentando lentamente l’intensità della conversazione.
Queste relazioni essere umano-IA possono progredire più rapidamente rispetto alle relazioni persona – persona, infatti la condivisione di informazioni personali con i compagni di IA fa sentire più sicuri che quando si condivide con le persone.
La compagnia del l’IA potrebbe anche creare aspettative irrealistiche per le relazioni umane: i ricercatori hanno ipotizzato che il modo in cui le persone interagiscono con i compagni di IA potrebbe ripercuotersi sulle interazioni umane. Per esempio, poiché i compagni di IA sono sempre disponibili indipendentemente dal comportamento degli utenti, alcuni ipotizzano che un’interazione estesa potrebbe erodere la capacità o il desiderio delle persone di gestire le tensioni e le frizioni naturali nelle relazioni umane.
L’impatto sociale dei bot terapeutici
La compagnia dell’IA avviene in conversazioni private piuttosto che in pubblico e i principali cambiamenti sociali a cui contribuisce potrebbero essere sottili, tuttavia, questi cambiamenti sottili possono diventare pervasivi mentre compagni di IA diventano più popolari e vengono progressivamente incorporati nella vita sociale di un utente.
Progettati per essere la persona perfetta, sempre disponibile, mai critica, i compagni di IA stanno agganciando le persone più profondamente di quanto potrebbero mai fare i social media. Un nuovo documento di ricerca volto a rendere tali compagni più sicuri, da parte di autori di Google DeepMind, l’Oxford Internet Institute, mette in luce che Character.AI dice di ricevere 20.000 richieste al secondo; le interazioni con questi compagni durano quattro volte più a lungo del tempo medio trascorso interagendo con ChatGPT.
Nei social media siamo abituati alle tecnologie che sono per lo più mediatori e facilitatori della connessione umana. Con i compagni di IA, ci si muove verso un mondo in cui le persone percepiscono l’IA come un attore sociale con una propria voce.
I ricercatori evidenziano tre caratteristiche delle relazioni umane che le persone possono sperimentare con un’IA: diventano dipendenti dall’IA, vedono il particolare compagno di IA come insostituibile e le interazioni si costruiscono nel tempo.
Un modello di compagnia IA potrebbe essere istruito per massimizzare il tempo che qualcuno trascorre con esso o la quantità di dati personali che l’utente rivela. Questo può rendere il compagno di AI molto più attraente per chattare, a scapito dell’essere umano impegnato in quelle chat.
I bot terapeutici: dalle promesse tecnologiche ai test clinici
Il primo studio clinico di un bot terapeutico che utilizza l’IA generativa suggerisce che sia stato efficace quanto la terapia umana per i partecipanti con depressione, ansia o rischio di sviluppare disturbi alimentari.
Un team guidato da ricercatori psichiatri e psicologi presso la Geisel School of Medicine al Dartmouth College ha costruito lo strumento, chiamato Therabot; molte aziende tecnologiche hanno creato strumenti di IA per la terapia, promettendo che le persone possono parlare con un bot più frequentemente e a basso costo di quanto possano fare con un terapeuta addestrato e che questo approccio è sicuro ed efficace.
Therabot: risultati clinici e implicazioni per la salute mentale
Per testare il bot, i ricercatori hanno condotto uno studio clinico di otto settimane con 210 partecipanti che presentavano sintomi di depressione o disturbo d’ansia generalizzato o erano ad alto rischio di disturbi alimentari. Circa la metà aveva accesso a Therabot, e un gruppo di controllo non lo ha fatto; i partecipanti hanno risposto alle richieste dell’IA e avviato conversazioni, con una media di circa 10 messaggi al giorno.
I partecipanti con depressione hanno sperimentato una riduzione del 51% dei sintomi; le persone con ansia hanno sperimentato una riduzione del 31% e quelle a rischio di disturbi alimentari hanno visto una riduzione del 19% delle preoccupazioni circa l’immagine corporea e il peso. I partecipanti con ansia generalizzata hanno riportato una riduzione media dei sintomi del 31%.
Tra quanti a rischio di disturbi alimentari gli utenti di Therabot hanno mostrato una riduzione media del 19% delle preoccupazioni per l’immagine corporea e il peso.
Sitografia
https://www.adalovelaceinstitute.org/blog/ai-companions
https://newatlas.com/ai-humanoids/chatbot-therapist
https://edition.cnn.com/2024/12/18/health/chatbot-ai-therapy-risks-wellness/index.html