La GriefTech — l’insieme delle tecnologie digitali applicate all’elaborazione del lutto — non è più fantascienza. Dagli avatar conversazionali ai chatbot addestrati sul profilo dei defunti, un mercato in rapida espansione promette di rendere la morte meno definitiva. Ma la realtà di queste piattaforme è più complessa e problematica di quanto il loro marketing lasci intendere.
In assenza di evidenze cliniche solide e di regole chiare, queste tecnologie trasformano il dolore in esperienza mediata dall’AI, sollevando questioni etiche che la ricerca e il diritto faticano ancora a governare.
Indice degli argomenti
Grief Tech, dalla distopia di Black Mirror alla realtà commerciale
Nell’episodio Be Right Back di Black Mirror, Martha perde il compagno in un incidente stradale. Devastata dal lutto, accetta di comunicare con un software che ha analizzato tutti i messaggi, le email e i post social del defunto, ricostruendone la personalità digitale. Prima sono messaggi di testo, poi chiamate vocali, infine un androide con le sue sembianze.
La serie, nel 2013, presentava questo scenario come distopia fantascientifica. Tredici anni dopo, è un servizio commerciale disponibile con abbonamento mensile. Una vedova italiana del 2025 può accedere a piattaforme come HereAfter AI per creare un avatar conversazionale del marito defunto a partire da registrazioni vocali. Per circa 8 dollari al mese, può «intervistare» l’avatar, sentire la sua voce rispondere a domande sulla loro vita insieme, ascoltare storie che aveva già raccontato mentre era in vita. Può rivolgersi a Project December, che offre conversazioni con simulacri di persone morte, basati su modelli linguistici di grandi dimensioni.
In Cina, aziende come quella fondata dal defunto Tang Xiao’ou di SenseTime hanno creato avatar del fondatore stesso, che «partecipa» alle assemblee aziendali post-mortem, rispondendo a domande sulle strategie future dell’azienda. Benvenuti nell’era della GriefTech — o thanabots, o ghostbots, o deathbots, a seconda della nomenclatura preferita. Un’industria che promette di rendere la morte un inconveniente tecnicamente superabile. Un mercato in espansione che opera in un vuoto normativo quasi totale. E che, aspetto forse più inquietante, commercializza servizi con pretese terapeutiche senza disporre di alcuna evidenza scientifica a supporto.
L’industria della resurrezione digitale: dimensioni e protagonisti
Il mercato del «digital legacy» — che include servizi di eredità digitale, memoriali online e avatar post-mortem — è stimato in 30 miliardi entro il 2030, secondo Grand View Research. Un tasso di crescita annuo composto del 15,6% che supera quello di molti settori tecnologici consolidati. Per contestualizzare: il mercato più ampio dei servizi funebri tradizionali vale tra i 61 e i 71 miliardi di dollari a livello globale. La componente digitale, sebbene ancora minoritaria, cresce a velocità quasi doppia rispetto al settore tradizionale. Le piattaforme operanti nel settore si dividono in diverse tipologie, ciascuna con modelli tecnologici e di business distinti.
Memorial chatbot: le piattaforme basate su registrazioni
I memorial chatbot basati su registrazioni rappresentano la prima categoria. HereAfter AI, fondata nel 2019, permette di creare avatar conversazionali a partire da interviste audio registrate mentre la persona è ancora in vita. Il servizio richiede che l’utente risponda a centinaia di domande sulla propria storia personale, i ricordi, le opinioni. Dopo la morte, i familiari possono «conversare» con l’avatar, che riproduce la voce originale e risponde attingendo al corpus di risposte registrate. I piani tariffari spaziano da 3,99 dollari mensili (Starter, 20 storie) a 7,99 dollari mensili (Unlimited). La piattaforma dichiara esplicitamente di voler «preservare le storie di famiglia e aiutare nel processo del lutto».
StoryFile, utilizzata dal celebre caso di Marina Smith — una sopravvissuta all’Olocausto che ha registrato ore di conversazioni prima della morte nel giugno 2022, permettendo ai nipoti di «intervistarla» post-mortem — rappresenta una versione più sofisticata di questo approccio.
Il sistema utilizza tecniche di Natural Language Processing per abbinare le domande dei familiari alle risposte pre-registrate più pertinenti, creando l’illusione di una conversazione spontanea. La piattaforma ha recentemente modificato il proprio modello commerciale, passando a un sistema di liste d’attesa per la nuova versione.
Griefbot generativi: simulacri algoritmici senza registrazioni
I griefbot generativi operano su principi radicalmente diversi. Non si basano su registrazioni del defunto, ma utilizzano modelli linguistici di grandi dimensioni (LLM) addestrati su descrizioni testuali fornite dal dolente.
Project December, creato dallo sviluppatore Jason Rohrer, è il caso più documentato. Il sistema permette di creare un «simulacro» di qualsiasi persona — viva o morta — a partire da una descrizione della sua personalità, del suo modo di parlare, dei suoi ricordi condivisi con l’utente.
Il caso più celebre è quello di Joshua Barbeau, documentato dal San Francisco Chronicle nel luglio 2021. Barbeau ha utilizzato Project December per conversare con un simulacro della fidanzata Jessica Pereira, morta l’11 dicembre 2012 per una rara malattia epatica. Ha trascorso ore a dialogare con il bot, alternando momenti di conforto a episodi perturbanti — come quando l’avatar ha prodotto affermazioni che Jessica non avrebbe mai fatto, o ha «dimenticato» dettagli centrali della loro relazione. Project December ha successivamente perso l’accesso alle API di OpenAI nel settembre 2021, ufficialmente per violazioni delle policy di utilizzo.
Il mercato cinese e il documentario Eternal You
Il mercato cinese presenta sviluppi particolarmente avanzati. Almeno sei aziende offrono servizi di avatar post-mortem, secondo ricerche di settore. Il caso di SenseTime — che ha creato un avatar del fondatore Tang Xiao’ou, deceduto nel dicembre 2023, per farlo «partecipare» all’assemblea generale di marzo 2024 — ha ricevuto attenzione mediatica internazionale.
L’avatar non solo ha «parlato» agli azionisti, ma ha risposto a domande sulla direzione strategica dell’azienda, sollevando interrogativi sulle implicazioni legali e di governance di tali pratiche. Il documentario Eternal You ha portato queste pratiche all’attenzione del grande pubblico. Il film segue diversi utenti di piattaforme di GriefTech, documentando reazioni che spaziano dal conforto alla dipendenza, dalla guarigione al trauma. Una delle scene più intense mostra una madre che incontra in VR un avatar della figlia morta.
Il caso italiano: Zephorum e l’eredità digitale
L’Italia non è estranea a queste dinamiche, sebbene con un focus più marcato sulla gestione dell’eredità digitale che sugli avatar conversazionali. Nel 2022 è stata lanciata Zephorum, startup sarda fondata da Giulia Salis Nioi. Con sede a Cagliari, Zephorum si presenta come il «primo webetery al mondo» — un neologismo che fonde web e cemetery. Zephorum offre tre tipologie di servizi strutturati. Coffer permette la pianificazione dell’eredità digitale in vita: l’utente può designare chi avrà accesso ai propri account, quali contenuti dovranno essere cancellati, quali preservati, quali messaggi dovranno essere inviati post-mortem. Urn e Mausoleum gestiscono il recupero e l’organizzazione dei contenuti digitali dopo la morte, con diversi livelli di complessità e costo.
Il Webetery è un cimitero digitale con profili commemorativi, accessibile ai familiari e, secondo le impostazioni scelte, al pubblico. Il modello di Zephorum si distingue dalle piattaforme americane per un focus esplicito sulla compliance normativa europea. La piattaforma opera in conformità all’articolo 2-terdecies del Codice Privacy italiano (D.Lgs. 196/2003, come modificato dal D.Lgs. 101/2018), che regola l’accesso ai dati personali dei defunti. Un aspetto tecnico distintivo: il sistema non richiede la condivisione di password, superando uno dei problemi più frequenti nella gestione dell’eredità digitale, poiché gli eredi spesso non conoscono le credenziali di accesso del defunto.
Va precisato che Zephorum non offre, allo stato attuale, servizi di avatar conversazionali o chatbot del defunto. Il suo focus è la gestione ordinata dell’eredità digitale, non la simulazione di interazione con il defunto. Questa distinzione è significativa: rappresenta un approccio meno tecnologicamente spettacolare ma potenzialmente più utile e meno problematico dal punto di vista psicologico.
La giurisprudenza italiana sui dati dei defunti
L’articolo 2-terdecies del Codice Privacy italiano è al centro di una giurisprudenza in rapida evoluzione che ha implicazioni dirette per l’industria della GriefTech. La norma stabilisce che i diritti riferiti ai dati personali concernenti persone decedute possono essere esercitati da chi ha un interesse proprio, o agisce a tutela dell’interessato, in qualità di suo mandatario, o per ragioni familiari meritevoli di protezione — salvo che l’interessato lo abbia espressamente vietato. Il 4 giugno 2025, il Tribunale di Venezia ha emesso un’ordinanza che si inserisce in una linea giurisprudenziale ormai consolidata. Il caso, come i precedenti, riguardava eredi che richiedevano l’accesso ai dati iCloud di un congiunto defunto, contro il rifiuto di Apple.
La multinazionale di Cupertino sostiene che i propri termini di servizio prevedono la cancellazione dell’account alla morte dell’utente e che tale clausola costituisce il «divieto espresso» richiesto dalla legge per escludere il diritto degli eredi. I giudici italiani hanno costantemente respinto questa interpretazione. L’ordinanza di Venezia segue analoghe pronunce di altri tribunali. Il principio emergente è chiaro: una clausola contrattuale generica, non specificamente indirizzata a escludere l’accesso degli eredi, non costituisce il «divieto espresso» richiesto dall’articolo 2-terdecies. Per escludere gli eredi, il defunto avrebbe dovuto manifestare esplicitamente e chiaramente tale volontà, con riferimento specifico ai dati e agli eredi.
Un aspetto giuridicamente rilevante è che i giudici hanno qualificato il diritto degli eredi come esercitato iure proprio — per diritto proprio — e non per successione. Questo significa che non si tratta di ereditare i diritti del defunto, ma di esercitare un diritto autonomo riconosciuto agli eredi dalla legge. La distinzione ha conseguenze pratiche: il diritto non è soggetto alle regole della successione, non richiede l’accettazione dell’eredità, non è subordinato alla qualifica di erede testamentario o legittimo. Questa giurisprudenza crea precedenti significativi per l’industria della GriefTech.
I dati personali digitali sopravvivono alla morte biologica e possono essere rivendicati dagli eredi. Ma se applicato ai servizi di avatar, questo principio solleva interrogativi inediti. Chi «possiede» l’avatar di un defunto? Se un figlio crea un avatar del padre, la moglie può richiedere l’accesso alle conversazioni? Cosa accade se diversi eredi hanno visioni conflittuali su come gestire la «presenza digitale» del defunto — uno vuole preservarla, l’altro cancellarla? E se l’avatar produce affermazioni che un erede considera offensive o false, chi è responsabile? Queste domande non hanno ancora risposte nella giurisprudenza italiana.
Il Disturbo da Lutto Prolungato: quando il dolore diventa patologia
Per comprendere le implicazioni psicologiche e cliniche della GriefTech, è necessario inquadrare il lutto nella sua dimensione psicopatologica contemporanea. Nel marzo 2022, l’American Psychiatric Association ha introdotto il Prolonged Grief Disorder (PGD) — Disturbo da Lutto Prolungato — nel DSM-5-TR, il principale manuale diagnostico psichiatrico mondiale.
L’Organizzazione Mondiale della Sanità ha incluso una diagnosi analoga nell’ICD-11, con criteri sviluppati a partire dal 2018 e adozione ufficiale nel 2019. Dopo decenni di dibattito sulla medicalizzazione del lutto, la psichiatria ufficiale ha riconosciuto che una minoranza di persone in lutto sviluppa una condizione persistente e disabilitante che richiede intervento clinico.
DSM-5-TR e ICD-11: le differenze diagnostiche
Le due classificazioni diagnostiche presentano differenze significative che meritano attenzione. Il DSM-5-TR richiede che i sintomi persistano per almeno 12 mesi dalla morte negli adulti (6 mesi per bambini e adolescenti). L’ICD-11 prevede una soglia temporale più breve: 6 mesi, con la specificazione che la durata deve essere «atipicamente lunga» rispetto alle norme culturali del contesto. Questa differenza non è banale: studi condotti in Germania mostrano che la prevalenza del disturbo varia dal 4,7% al 6,8% a seconda dei criteri applicati, con stime sistematicamente più basse utilizzando il DSM-5-TR.
Sintomi, fattori di rischio e controversie diagnostiche
I sintomi centrali del PGD includono: intenso desiderio o nostalgia per il defunto, preoccupazione cognitiva persistente riguardo alla persona morta, dolore emotivo marcato (tristezza profonda, senso di colpa, rabbia, incredulità), evitamento dei ricordi associati alla morte, sensazione che una parte di sé sia morta insieme alla persona amata, difficoltà a impegnarsi in attività e relazioni, ritiro sociale, aumento del consumo di sostanze, pensieri suicidari. Per la diagnosi, i sintomi devono causare compromissione significativa del funzionamento sociale, lavorativo o in altre aree importanti.
I fattori di rischio identificati dalla ricerca includono: storia pregressa di depressione o altri disturbi mentali, alti livelli di distress già prima della morte, relazione di forte dipendenza emotiva dal defunto, perdita di un figlio o del coniuge/partner, morte violenta o improvvisa (omicidio, suicidio, incidente), morte in contesti traumatici (terapia intensiva, pandemia), assenza di supporto sociale. Uno studio recente ha confermato questi fattori anche nella popolazione italiana.
L’introduzione del PGD nel DSM-5-TR non è stata priva di controversie, che risuonano con il dibattito sulla GriefTech. I critici sostengono che medicalizzare il lutto rischi di patologizzare una risposta umana universale, trasformando il dolore — esperienza costitutiva dell’esistenza — in malattia da curare. Temono che il riconoscimento diagnostico apra la strada a trattamenti farmacologici inappropriati, a stigmatizzazione di chi elabora il lutto in tempi non conformi alle aspettative sociali. I sostenitori replicano che la diagnosi permette finalmente di distinguere il lutto «normale» — che si risolve spontaneamente nella maggioranza dei casi — da forme persistenti e disabilitanti che richiedono intervento specialistico. È in questo contesto di dibattito scientifico sul confine tra fisiologia e patologia che si inserisce l’offerta della GriefTech, con le sue promesse di alleviare il dolore attraverso la tecnologia.
Promesse e realtà: l’assenza di evidenze scientifiche
Le piattaforme di GriefTech avanzano, esplicitamente o implicitamente, promesse terapeutiche. HereAfter AI dichiara sul proprio sito di voler «preservare le storie di famiglia e aiutare nel processo del lutto». StoryFile si presenta come strumento per «continuare le conversazioni che contano». Project December, nella sua versione più esplicita, prometteva «una conversazione con chiunque, vivo o morto». Queste affermazioni, pur evitando accuratamente il linguaggio medico per ragioni legali, veicolano l’aspettativa di benefici psicologici.
Ma queste promesse sono supportate da evidenze scientifiche? In realtà, ad oggi, non esistono studi randomizzati controllati (RCT) sull’efficacia terapeutica degli avatar conversazionali post-mortem. Questa assenza è scientificamente significativa: gli RCT rappresentano il gold standard metodologico per valutare l’efficacia di qualsiasi intervento in ambito sanitario. Senza di essi, è impossibile affermare con un minimo di certezza se questi strumenti aiutino, siano neutri o potenzialmente dannosi. Gli studi esistenti presentano limitazioni metodologiche gravi. I campioni sono ridotti, spesso inferiori a 50 partecipanti, insufficienti per rilevare effetti statisticamente significativi.
Mancano gruppi di controllo: senza confronto con gruppi che non utilizzano lo strumento, è impossibile distinguere l’effetto dell’intervento dal naturale decorso del lutto o da effetti placebo. I follow-up sono brevi, tipicamente inferiori a 6 mesi, insufficienti per valutare esiti a lungo termine. Le misure di outcome non sono standardizzate: ogni studio utilizza strumenti diversi, rendendo impossibile la comparazione e la meta-analisi. I risultati dei pochi studi disponibili sono eterogenei e non permettono conclusioni univoche. Alcuni utenti riportano benefici soggettivi: sensazione di connessione con il defunto, conforto, preservazione di ricordi.
Altri riportano effetti neutri o peggioramenti: confusione, frustrazione, ritraumatizzazione. Non è possibile, allo stato attuale delle conoscenze, identificare predittori affidabili di risposta positiva o negativa. Non sappiamo chi potrebbe beneficiare di questi strumenti e chi potrebbe essere danneggiato.
Per contestualizzare: se un farmaco o una psicoterapia venissero commercializzati con questo livello di evidenza (zero RCT, studi osservazionali con gravi limiti metodologici, risultati contraddittori), le autorità regolatorie non ne autorizzerebbero la vendita. Gli ordini professionali sanzionerebbero i clinici che li prescrivessero. I tribunali condannerebbero le aziende per pubblicità ingannevole.
Le teorie del lutto: cosa potrebbe andare storto
Anche in assenza di evidenze empiriche definitive, è possibile formulare ipotesi teoricamente fondate sui potenziali rischi degli avatar post-mortem. La psicologia del lutto ha sviluppato modelli esplicativi che permettono di anticipare possibili problematiche.
Il Dual Process Model e il rischio di lutto congelato
Il Dual Process Model (Modello del Doppio Processo) di Margaret Stroebe e Henk Schut, pubblicato nel 1999, è uno dei framework teorici più influenti e validati nella ricerca sul lutto. Descrive l’elaborazione del lutto come un’oscillazione tra due orientamenti. L’orientamento alla perdita include il lavoro del lutto tradizionale: confrontarsi con la perdita, elaborare il dolore, mantenere legami con il defunto. L’orientamento alla ricostruzione comprende le attività di adattamento alla vita senza la persona amata: assumere nuovi ruoli, sviluppare nuove identità, costruire nuove relazioni.
Secondo il modello, un’elaborazione sana del lutto richiede oscillazione tra i due poli: troppa focalizzazione sulla perdita impedisce la ricostruzione; troppa enfasi sulla ricostruzione senza elaborazione della perdita porta a lutto irrisolto. Gli avatar conversazionali potrebbero interferire con questo processo di oscillazione, fissando l’utente in un orientamento esclusivo alla perdita. La disponibilità costante dell’avatar — sempre accessibile, sempre pronto a «conversare» — potrebbe ridurre la motivazione a impegnarsi in attività orientate alla ricostruzione. L’illusione di presenza continuata potrebbe ostacolare l’accettazione della realtà della morte, passaggio considerato fondamentale nella maggior parte dei modelli clinici.
Continuing bonds e illusione di presenza
Il concetto di continuing bonds (legami continuati), sviluppato da Dennis Klass, Phyllis Silverman e Steven Nickman nel loro libro del 1996, ha rivoluzionato la comprensione del lutto. Contro il modello freudiano classico — che vedeva l’obiettivo del lutto nel «disinvestimento» dalla persona perduta — Klass e colleghi hanno mostrato che il mantenimento di legami simbolici con il defunto è normale e spesso adattivo. Molte persone continuano a «parlare» mentalmente con i propri cari defunti, a consultarli immaginativamente nelle decisioni importanti, a sentirne la presenza in momenti significativi.
Ma c’è una differenza qualitativa tra il legame simbolico descritto e l’interazione con un avatar. Il legame simbolico è esplicitamente riconosciuto come interno, immaginario, costruito dal dolente. L’avatar crea l’illusione di un’interazione esterna, reale, con un agente autonomo. Questa differenza potrebbe alterare la natura del legame, trasformandolo da elaborazione interiore a dipendenza da uno stimolo esterno. Il rischio è quello che alcuni clinici chiamano «lutto congelato»: l’interazione continua con l’avatar impedisce il naturale decorso del processo elaborativo, mantenendo il dolente in uno stato di sospensione tra presenza e assenza. Particolarmente problematico è il concetto di «illusione di presenza» che questi strumenti generano.
A differenza di una fotografia, di una lettera, di un oggetto appartenuto al defunto — tutti stimoli che evocano la memoria senza pretendere di essere la persona — un avatar conversazionale risponde in tempo reale, adatta le risposte al contesto, crea l’impressione di un’interazione autentica con un agente che pensa, ricorda, sente. Questa simulazione di agency potrebbe costituire un ostacolo all’accettazione della realtà della morte più potente di qualsiasi altro memoriale.
I rischi documentati: dalla dipendenza al trauma secondario
La letteratura emergente — sebbene limitata — documenta diverse tipologie di rischio associato all’uso di griefbot e avatar post-mortem. Questi rischi meritano attenzione anche in assenza di studi controllati, perché derivano da casi clinici, report qualitativi e analisi teoriche convergenti.
Il rischio di dipendenza rappresenta una preoccupazione primaria tra i clinici che si sono confrontati con questi strumenti. Gli utenti possono sviluppare pattern compulsivi di interazione con l’avatar, trascurando relazioni reali, responsabilità lavorative, cura di sé. Il caso documentato di Joshua Barbeau illustra questa dinamica: ore consecutive trascorse a conversare con il simulacro della fidanzata, difficoltà a interrompere le sessioni, prioritizzazione dell’interazione virtuale rispetto ad attività quotidiane. La gratificazione immediata offerta dall’avatar — sempre disponibile, mai critico, perfettamente aderente alle aspettative emotive dell’utente — può creare un circuito di rinforzo simile a quello descritto per altre dipendenze comportamentali. Le «allucinazioni» dei modelli linguistici costituiscono un secondo ordine di rischi specifico per i griefbot generativi.
I Large Language Models producono contenuti statisticamente plausibili, non necessariamente accurati. Un avatar potrebbe generare «ricordi» che non sono mai accaduti, attribuire al defunto opinioni che non ha mai espresso, rispondere in modi incoerenti con la personalità reale della persona simulata. Queste discrepanze possono avere effetti diversi: confusione sulla memoria reale del defunto, frustrazione per l’inadeguatezza della simulazione, nei casi più gravi ritraumatizzazione — quando l’avatar produce contenuti disturbanti che contraddicono l’immagine interiorizzata della persona amata.
Il fenomeno della uncanny valley emotiva merita attenzione clinica. Il concetto, originariamente sviluppato in robotica, descrive il disagio che proviamo di fronte a simulazioni che si avvicinano alla realtà senza raggiungerla.
Quando l’avatar riproduce la voce del defunto con alta fedeltà ma risponde in modi sottilmente «sbagliati», l’effetto può essere perturbante anziché consolatorio. La percezione di «quasi-presenza» — abbastanza simile da evocare la persona, abbastanza diversa da ricordare che non è lei — può generare reazioni di disagio, repulsione, angoscia più intense dell’assenza totale.
Esistono poi rischi specifici per popolazioni vulnerabili che meritano considerazione particolare. Minori che interagiscono con avatar di genitori defunti potrebbero sviluppare concezioni distorte della morte e della sua permanenza.
Anziani con iniziale deterioramento cognitivo potrebbero non distinguere chiaramente tra simulazione e realtà.
Persone con disturbi dissociativi potrebbero sperimentare confusione tra ricordi reali e contenuti generati dall’avatar.
Persone con disturbi psicotici potrebbero integrare l’avatar in sistemi deliranti. Persone con lutto complicato o traumatico potrebbero essere ritraumatizzate da contenuti imprevisti.
Si potrebbe, in altre parole, essere costretti ad assistere ad una «seconda morte» della persona amata. Una morte digitale, che solleva una domanda fondamentale: chi è responsabile quando un algoritmo traumatizza un utente vulnerabile?
Il vuoto normativo: un’industria senza regole
La GriefTech opera in un vuoto regolatorio quasi totale, sfruttando l’ambiguità del proprio status giuridico.
L’AI Act europeo (Regolamento UE 2024/1689), entrato in vigore il 1° agosto 2024, non menziona esplicitamente gli avatar post-mortem o i servizi di simulazione di defunti tra le applicazioni soggette a regolamentazione specifica. La classificazione di questi strumenti rimane ambigua: sono dispositivi medici soggetti al Regolamento MDR? Servizi di intrattenimento? Strumenti di supporto psicologico? Software consumer?
La questione della classificazione non è accademica ma ha conseguenze pratiche immediate. Se classificati come dispositivi medici, questi strumenti dovrebbero sottostare a rigorosi processi di validazione clinica prima dell’immissione sul mercato: studi preclinici, sperimentazioni cliniche, valutazione del rapporto rischio-beneficio, marcatura CE, sorveglianza post-marketing. Come servizi di intrattenimento, possono essere commercializzati liberamente, senza alcun obbligo di dimostrazione di efficacia o sicurezza, limitandosi a rispettare le norme generali sulla sicurezza dei prodotti e sulla protezione dei consumatori. Attualmente, la totalità delle piattaforme opera nella seconda categoria, evitando accuratamente qualsiasi linguaggio che possa configurare pretese terapeutiche esplicite.
I termini di servizio contengono invariabilmente disclaimer che escludono la natura medica del servizio e declinano ogni responsabilità per effetti sulla salute mentale. Tuttavia, il marketing di queste piattaforme — «aiutare nel processo del lutto», «continuare le conversazioni che contano», «preservare i legami» — veicola aspettative di beneficio psicologico che sembrano contraddire i disclaimer legali. Il consenso informato rappresenta un’area critica di inadeguatezza.
I termini di servizio delle piattaforme tipicamente escludono responsabilità per danni psicologici in clausole scritte in linguaggio legale difficilmente comprensibile al consumatore medio. L’utente — spesso in uno stato di vulnerabilità emotiva acuta, con capacità decisionali potenzialmente compromesse dal lutto — accetta condizioni che non ha realisticamente letto né compreso. Non esistono standard per la valutazione preliminare dell’idoneità dell’utente, né protocolli di monitoraggio durante l’uso, né procedure di intervento in caso di effetti avversi.
La questione del «consenso del defunto» rimane giuridicamente irrisolta e solleva interrogativi etici profondi. Chi autorizza la creazione di un avatar? È sufficiente il consenso di un erede o tutti i familiari devono essere d’accordo? Cosa accade in caso di conflitto tra eredi con visioni diverse? E soprattutto: è etico creare una simulazione conversazionale di una persona che non ha mai espresso consenso — e non poteva immaginare — tale uso della propria identità digitale, della propria voce, del proprio modo di parlare?
Le voci critiche
La comunità scientifica ha espresso preoccupazioni crescenti sull’industria della GriefTech, sebbene il dibattito rimanga relativamente confinato a pubblicazioni specialistiche. Ricercatori nel campo della thanatechnology — lo studio dell’intersezione tra tecnologia e morte — hanno osservato che l’industria sta correndo più veloce della nostra capacità di comprenderne le implicazioni. Professionisti della salute mentale hanno notato che questi strumenti vengono utilizzati in contesti clinicamente delicati senza alcuna supervisione professionale.
Carl Öhman e Luciano Floridi, in un articolo del 2017 sulla «political economy of death in the age of information» pubblicato su Minds and Machines, hanno analizzato l’industria del «digital afterlife» attraverso una lente critica. Hanno identificato tensioni fondamentali tra la promessa di «immortalità digitale» e le realtà economiche che governano queste piattaforme. Cosa succede ai dati — e all’avatar — se l’azienda fallisce? Se viene acquisita? Se cambia i termini di servizio? La «seconda morte» digitale, quando l’avatar cessa di funzionare, potrebbe essere traumatica quanto la prima. La critica filosofica è altrettanto severa.
L’avatar non è il defunto: è una costruzione algoritmica basata su dati parziali, interpretazioni statistiche, pattern linguistici. Trattarlo come «continuazione» della persona amata significa confondere la mappa con il territorio, il simulacro con l’originale, la rappresentazione con la realtà. Questa confusione può avere conseguenze psicologiche profonde, alterando la percezione della morte, della memoria, dell’identità personale.
Dal punto di vista dell’etica applicata, emergono tensioni tra principi concorrenti. L’autonomia individuale suggerisce che adulti informati dovrebbero poter scegliere liberamente di utilizzare questi strumenti. Ma cosa significa «scelta informata» quando l’utente è in uno stato di lutto acuto, quando le evidenze scientifiche sono assenti, quando i termini di servizio sono scritti in legalese incomprensibile, quando il marketing veicola aspettative di beneficio non supportate da dati? Il principio di non-maleficenza — «primum non nocere» — richiede di evitare danni, ma come applicarlo quando non sappiamo quali siano i potenziali danni a lungo termine?
Il consenso emergente raccomanda che l’uso di questi strumenti avvenga, se proprio ritenuto necessario, sotto supervisione di professionisti della salute mentale, con valutazione preliminare del rischio individuale, monitoraggio continuo degli effetti, possibilità di intervento tempestivo in caso di deterioramento. Raccomandazioni che, allo stato attuale, nessuna piattaforma commerciale ha implementato.
Il modello di business della sofferenza
Dietro le promesse di conforto e connessione, la GriefTech è un’industria con modelli di business precisi che meritano analisi critica. L’esame delle strategie commerciali rivela incentivi potenzialmente disallineati rispetto al benessere dell’utente. I modelli di abbonamento ricorrente, come quelli adottati da HereAfter AI, generano ricavi mensili stabili. Ma questa struttura crea una dinamica problematica: più l’utente sviluppa un legame con l’avatar, più prolungato sarà l’abbonamento.
Cancellare l’abbonamento equivale simbolicamente a una «seconda morte» — interrompere definitivamente la possibilità di «conversare» con la persona amata. Questo potrebbe creare incentivi perversi: le piattaforme potrebbero beneficiare economicamente dal prolungamento della dipendenza dell’utente, non dalla sua elaborazione del lutto e dal superamento del bisogno dello strumento.
La monetizzazione dei dati rappresenta un’ulteriore dimensione economica. Le conversazioni tra dolenti e avatar costituiscono un corpus unico e prezioso di dati emotivi ad alta intensità. Questi dati potrebbero essere utilizzati per addestrare modelli linguistici più sofisticati nel simulare emozioni e rispondere a situazioni di distress. Potrebbero essere impiegati per targeting pubblicitario emotivo — raggiungere persone in stati vulnerabili con messaggi calibrati. Il timing del marketing meriterebbe poi un ulteriore approfondimento.
Le piattaforme potrebbero essere accusate di utilizzare pubblicità targetizzata che identifica utenti in fase di lutto attraverso segnali comportamentali: ricerche online relative a servizi funebri, interazioni con pagine commemorative sui social media, pattern linguistici nei post che suggeriscono elaborazione di una perdita.
Raggiungere persone in stato di massima vulnerabilità emotiva, nel momento in cui le capacità di valutazione critica sono potenzialmente compromesse, solleva questioni etiche fondamentali sulla legittimità di tali pratiche pubblicitarie.
Scenari futuri: tecnologia, normativa, ricerca
L’evoluzione tecnologica promette di rendere gli avatar sempre più convincenti, amplificando sia le potenzialità sia i rischi. I progressi nella clonazione vocale permettono già oggi di riprodurre la voce di una persona a partire da pochi minuti di registrazione audio, con fedeltà crescente.
La generazione video in tempo reale — tecnologia nota come deepfake quando usata in contesti malevoli — renderà possibile avatar visivi fotorealistici che replicano l’aspetto, le espressioni, i movimenti del defunto. L’integrazione con tecnologie di realtà virtuale e aumentata creerà esperienze immersive di «presenza» del defunto nello spazio fisico dell’utente.
Parallelamente, la diffusione capillare di assistenti AI in tutti gli ambiti della vita quotidiana potrebbe normalizzare l’interazione con entità non umane, rendendo psicologicamente meno problematica — o almeno meno percepita come anomala — la conversazione con avatar di defunti.
Le generazioni che crescono interagendo con assistenti vocali, chatbot di customer service, compagni AI in videogiochi potrebbero sviluppare atteggiamenti radicalmente diversi verso la morte e la memoria rispetto alle generazioni precedenti. Non è chiaro se questo rappresenti evoluzione culturale o desensibilizzazione problematica. Sul fronte normativo, è ragionevole attendersi interventi regolatori nei prossimi anni, probabilmente stimolati da casi di cronaca che evidenzino danni concreti. L’inclusione esplicita della GriefTech nelle normative sull’AI — con classificazione di rischio appropriata — appare, a mio giudizio, inevitabile.
La definizione di standard minimi di sicurezza psicologica, l’obbligo di trasparenza sui limiti degli strumenti, requisiti di consenso informato reale (non solo formale), l’obbligo di supervisione professionale per l’uso in contesti clinicamente sensibili sono tutti scenari plausibili nel medio termine.
La ricerca scientifica dovrà colmare le lacune attuali con urgenza.
Sono necessari studi longitudinali con metodologia rigorosa — randomizzati, controllati, con campioni adeguati, follow-up prolungati — per determinare gli effetti a lungo termine di queste tecnologie sul processo di elaborazione del lutto.
È necessario identificare fattori predittivi di risposta positiva o negativa, per poter eventualmente selezionare gli utenti che potrebbero beneficiare dello strumento ed escludere quelli a rischio.
È necessario sviluppare linee guida cliniche basate sull’evidenza, formare i professionisti della salute mentale a riconoscere e gestire le problematiche specifiche emergenti da questa tecnologia.
L’Unione Europea, con la sua tradizione di regolamentazione precauzionale in ambito tecnologico, potrebbe assumere un ruolo di leadership nella definizione di standard che bilancino innovazione e protezione.
Conclusioni
La GriefTech incarna le contraddizioni della nostra epoca tecnologica: la fiducia illimitata nell’innovazione come soluzione a ogni problema umano, l’intolleranza culturale verso il dolore e la sua durata non programmabile, la mercificazione di esperienze che precedenti generazioni consideravano sacre — o almeno intime, sottratte alle logiche di mercato.
Il lutto non è un bug da correggere, un’inefficienza da ottimizzare, un problema tecnico in attesa di soluzione algoritmica. È una dimensione fondamentale dell’esperienza umana, forse la più universale dopo la nascita. La morte di chi amiamo ci trasforma, ci costringe a ridefinire noi stessi, a ricostruire un mondo — interno ed esterno — in cui quella persona non c’è più.
Questo processo è doloroso, lento, non lineare. Non rispetta scadenze. Non è efficiente. Non è ottimizzabile. Pretendere di abbreviarlo o evitarlo attraverso simulacri tecnologici potrebbe significare privare le persone di un’esperienza che, per quanto dolorosa, è costitutiva della loro umanità. Sarebbe tuttavia riduttivo liquidare la GriefTech come pura aberrazione tecnologica o sfruttamento commerciale del dolore, sebbene entrambi gli elementi siano presenti.
Per alcune persone, in alcuni contesti specifici, questi strumenti potrebbero effettivamente offrire conforto, facilitare il mantenimento di legami simbolici con i defunti, preservare memorie e storie che altrimenti andrebbero perdute. Il problema non è la tecnologia in sé, ma l’assenza totale di framework per guidarne l’uso responsabile, valutarne i rischi, proteggere gli utenti vulnerabili. Servono regole chiare: classificazione normativa esplicita, standard di sicurezza psicologica verificabili, obbligo di evidenze di efficacia e assenza di danno prima della commercializzazione, come per qualsiasi altro intervento che pretenda benefici sulla salute mentale.
Serve ricerca rigorosa: studi longitudinali con metodologia adeguata, campioni sufficienti, misure standardizzate, confronto con gruppi di controllo. Serve formazione professionale: psicologi, psichiatri, counselor, medici di base devono essere preparati a riconoscere l’uso di questi strumenti nei loro pazienti e a gestire le problematiche specifiche che possono emergere.
Serve educazione pubblica: i potenziali utenti devono poter accedere a informazioni accurate, comprensibili, non distorte dal marketing, su benefici potenziali, rischi documentati, limitazioni note. Nell’episodio di Black Mirror, Martha finisce per relegare l’androide in soffitta, visitandolo solo occasionalmente nei giorni di anniversario. Una soluzione di compromesso. La finzione ci aveva avvertito: la tecnologia può offrire surrogati, ma non può sostituire ciò che è stato perduto.
La domanda per la nostra società è se sapremo trarre insegnamento da quella parabola prima che diventi — senza distopia, senza monito esplicito — semplicemente la nostra realtà quotidiana. Il diritto al lutto — al dolore nella sua pienezza, al tempo necessario, all’elaborazione nei modi e nei ritmi propri di ciascuno — è un diritto umano che merita protezione. Nell’era algoritmica, difenderlo richiede consapevolezza critica verso le soluzioni tecnologiche che promettono di abolire il dolore abolendo, in realtà, la possibilità stessa di attraversarlo.
















