gemelli digitali cognitivi

Il digital twin non copia più motori: ora simula pazienti, cervelli e lavoratori



Indirizzo copiato

I digital twin non riguardano più solo macchine, edifici e impianti industriali. Dalla ricerca biomedica di Harvard agli studi sul cervello di Stanford fino alle applicazioni aziendali, la replica computazionale della persona apre interrogativi profondi su consenso, identità, responsabilità e controllo

Pubblicato il 13 mag 2026

Walter Tripi

Innovation Manager



digital twin del cittadino Digital Twin marketing Digital twin cognitivi
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’idea originale del digital twin è industriale, pragmatica, tutto sommato rassicurante: costruire una copia virtuale di un oggetto fisico – un motore, un reattore, un edificio – per simularne il comportamento senza dover intervenire sul sistema reale. Testare scenari critici senza rischi, ottimizzare consumi senza sperimentare su impianti in funzione, prevedere guasti prima che accadano.

Per decenni il digital twin è rimasto in questo perimetro: la replica di cose. Utile, sofisticato, persino elegante dal punto di vista ingegneristico, ma fondamentalmente privo di implicazioni filosofiche, se non legate a una molto operativa differenza tra realtà e simulazione che però, parliamoci chiaro, è sempre parte stessa dell’attività formativa. Nessuno comunque si chiede se una turbina abbia diritti.

Ecco, tutta questa premessa cambia radicalmente quando il soggetto della simulazione non è più un oggetto, ma un essere umano. O, per avvicinarsi gradualmente: un cervello. Siamo ancor più precisi: la replica computazionale dei pattern con cui quel cervello funziona, ragiona, ricorda, risponde.

È il passaggio che sta avvenendo in questo momento, in parallelo su più fronti: la ricerca biomedica, le neuroscienze, il mondo del lavoro. Tre contesti apparentemente distanti, accomunati da una stessa scommessa: costruire qualcosa che “si comporta come” una persona reale.

Vale la pena esaminarlo da vicino, perché le implicazioni sono molto più profonde dell’entusiasmo iniziale.

Harvard: simulare il paziente per capire la malattia

A Harvard, la ricercatrice Hiroko Dodge, direttrice di ricerca al Massachusetts General Hospital e professoressa alla Harvard Medical School, utilizza i digital twin per costruire chatbot capaci di replicare i pattern conversazionali di ciascun paziente coinvolto nei suoi studi sull’Alzheimer. L’obiettivo è misurare gli effetti della conversazione sulla cognizione, e per farlo serve un sistema che possa riprodurre il modo di parlare, di rispondere, di organizzare il pensiero di ogni singolo individuo nel tempo. Una copia digitale che non sostituisce il paziente, ma lo simula abbastanza da permettere confronti statistici affidabili.

In parallelo, Marinka Zitnik, professore associato di informatica biomedica alla Harvard Medical School e ricercatrice al Kempner Institute for the Study of Natural and Artificial Intelligence, ha sviluppato COMPASS, uno strumento che costruisce digital twin a scala cellulare integrando dati omici e dati clinici personalizzati. Il medico, in questo schema, può letteralmente conversare con una versione sintetica delle cellule del proprio paziente: chiedere quale sia la probabilità di risposta a un farmaco immunologico specifico, e ricevere un’analisi contestualizzata su quell’individuo, non su una media statistica di migliaia.

Come ha spiegato Zitnik alla Harvard Gazette, questa possibilità è diventata concreta solo con l’avvento dei large language model: “Non sarebbe stato possibile dieci anni fa.” Oggi esistono le condizioni tecniche. Le domande che restano aperte sono relative a che cosa significhi fare tutto ciò, cosa implichi e a chi debba eventualmente autorizzare la creazione di una replica che, nei fatti, è umana.

Stanford: quando il modello sa come risponde ogni neurone

A Stanford, il terreno è ancora più sofisticato. In uno studio pubblicato su Nature lungo lo scorso anno, il professor Andreas Tolias e i suoi collaboratori hanno costruito un digital twin della corteccia visiva del topo, ovvero la parte del cervello che elabora le informazioni visive. Il modello è stato addestrato su ore di registrazioni dell’attività neurale di topi reali mentre guardavano film d’azione, e una volta completato l’addestramento è risultato in grado di prevedere come decine di migliaia di neuroni avrebbero risposto a stimoli completamente nuovi, mai visti prima.

Il modello è un foundation model, la stessa classe di architetture che sta alla base dei grandi modelli linguistici, ma addestrato non su testo, bensì su dati cerebrali. Può generalizzare a scenari fuori dalla distribuzione del training, inferire la posizione anatomica e il tipo cellulare di singoli neuroni. Quando queste previsioni sono state verificate con immagini al microscopio elettronico dello stesso topo, la corrispondenza era di precisione sorprendente.

“Se costruisci un modello del cervello sufficientemente accurato, puoi fare molti più esperimenti”, ha dichiarato Tolias. “E gli esperimenti più promettenti puoi poi testarli nel cervello reale.” L’ambizione dichiarata è di arrivare, in futuro, a costruire digital twin di parti del cervello umano. La promessa è enorme: sperimentare in ore ciò che richiederebbe anni, senza dover intervenire su organismi viventi.

È una frontiera che non ha ancora attraversato la soglia di un dilemma etico assoluto, ma la traiettoria non sembra discostarsi da questa fine.

In azienda: il collega che non si stanca mai

Mentre la ricerca biomedica procede sul fronte neurologico, il mondo del lavoro sta sviluppando la propria versione del digital twin cognitivo, molto più immediata e già operativa. Il meccanismo è semplice nella sua premessa: costruire un sistema che abbia accesso a tutto ciò che un dipendente ha scritto, detto, deciso, nel corso della sua vita lavorativa – email, messaggi, documenti, verbali – e lo renda interrogabile dai colleghi come se fosse il diretto interessato.

Sono già nate piattaforme AI che funzionano esattamente in questo modo: ingeriscono l’intera attività digitale di un dipendente attraverso Microsoft Graph o Google, costruiscono un modello della sua conoscenza, delle sue modalità operative e della sua “persona”, e permette ai colleghi di interrogare il twin direttamente. Ogni twin apparirebbe come una rappresentazione digitale della conoscenza e della persona: se hai bisogno di un esperto ma sei nel bel mezzo della notte, potresti comunque ottenere un’ottima risposta dal suo digital twin.

Il problema del confine: chi è davvero quel “tu”?

Tra la turbina simulata e la persona simulata le differenze sono evidentemente intuibili, e ci sono sulla differenza di natura ma anche, più freddamente, sulla complessità tecnica.

Una turbina non ha storia personale, non ha relazioni, non porta il peso di esperienze che la rendono irriducibilmente sé stessa. Una persona sì. E quando costruiamo una replica computazionale di come una persona pensa, risponde, organizza il linguaggio, stiamo necessariamente operando una selezione. Stiamo catturando una proiezione: quella che emerge da email di lavoro, da trascrizioni di meeting, da pattern linguistici rilevati in contesti specifici. Quella proiezione non è la persona, ma risponde come se lo fosse.

Certo, c’è una parte di rischio puramente tecnica: che la replica dica cose sbagliate, o che fraintenda il contesto. Ma andiamo oltre: c’è la possibilità che la replica sia abbastanza plausibile da essere creduta, e che la persona reale perda gradualmente il controllo su ciò che la propria “versione digitale” afferma, promette, orienta? Chi è responsabile se il digital twin di un dipendente consiglia male un collega? Chi ha autorizzato che quella particolare interpretazione della persona diventasse pubblica all’interno dell’organizzazione?

Le risposte oggi non esistono. Il quadro normativo non ha ancora sviluppato strumenti adeguati. Il GDPR europeo fornisce alcune protezioni sul trattamento dei dati personali, ma la questione del twin cognitivo, in cui il “dato” non è un numero o un file, ma una simulazione del modo di ragionare di qualcuno, eccede le categorie attuali.

Identità, consenso e il paradosso della replica

C’è poi una dimensione che non è legale né tecnica, ma va più in profondità: quella dell’identità. Cosa significa che esiste una replica di me che risponde al posto mio?

Andiamo oltre l’astratto. Nel contesto dell’Alzheimer, per esempio, il digital twin di un paziente potrebbe sopravvivere alla capacità del paziente stesso di esprimersi coerentemente. Chi gestisce quel twin quando il soggetto originale non è più in grado di acconsentire o dissentire? Può la replica essere aggiornata postuma, estesa, usata per scopi diversi da quelli originali? La persona che ha costruito il suo digital twin a cinquant’anni ha autorizzato implicitamente tutto ciò che quella replica farà a settant’anni?

In azienda, la questione si pone in termini diversi ma ugualmente urgenti. Il twin di un dipendente esiste all’interno di un’architettura di potere organizzativo. Chi ha accesso a ciò che viene chiesto al twin? Chi può consultare le domande fatte a me, senza che io sappia cosa mi viene chiesto e cosa rispondo?

C’è poi il paradosso più profondo: una replica che funziona troppo bene rischia di produrre un effetto di sostituzione. Se il twin risponde sempre, se lo fa in modo plausibile, se i colleghi lo consultano più spesso del diretto interessato perché è disponibile h24 e non si stanca, cosa accade alla persona reale? Non viene rimpiazzata tecnicamente, certo, è ancora lì, fa ancora il suo lavoro.

Potrebbe però rischiare di essere una sorta di “addestratore” di un altro sé, più che la fonte diretta, non mediata, della propria conoscenza e del proprio giudizio.

Il discorso che i gemelli digitali industriali non obbligano a fare, perché nessuna turbina ha un’identità da proteggere, diventa inevitabile quando il soggetto simulato è una persona. E l’urgenza di farlo cresce in modo direttamente proporzionale alla sofisticazione della replica.

Una frontiera che chiede più che ingegneria

I digital twin cognitivi rappresentano probabilmente uno dei fronti più interessanti e meno discussi dell’intelligenza artificiale contemporanea. La ricerca di Stanford segna un avanzamento reale nella comprensione del cervello. Il lavoro di Harvard apre strade concrete verso una medicina personalizzata che oggi non esiste. Le applicazioni aziendali risolvono problemi operativi reali.

Ma è precisamente quando la tecnologia funziona che le domande si fanno più urgenti, ed è il filo rosso di tutta questa grande corsa a tecnologie sempre più potenti e impattanti: una corsa che non permette di soffermarsi a riflettere. Nel continuare a correre, non stiamo discutendo di possibilità future, ma di scelte che qualcuno sta già facendo, su di noi, con o senza il nostro consenso consapevole.

Chi decide i confini di questa replica? Chi stabilisce per quanto tempo esiste, chi può interrogarla, in quali contesti, con quali finalità? Chi risponde se la replica dice qualcosa che noi non avremmo mai detto?

Parliamo di una frontiera sì tecnologica, ma anche di governance, di diritto e, prima ancora, di comprensione condivisa di cosa significhi la nostra unicità come persone. Costruire un twin che “pensa come me” senza rispondere a queste domande rischia di diventare un debito che stiamo contraendo con noi stessi e con l’umanità, e che prima o poi saremo chiamati a saldare in una qualche maniera.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x