In questi giorni Meta ha pubblicato TRIBE v2, un foundation model trimodale capace di predire con alta precisione l’attività cerebrale umana in risposta a stimoli visivi, sonori e linguistici, con impatti sulla neuroscienza.
Il modello, sviluppato dal team FAIR di Meta e addestrato su oltre 1.100 ore di scansioni fMRI di 720 soggetti, segna un salto tecnico significativo: risoluzione 70 volte superiore ai predecessori, generalizzazione zero-shot su soggetti e lingue mai visti, capacità di replicare in simulazione decenni di risultati sperimentali della neuroscienza classica.
Se volete i dettagli tecnici del paper, li trovate nell’analisi pubblicata su questo sito. Qui voglio fare una cosa diversa: usare TRIBE v2 come punto di partenza per guardare più lontano. Perché questo tipo di sviluppo non è un episodio isolato. È un segnale in una serie. E la serie, letta nel suo insieme, dice qualcosa di importante su dove stiamo andando.
Indice degli argomenti
Perché TRIBE v2 cambia la scala della neuroscienza
Il modo sbagliato di leggere TRIBE v2 è come un prodotto. Il modo giusto è come infrastruttura, nel senso letterale del termine: qualcosa che sta sotto, che abilita ciò che viene costruito sopra.
Per capire la differenza, vale la pena ricordare cosa successe con AlphaFold2 nel 2020. DeepMind risolse il problema del folding proteico, la previsione della struttura tridimensionale delle proteine a partire dalla sequenza aminoacidica, dopo cinquant’anni in cui la comunità scientifica ci lavorava. In due anni da quel rilascio, la biologia strutturale fu radicalmente ridisegnata: nuovi target terapeutici, nuovi strumenti di drug discovery, nuova velocità nei progetti di ricerca. AlphaFold non era un prodotto. Era un’infrastruttura che sbloccava un intero campo.
TRIBE v2 appartiene alla stessa categoria logica, applicata alla neuroscienza cognitiva. Non risolve la mente umana, sarebbe ridicolo dirlo. Ma costruisce qualcosa che non esisteva: un modello unificato, generalizzabile, ad alta risoluzione, che mette in relazione stimoli multimodali complessi con l’attività cerebrale misurabile. È la prima infrastruttura computazionale seria per fare neuroscienza a scala.
La svolta della sperimentazione in silico
Il concetto che vale più di qualsiasi numero nel paper è quello di in-silico neuroscience. In vivo significa su esseri viventi. In vitro in laboratorio. In silico nel computer, per simulazione.
Quello che TRIBE v2 abilita è la possibilità di testare ipotesi sul funzionamento cerebrale senza dover portare ogni volta persone dentro una macchina fMRI. Gli esperimenti in silico non sostituiscono quelli reali. Li precedono, li filtrano, li progettano meglio. Le ipotesi meno promettenti vengono scartate prima di consumare risorse sperimentali preziose. Quelle più solide arrivano in laboratorio già raffinate.
Per chi non conosce il ritmo della ricerca neurologica, il punto non è ovvio. Un singolo studio con fMRI richiede mesi di preparazione, reclutamento di soggetti, ore di scanner a costi elevati, preprocessing dei dati, analisi. Il ciclo di un’ipotesi dalla formulazione alla verifica dura anni. Se una parte di quel ciclo può essere spostata in silico, la velocità della scoperta cambia ordine di grandezza.
Questo non è teorico. TRIBE v2 lo dimostra già: testato su paradigmi classici della neuroscienza visiva e del linguaggio, il modello recupera autonomamente risultati che la comunità scientifica ha costruito in decenni. Risultati noti, ritrovati da un sistema che non li ha mai studiati nel senso tradizionale del termine.
Come TRIBE v2 conferma la convergenza neurotech
TRIBE v2 è il pezzo più visibile di una convergenza in atto da alcuni anni, che coinvolge attori molto diversi e che si muove su più fronti simultaneamente.
Sul versante della ricerca pura, il progetto Courtois NeuroMod, il dataset su cui Meta ha addestrato il modello, è finanziato da un filantropo canadese ed è uno dei più grandi dataset di neuroimaging naturalistico mai costruiti. Il fatto che Meta lo abbia usato come fondamento di TRIBE v2 dimostra che la ricerca computazionale di frontiera si nutre di infrastrutture dati costruite da decenni di lavoro accademico.
Sul versante dell’industria, Neuralink ha già impiantato interfacce cervello-computer su soggetti umani. Synchron, concorrente meno rumorosa ma scientificamente solida, ha ottenuto risultati analoghi con tecnologie meno invasive. BrainGate, consorzio accademico, lavora su questi temi da vent’anni. La direzione è chiara: il confine tra cervello e sistemi digitali si sta assottigliando, da entrambe le parti.
Sul versante del software, oltre a Meta, Google DeepMind lavora su modelli di brain decoding da anni. Startup come Kernel hanno costruito dispositivi di neuroimaging indossabili. Il mercato globale della neurotecnologia, oggi stimato intorno ai 15 miliardi di dollari, è proiettato a una crescita sostenuta per il prossimo decennio. TRIBE v2, in questo quadro, non è un’anomalia. È una conferma di direzione.
Le ricadute più concrete per la neurologia clinica
L’applicazione più concreta e meno controversa di questa traiettoria riguarda la neurologia clinica. Le malattie neurologiche, Alzheimer, Parkinson, epilessia, sclerosi multipla, disturbi dello sviluppo, colpiscono oggi circa un miliardo di persone nel mondo. Sono la principale causa di disabilità a livello globale. La diagnosi è lenta, spesso tardiva, costosa e dipendente da specialisti scarsi.
Diagnosi precoce, monitoraggio e trial clinici
Un modello capace di predire e simulare risposte cerebrali a stimoli standardizzati apre tre direzioni concrete. La prima è la diagnosi precoce: se il modello sa come risponde un cervello sano a certi stimoli, le deviazioni da quel pattern diventano potenzialmente rilevabili prima che i sintomi clinici emergano. La seconda è il monitoraggio longitudinale: invece di misurare con fMRI a intervalli rari e costosi, si possono costruire proxy più economici calibrati sul modello. La terza è il design dei trial clinici: simulare in silico gli effetti cerebrali attesi di un intervento farmacologico riduce il numero di esperimenti necessari per individuare i candidati più promettenti.
Nessuno di questi benefici è immediato. Ma la traiettoria è quella, e TRIBE v2 è un passo in quella direzione.
Perché TRIBE v2 rende urgenti regole e scenari futuri
C’è un aspetto di questa convergenza che mi sembra ancora sottovalutato nel dibattito pubblico, e che TRIBE v2 rende più concreto.
Meta dichiara esplicitamente, nel blog di annuncio, che uno degli obiettivi del progetto è usare gli insight del cervello umano per costruire sistemi di intelligenza artificiale migliori. Non è retorica. È un programma di ricerca.
Il cervello umano è il prodotto di milioni di anni di ottimizzazione evolutiva per processare informazione sensoriale, integrare segnali eterogenei, formare rappresentazioni concettuali, pianificare azioni. I sistemi di AI attuali si ispirano vagamente all’architettura neurale, ma non la studiano davvero. TRIBE v2 apre la possibilità di fare il contrario: capire come il cervello organizza l’integrazione multisensoriale, e usare quella conoscenza per progettare architetture artificiali più efficienti.
Questo loop, AI studia il cervello, il cervello migliora l’AI, è potenzialmente uno dei driver più significativi della prossima fase di sviluppo dell’intelligenza artificiale. Non perché il cervello sia il modello da imitare, ma perché è l’unico sistema che sappiamo funzionare. Imparare da come funziona sembra più promettente che ignorarlo.
Il nodo europeo dei neurodiritti
Tutto questo si sviluppa in un contesto regolatorio impreparato. E qui il discorso cambia registro, perché Agenda Digitale si occupa di politiche, non solo di tecnologia.
Il Consiglio d’Europa ha adottato nel 2024 la prima Convenzione internazionale sull’intelligenza artificiale. L’Unione Europea ha approvato l’AI Act. Ma nessuno dei due strumenti affronta in modo specifico la neurotecnologia, i neurodati, o le implicazioni di sistemi capaci di modellare l’attività cerebrale umana.
Il Cile è stato il primo paese al mondo a inserire in Costituzione il concetto di neurodiritti, il diritto all’identità mentale, alla privacy cognitiva, alla libertà di pensiero contro manipolazioni tecnologiche. Brasile e Messico stanno discutendo legislazioni simili. UNESCO ha pubblicato nel 2023 una raccomandazione sull’etica della neurotecnologia. L’Europa, che pure guida su molti fronti regolatori dell’AI, è assente su questo specifico terreno.
La questione non è accademica. Man mano che i modelli di brain encoding diventano più accurati e accessibili, i neurodati diventano un asset con valore commerciale, diagnostico e, potenzialmente, manipolativo. Un sistema che predice come il cervello risponde a un contenuto audiovisivo è utile per la ricerca neurologica. Ma è anche potenzialmente utile per ottimizzare contenuti pubblicitari, per testare messaggi politici, per calibrare sistemi di raccomandazione sulla risposta neurale, non solo sul click.
Non siamo ancora a quel punto. Ma la traiettoria tecnica è chiara, e il gap regolatorio è reale. L’Europa che vuole guidare sul digitale dovrebbe iniziare a fare questa conversazione ora, non quando i sistemi saranno già operativi.
AI e neuroscienza, gli scenari del prossimo decennio
Se proviamo a guardare avanti di dieci anni con questa traiettoria in mente, lo scenario plausibile non è quello fantascientifico della mente letta come un libro. È qualcosa di più sottile e, per certi versi, più trasformativo.
I foundation model per il cervello diventeranno infrastruttura condivisa della ricerca neuroscientifica, come i database genomici lo sono diventati per la biologia molecolare dopo il Progetto Genoma Umano. La sperimentazione in silico accelererà la ricerca su malattie neurologiche, riducendo i costi e aumentando la capacità di personalizzare le terapie. Le interfacce cervello-computer diventeranno dispositivi medici diffusi per alcune categorie di pazienti.
Il confine tra neuroscienze e AI continuerà ad assottigliarsi. Non nel senso che l’AI diventerà come il cervello umano, ma nel senso che le due discipline si studieranno a vicenda in modo sempre più produttivo. I modelli impareranno dal cervello, e il cervello sarà compreso anche attraverso i modelli.
E la governance di tutto questo, chi possiede i dati neurali, chi decide cosa si può fare con essi, quali diritti proteggono la sfera cognitiva degli individui, diventerà una delle questioni politiche più rilevanti del prossimo decennio.
TRIBE v2 non è la risposta a nessuna di queste domande. È il segnale che le domande diventano urgenti. E il momento per affrontarle non è quando i sistemi saranno già maturi. È adesso.
Le fonti richiamate nel testo
• Meta AI Blog: “Introducing TRIBE v2: A Predictive Foundation Model”, ai.meta.com/blog/tribe-v2-brain-predictive-foundation-model
• Paper ufficiale: “A foundation model of vision, audition, and language for in-silico neuroscience”, ArXiv, 26 marzo 2026
• Demo interattiva: aidemos.atmeta.com/tribev2
• Analisi tecnica dettagliata: pubblicata su questo sito
• UNESCO, “Ethics of neurotechnology”, 2023
• Consiglio d’Europa, Convenzione internazionale sull’intelligenza artificiale, 2024











