neuroscienze

Percezione, linguaggio e memoria: che legame c’è? Nuovi studi riservano sorprese

Forse la memoria non è così guidata visivamente come pensavamo. Forse è più astratta, più semantica, più linguistica. Uno studio recente ci riserva delle sorprese su come si sviluppa la conoscenza astratta del mondo da parte degli umani

18 Mar 2022
Sandro Incerti

Università Campus Bio-Medico di Roma

Spesso pensiamo alla memoria come a una replica del passato, una duplicazione mentale di eventi e sensazioni che abbiamo vissuto.

Nel cervello, sarebbe simile agli stessi schemi di attività neurale che vengono nuovamente espressi: ricordare il viso di una persona, ad esempio, potrebbe attivare gli stessi schemi neurali di quelli per vedere il suo viso. E in effetti, in alcuni processi di memoria, si verifica qualcosa del genere.

Ma negli ultimi anni, i ricercatori hanno ripetutamente trovato differenze sottili ma significative tra le rappresentazioni visive e della memoria, con quest’ultima che si manifesta costantemente in posizioni leggermente diverse nel cervello. Gli scienziati non erano sicuri di cosa fare di questo spostamento: quale funzione svolgeva e cosa significava per la natura della memoria stessa?

Un’IA a “immagine e somiglianza” del nostro cervello? La sfida è possibile

Ora, potrebbero aver trovato una risposta: in una ricerca incentrata sul linguaggio piuttosto che sulla memoria. Questo vero confine individuato fisicamente nel cervello sembra riflettere un principio organizzativo generale. Un team di neuroscienziati ha creato una mappa semantica del cervello che ha mostrato con notevole dettaglio quali aree della corteccia rispondono alle informazioni linguistiche su un’ampia gamma di concetti, dai volti e luoghi alle relazioni sociali e ai fenomeni meteorologici. Quando hanno confrontato quella mappa con una che hanno realizzato mostrando dove il cervello rappresenta categorie di informazioni visive, hanno osservato differenze significative tra i modelli. E quelle differenze sembravano esattamente come quelle riportate negli studi sulla visione e sulla memoria.

La scoperta, pubblicata lo scorso ottobre su Nature Neuroscience, suggerisce che in molti casi un ricordo non è un facsimile di percezioni passate che viene riprodotto. Piuttosto, è più simile a una ricostruzione dell’esperienza originale, basata sul suo contenuto semantico. Questa intuizione potrebbe aiutare a spiegare perché la memoria è così spesso una registrazione così imperfetta del passato e potrebbe fornire una migliore comprensione di cosa significhi veramente ricordare qualcosa.

Un mosaico del significato

Il nuovo lavoro sulla semantica era completamente indipendente dal lavoro sulla memoria: i due si svolgevano più o meno nello stesso periodo ma su lati opposti degli Stati Uniti. Nel 2012, Jack Gallant, neuroscienziato computazionale e cognitivo presso l’Università della California, a Berkeley, aveva trascorso la maggior parte di un decennio a sviluppare strumenti e modelli funzionali di risonanza magnetica per lo studio del sistema visivo umano. Poiché le macchine fMRI possono misurare i cambiamenti nel flusso sanguigno e nell’attività elettrica nel cervello, i neuroscienziati spesso le usano per studiare quali parti della corteccia rispondono a stimoli diversi.

WHITEPAPER
Come cambia il Retail tra ecommerce, piccoli rivenditori e la spinta al cashless

Alex Huth, neuroscienziato dell’Università del Texas ad Austin, studia come il cervello rappresenti il ​​significato linguistico. Uno degli studenti laureati di Gallant all’epoca, Alex Huth, utilizzò le tecniche all’avanguardia del laboratorio Gallant per analizzare dove il cervello poteva codificare diversi tipi di informazioni visive. Huth, Gallant e i loro colleghi hanno fatto guardare ai partecipanti ore di video silenziosi mentre erano all’interno di scanner fMRI. Quindi, segmentando i dati in record per volumi di tessuto cerebrale delle dimensioni di un pixel, chiamati voxel, hanno analizzato le scansioni per determinare dove centinaia di oggetti e azioni erano rappresentati attraverso la corteccia. Hanno trovato schemi notevolmente coerenti in tutti i partecipanti, schemi che formavano una mappa generalizzata del significato visivo.

Ha confermato l’identità di alcune regioni della corteccia visiva che erano già note da ricerche precedenti, come le aree selettivamente reattive a volti o luoghi. Ma per la prima volta ha anche mostrato centinaia di altre patch selettive: regioni che rispondevano a immagini di animali, membri della famiglia, scene in interni, scene all’aperto, persone in movimento e altro ancora.

Huth non si è fermato qui. Lui e il suo team hanno deciso di provare qualcosa di simile, solo che questa volta usando il linguaggio invece degli stimoli visivi. Hanno fatto ascoltare alle persone ore di registrazioni di podcast e poi hanno valutato come il loro cervello ha risposto alle centinaia di concetti che avevano sentito in quelle storie. La rete semantica che i ricercatori hanno compilato e riportato su Nature nel 2016 – un’altra mappa patchwork, un mosaico di significati che ricopriva vaste aree della corteccia – era “una cosa davvero nuova” a questa scala e dimensionalità, ha detto Gallant. “Nessuno lo stava cercando.”

Comprensione e conoscenza delle cose

La nostra comprensione, la nostra conoscenza delle cose, è in realtà in qualche modo incorporata nei sistemi percettivi.

Con queste due mappe corticali in mano, si sono resi conto che gli studi avevano utilizzato alcuni degli stessi partecipanti. “È stato solo un felice incidente”, ha detto Huth, che ora è assistente professore di neuroscienze e informatica presso l’Università del Texas ad Austin. Ma ha aperto la strada alla domanda: come erano correlate le rappresentazioni visive e linguistiche?

Precedenti studi di imaging avevano identificato ruvide regioni di sovrapposizione, il che aveva senso: noi umani assegniamo etichette a ciò che percepiamo nel mondo; quindi, è giusto che i nostri cervelli combinino quelli che rappresentano.

Ma Huth ei suoi colleghi hanno adottato un approccio più preciso. Hanno modellato ciò a cui ogni singolo voxel ha risposto tra quasi 1.000 categorie semantiche trovate sia nel video che negli stimoli linguistici.

Come nella ricerca precedente, hanno trovato prove di sovrapposizione. Ma poi Huth ha notato qualcosa di strano.

Aveva realizzato una visualizzazione dei dati del 2016 che gli permetteva di attingere a ciascun voxel per vedere a quali categorie linguistiche rispondeva. Quando ha ingrandito una regione selettiva per i luoghi, si è reso conto che solo i voxel sul bordo anteriore della regione, più vicini alla parte anteriore del cervello, rappresentavano parole di luogo: appartamento, casa, macchina, piano, fattoria, California. La parte posteriore della regione non rappresentava affatto queste informazioni linguistiche.

“Questo ci ha portato a pensare che forse sta succedendo qualcosa di più interessante qui”, ha detto Huth.

Una zona di transizione ordinata

Quindi Huth ha richiamato i dati dei suoi esperimenti visivi del 2012 e ha visto che in quest’area selettiva della corteccia, la parte posteriore rispondeva esclusivamente alle immagini relative al luogo. Quando ha guardato in aree più vicine alla parte anteriore, sono state rappresentate sia le immagini del luogo che le parole del luogo, fino a quando, al confine della regione, solo le parole evocavano l’attività cerebrale, proprio come aveva visto mentre giocava con la sua visualizzazione del 2016. Sembrava esserci un passaggio graduale e continuo dalle rappresentazioni visive dei luoghi alle rappresentazioni linguistiche su appena un paio di centimetri di corteccia.

“Era sorprendentemente pulito”, ha detto Huth. “Questo è stato l’eccitante momento ‘aha’, vedere questo schema emergere”.

Per verificare quanto sistematico potrebbe essere il modello, Sara Popham, allora una studentessa laureata nel laboratorio di Gallant, ha sviluppato un’analisi statistica per il team che ha cercato questi gradienti lungo il bordo della corteccia visiva. Lo hanno trovato ovunque. Per ognuna delle centinaia di categorie studiate negli esperimenti, le rappresentazioni si sono allineate in zone di transizione che hanno formato un nastro quasi perfetto attorno all’intera corteccia visiva. “C’è una corrispondenza tra ciò che accade dietro il confine e ciò che accade davanti al confine”, ha detto Gallant.

Quell’allineamento da solo era notevole. “In realtà è raro vedere confini e regioni delineate nel cervello”, ha detto Wilma Bainbridge, psicologa dell’Università di Chicago che non è stata coinvolta nello studio. “Non ho davvero visto niente di simile.”

Il modello era anche sistematico tra gli individui, apparendo più e più volte in ogni partecipante. “Questo vero confine nel cervello sembra essere un principio organizzativo generale”, ha detto Adam Steel, un borsista post-dottorato che studia percezione e memoria al Dartmouth College.

Mostra come la corteccia visiva si interfaccia con il resto della corteccia attraverso questi gradienti: molti canali paralleli sembrano preservare ciascuno il significato attraverso diversi tipi di rappresentazioni. Nei modelli gerarchici di elaborazione visiva, il cervello prima estrae caratteristiche specifiche come bordi e contorni, quindi le combina per costruire rappresentazioni più complesse. Ma non è chiaro come quelle rappresentazioni complesse diventino poi sempre più astratte. Certo, i dettagli visivi potrebbero essere messi insieme per creare un’immagine, ad esempio, di un gatto. Ma come viene assegnata quell’immagine finale alla categoria concettuale dei “gatti”?

Ora, questo lavoro suggerisce come quella progressione da specifiche visive a maggiori astrazioni potrebbe iniziare a verificarsi a un livello più granulare. “Stiamo incollando una parte del cervello che capiamo davvero bene a un’altra parte del cervello che capiamo a malapena”, ha detto Gallant. “E quello che vediamo è che i principi del design non stanno davvero cambiando molto”.

Che significa? Forse è più incarnato di quanto alcuni abbiano sostenuto.

In effetti, una teoria tradizionale dell’organizzazione del cervello postula che le rappresentazioni della conoscenza semantica avvengano in una regione dedicata, un centro di comando simile a un hub che riceve informazioni da vari sistemi, compresi quelli percettivi. Ma i risultati del team di Gallant suggeriscono che queste diverse reti potrebbero essere troppo intimamente intrecciate per essere separabili. “La nostra comprensione, la nostra conoscenza delle cose, è in realtà in qualche modo incorporata nei sistemi percettivi”, ha affermato Chris Baker del National Institute of Mental Health.

Questa scoperta potrebbe avere implicazioni su come si sviluppa la conoscenza astratta del mondo da parte degli umani. Forse, ha detto Huth, le rappresentazioni basate sul linguaggio sono in parte modellate su quelle percettive – e questo allineamento serve come parte di un meccanismo per come ciò potrebbe accadere. Le capacità percettive di varie regioni del cervello potrebbero in effetti “determinare la struttura emergente di uno spazio concettuale più ampio”, ha affermato Ev Fedorenko, neuroscienziato cognitivo presso il Massachusetts Institute of Technology. Forse questo potrebbe anche dire qualcosa sulla natura del significato stesso. “Che significa?” lei disse. “Forse è più incarnato di quanto si immaginasse.

Ma la cosa più intrigante è che questa transizione graduale tra i tipi di rappresentazioni nella corteccia fa eco a recenti scoperte sulla relazione tra percezione e memoria.

Registrazioni di significati, non percezioni

Nel 2013, Christopher Baldassano, neuroscienziato cognitivo alla Columbia University, ha trovato uno schema intrigante osservando l’attività neurale in un’area nota per rispondere selettivamente ai luoghi. I modelli di attività verso la parte posteriore della regione erano correlati con i modelli che caratterizzavano una rete visiva nota, mentre l’attività nella parte anteriore della regione sembrava invece essere più correlata all’attività in una rete di memoria.

Ciò ha suggerito che le rappresentazioni della memoria potrebbero comportare non un’esatta riattivazione, ma piuttosto un sottile spostamento attraverso la proprietà della corteccia, in una posizione immediatamente adiacente a dove si può trovare la rappresentazione visiva corrispondente.

Nell’ultimo anno, diversi nuovi studi, tra cui la ricerca di Bainbridge, Baker, Steel e Caroline Robertson del Dartmouth College, hanno rafforzato questa scoperta confrontando direttamente l’attività cerebrale delle persone mentre guardavano e in seguito ricordavano o immaginavano varie immagini. In ogni caso, una trasformazione spaziale sistematica ha segnato la differenza tra le rappresentazioni sensoriali e mnemoniche del cervello. E le rappresentazioni visive sono apparse proprio dietro quelle della memoria associate, proprio come avevano fatto nello studio linguistico di Huth.

Come quello studio, anche questo sembrava indicare che anche la percezione e la memoria sono profondamente intrecciate. “Non ha senso pensare al nostro sistema di memoria come a uno spazio di lavoro completamente separato”, ha detto Baldassano.

“Molte persone hanno questa idea intuitiva che l’esperienza percettiva è come una fiamma ruggente e l’esperienza della memoria è come una candela tremolante”, ha affermato Brice Kuhl, neuroscienziato dell’Università dell’Oregon. Ma i ricordi chiaramente non sono solo un’eco più debole dell’esperienza originale. I cambiamenti fisici visti in questi recenti esperimenti suggeriscono invece che i cambiamenti sistematici nelle rappresentazioni stesse codificano un’esperienza che è del tutto distinta ma ancora legata all’originale.

Il lavoro di Huth fornisce nuove intuizioni sulla natura di tale trasformazione. Forse la memoria non è così guidata visivamente come pensavamo. Forse è più astratto, più semantico, più linguistico. “Spesso abbiamo l’impressione di avere queste fantastiche rappresentazioni visive delle cose”, ha detto Baker. “Ti senti come se potessi vederlo. Ma forse non puoi”.

Per Kuhl, questo ha senso. Dopotutto, “sappiamo che quando immaginiamo qualcosa o ricordiamo qualcosa, è diverso dal vederlo effettivamente”, ha detto. Quello che vediamo nella nostra mente potrebbe essere una reinterpretazione di una scena o un oggetto ricordati in base al suo contenuto semantico piuttosto che una sua riproduzione letterale. “Siamo così fissati sull’utilizzo dell’esperienza percettiva come modello. Ma penso che questo ci abbia un po’ accecato”.

Per testare queste ipotesi, i ricercatori stanno ora studiando persone che sembrano incapaci di evocare immagini mentali, una condizione chiamata aphantasia. Forse, ha detto Bainbridge, le persone con aphantasia mostreranno un più ampio spostamento in avanti nelle loro rappresentazioni neurali, uno che potrebbe non soffermarsi così tanto sulle risposte visive e semantiche combinate, suggerendo una transizione più rapida al pensiero astratto.

“Concettualmente, sembra davvero che il campo sia impegnato in qualcosa che penso sia un’idea davvero nuova”, ha detto Kuhl. “Sta scuotendo il nostro pensiero.”

WEBINAR
27 Maggio 2022 -
Finance e cyber minacce: come proteggersi davvero e affrontare gli scenari di crisi
@RIPRODUZIONE RISERVATA

Articolo 1 di 4