Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

effetto google

Effetti del web sul cervello, ecco i miti mediatici che la scienza smentisce

di Alessio Plebe, Università degli Studi di Messina

20 Lug 2017

20 luglio 2017

Il mondo digitale fa del suo meglio per venire incontro alla nostra cognizione, che – a sua volta -ha il suo bel da fare per riconfigurarsi rispetto alla prevalenza digitale che ha oramai assunto il modo di presentarsi del mondo esterno alla nostra mente

Comprendere scientificamente come se la cava il nostro cervello nell’era digitale è un terreno ancora pressoché inesplorato, vi sono tuttavia delle recenti evidenze che val la pena raccontare. Evidenze che sembrano convergere nello sminuire sia certe preoccupazioni, talvolta accorate, su presunti rischi dell’immersione nel mondo digitale per la nostra salute cognitiva, sia al contrario certe mitizzazioni su possibili vistose trasformazioni dei nostri assetti cognitivi. In sintesi, cognizione e digitale sembrano entrati in una pacifica ed ordinaria convivenza.

Non stupisce considerando che il cervello, per tutti gli animali che ne sono dotati, è un formidabile dispositivo biologico di calcolo dei comportamenti più soddisfacenti rispetto ad un certo ambiente, e la cognizione è quel calcolo particolarmente sofisticato che consente di gestirsi nel modo migliore anche quando l’ambiente presenta situazioni nuove, impreviste, e in cui un repertorio di comportamenti stereotipati fallirebbe. Sarebbe falsa modestia sorvolare su quanto noi umani siamo ammirevoli in questo esercizio. A differenza di altri animali, siamo anche gli artefici dei mutamenti dell’ambiente a cui noi stessi dobbiamo adattarci, è il caso dell’attuale era digitale, su cui abbondano statistiche che danno idea quanto si tratti di una trasformazione epocale. Eric Schmidt, CEO di Google, ha stimato nel 2010 che questo motore di ricerca processa in soli due giorni la stessa quantità di informazione che l’intera umanità ha prodotto dagli albori della scrittura fino al 2003, che quantificata in digitale ammonterebbe a 5 miliardi di miliardi di byte.

Occorre tuttavia ricordare che abbiamo già vissuto svolte tecnologiche che hanno richiesto impegnativi adattamenti cognitivi, forse maggiori di quello attuale. Indubbiamente nessuna innovazione ha modificato così profondamente la nostra cognizione come l’avvento del linguaggio, qualcosa come 50 mila anni fa, ma visto quanto sia oscura e controversa la sua origine ci asteniamo dall’annoverarla come “tecnologica”, mentre lo è a pieno titolo l’introduzione della scrittura, intorno a 5000 anni fa.

Nonostante circolino frequentemente articoli con titoli come How Google is changing your brain (Daniel Wegner, 2013, Scientific American), non esiste alcuna evidenza di modificazioni cerebrali indotte dal praticare il mondo digitale. Al contrario, il linguaggio scritto ha indotto un adattamento cognitivo così profondo da riflettersi nella riorganizzazione di circuiti neurali. Nel 2002 il neuroscienziato francese Laurent Cohen ha individuato una porzione della corteccia ventrale occipito-temporale sinistra, parzialmente specializzata nel vedere e riconoscere caratteri ortografici. Il funzionamento preciso di quest’area è ancora da svelare, ma sicuramente il suo coinvolgimento nella lettura non ha basi genetiche, si tratta di un adattamento cognitivo avvenuto in tempi troppo brevi rispetto a quelli dell’evoluzione naturale. E’ quando un bambino intraprende la faticosa impresa di imparare a leggere che quest’area visiva particolare viene progressivamente reclutata per un compito così prezioso nella nostra società.

In generale adattare il proprio stile cognitivo per adeguarsi a condizioni ambientali senza precedenti sembra qualcosa di gravoso, ma occorre tenere a mente che, mentre nel caso di altri animali tale necessità spesso scaturisce da mutamenti ambientali ostili, gli epocali cambiamenti di cui stiamo parlando derivano da innovazioni tecnologiche a tutto vantaggio dell’umanità. Così è stato per l’introduzione della scrittura, e così è per l’era digitale. La quale si è resa possibile da uno sforzo ancor più improbo rispetto all’adattare la cognizione al digitale: quello di forzare i computer digitali in direzione della nostra cognizione. Bit e circuiti in silicio elaborano in modo ben più brillante di noi simboli organizzati matematicamente, ma sono terribilmente refrattari a manipolare i naturali oggetti della nostra cognizione. Per convincere i computer a farlo, è nata una specifica disciplina che va sotto il nome di ingegneria delle conoscenze. Tecnicamente per conoscenze si intende fatti ed eventi del mondo nel formato con cui la nostra cognizione li cataloga, memorizza, e utilizza, e i suoi ingegneri tentano di convincere i computer ad adottare lo stesso formato. Impresa disperata non solo per quanto, come detto, tale formato sia del tutto alieno ai computer, ma ancor di più perché non c’è modo di specificarlo dettagliatamente. Noi semplicemente usiamo la cognizione, ma come funzioni ne sappiamo ben poco, ci provano da diversi secoli i filosofi. A loro hanno fatto ricorso gli ingegneri delle conoscenze, adottandone una branca scivolata fuori moda: lo studio delle ontologie. Spogliate dalle innumerevoli controversie e sottigliezze della metafisica, il termine è diventato di uso comune nei progettisti web, e diversi filosofi professionisti hanno abdicato volentieri ad auliche dissertazioni per facilitare la vita agli ingegneri. Primo tra tutti Barry Smith, che da studioso di Husserl e Brentano nel 2000 è passato ad organizzare la compilazione di ontologie per caratterizzare conoscenze digitalizzate in campo medico. Dopo quella prima esperienza sono nati strumenti generalizzabili a qualunque tipo di documento sul web, come OWL Web Ontology Language. Si tratta di compromessi tra come la mente organizza le conoscenze, in modo sicuramente meno stereotipato e più complesso delle ontologie ingegnerizzate, e l’esigenza di dare ai sistemi web specifiche semplici e organizzate in formato logico, compatibili con come sono fatti i computer digitali.

Il mondo digitale fa dunque del suo meglio per venire incontro alla nostra cognizione, che indubbiamente ha il suo bel da fare per riconfigurarsi rispetto alla prevalenza digitale che ha oramai assunto il modo di presentarsi del mondo esterno alla nostra mente.

Come è accaduto per qualunque profondo cambiamento tecnologico, non sono mancate le grida di allarme, che nel caso del digitale riguardano precisamente la sfera cognitiva. Un esempio per tutti il saggista americano Nicholas Carr, autore nel 2008 di un articolo Is Google Making Us Stupid? a cui si rispondeva affermativamente, espandendo il tema nel libro del 2010 The Shallows: What the Internet Is Doing to Our Brains. Secondo Carr il danno cognitivo del web assomiglia a quello che subì il filosofo Friedrich Nietzsche quando si invaghì della tecnologia dell’epoca, la macchina da scrivere, perdendo di brillantezza intellettuale. Per inciso, è  noto come il grande Nietzsche fosse afflitto da problemi più gravi della macchina da scrivere.

Il 2017 ha visto la pubblicazione di alcuni lavori di rassegna che fanno il punto di tutti i principali studi scientifici riguardanti il rapporto tra cognizione e immersione nel mondo digitale, che sconfessano ampiamente questi allarmismi. Lo psicologo americano Henry Wilmer, in un articolo su Frontiers in Psychology, ha esaminato l’intero corpo di studi empirici disponibili riguardo l’impatto di internet (soprattutto usata mediante smartphone) nell’intero spettro cognitivo: attenzione, memoria, funzioni esecutive, ricerca di gratificazione, ha evidenziato un certo numero di fenomeni cognitivi di interesse, ma nessuno tale da porre dubbi sull’utilità del mondo digitale.

Uno di questi fenomeni è quello chiamato effetto Google o amnesia digitale: quando cercando determinate informazioni si è in grado di assicurarne la reperibilità futura (per esempio scaricando un file, o appuntando il link nei segnalibri), si tende a dimenticare più presto i contenuti di tale informazione. In studi sperimentali in cui ai soggetti venivano fornite alcune informazioni, quelli a cui era detto che le stesse sarebbero state disponibili nel computer, risultavano meno abili in compiti di richiamo di tali informazioni dopo alcuni giorni, rispetto ai soggetti che sapevano di non poter disporre più delle stesse informazioni nei loro computer. Non del tutto slegato è l’altro fenomeno denominato supplant thinking, la tendenza ad evitare di risolvere un problema cognitivamente, anche se alla propria portata, cercandone invece una soluzione disponibile su internet, su cui i dati attuali sono piuttosto controversi. Anche la memoria visiva pare subire un effetto di “supplemento” dalla pratica di fotografare frequentemente. In uno studio condotto tra partecipanti ad una visita in un museo d’arte, coloro che avevano fatto uso di smartphone per fotografare in maniera sistematica erano meno in grado di descrivere successivamente le opere viste.

Ritengo che fenomeni di questo tipo semplicemente riflettano la nostra natura di umani, esseri che il premio Nobel Daniel Kahneman ha felicemente definito taccagni cognitivi. Risolvere problemi in maniera cognitivamente cosciente è lento e faticoso, e il nostro cervello tende strategicamente ad centellinare questo sforzo, facendo diventare inconsci ed automatizzati procedimenti abituali, quali guidare l’automobile. Nulla di anomalo che, quindi, stiamo imparando a fare economia delle nostre risorse intellettuali grazie al valido aiuto che ci viene dal mondo digitale.

Nel versante opposto rispetto ai timorosi delle tecnologie come Carr, esiste un ampio fronte di entusiasti, che si è spinto probabilmente fin troppo nel suggerire vistosi effetti cognitivi prodotti dal digitale. Una locuzione che ha avuto molta fortuna è quella di nativi digitali coniata dal giornalista e saggista americano Marc Prensky, per indicare le generazioni che fin dalla prima infanzia si ritrovano un ambiente popolato da dispositivi digitali. Questa immersione precoce li porterebbe a sviluppare capacità di interazione e modalità di apprendimento in perfetta simbiosi con le tecnologie, irraggiungibili dagli immigrati digitali, ovvero i nati prima del 1984. Una delle prerogative uniche di questi nativi digitali sarebbe il multitasking, ovvero la capacità di portare avanti in contemporanea più impegni cognitivi, per esempio effettuare delle ricerche in rete mentre si chiacchiera al telefono e continuando persino un videogioco non troppo impegnativo.

Per quanto suggestive, queste ipotetiche amplificazioni cognitive non avevano nessun supporto scientifico, e un altro lavoro di rassegna sempre del 2017, dello psicologo olandese Paul Kirschner, ha mostrato come tutti gli studi empirici finora disponibili sconfessino entrambe le ipotesi, come anticipa chiaramente il titolo dell’articolo, The myths of the digital native and the multitasker. Non solo non esiste nessuna evidenza di discontinuità generazionale nelle capacità di utilizzo delle tecnologie digitali, risulta che l’impiego costante di mezzi come smartphone da parte dei più giovani riguardi soprattutto la sfera personale, con poca incidenza sugli stili di apprendimento e sugli impieghi cognitivamente più impegnativi del digitale. Allo stesso modo non esiste nessuna capacità di multitasking come risultato da prolungate ginnastiche digitali. In un famoso articolo del 1956 dal titolo The Magical Number Seven, Plus or Minus Two George Miller, uno dei padri delle scienze cognitive, sosteneva che il nostro cervello può mantenere in memoria di lavoro un numero massimo di diversi concetti che varia tra cinque e nove, non di più. Da allora l’analisi del volume di processo cosciente in relazione alla memoria di lavoro si sono raffinati e moltiplicati, ma l’evidenza rimane che vi siano limiti neurofisiologici ben precisi, e gli studi nella rassegna di Kirschner confermano che anche l’immersione più totale in ambienti digitali non scalfisce questi limiti.

Accenniamo solamente ad alcune ipotesi meno giornalistiche e filosoficamente più fondate che vanno nella direzione opposta rispetto alle preoccupazioni come quelle di Carr, vi sono studiosi che ritengono si possa considerare il mondo digitale addirittura una vera e propria estensione della nostra sfera cognitiva, ma entrarne nel merito esula da questo articolo.

Articoli correlati