la lettura

Il digitale cambia la mente: farmaco o veleno?



Indirizzo copiato

Dal paradosso dei creduloni superinformati alla crisi cognitiva. Il libro “Anima Mediterranea” esplora amnesia digitale, declino dell’autorevolezza e manipolazioni dei modelli linguistici. Invita a costruire competenze umanistiche e digilità per ridurre rischi, orientare l’innovazione e governare l’impatto ambientale delle tecnologie

Pubblicato il 13 nov 2025

Andrea Granelli

Fondatore di Kanso, società di consulenza nell'innovazione e il change management



interfacce cervello-computer; energia ai crisi cognitiva digitale AI e cervello hardware neuromorfico

La crisi cognitiva digitale è il rovescio della medaglia di un’epoca in cui la conoscenza cresce a ritmi senza precedenti. Tra overload informativo, fake e IA persuasiva, serve una nuova alfabetizzazione: digilità, memoria allenata e pensiero critico capaci di trasformare rischi in valore.

Dipenda o no dalla nuova ricerca scientifica, la tecnologia è un ramo della filosofia morale, non della scienza Paul Goodman, New Reformation. Notes on a Neolithic Conservative

L’accelerazione esponenziale della conoscenza

Nel suo libro del 1981, Percorso critico, Richard Buckminster Fuller – architetto americano e teorico dei sistemi, nonché inventore (è sua, ad esempio, l’invenzione della cupola geodetica) – introdusse la cosiddetta Knowledge Doubling Curve, dopo aver notato che fino al 1900 la conoscenza umana era raddoppiata circa ogni secolo, mentre da lì in poi si era registrata una significativa accelerazione. Già alla fine della Seconda guerra mondiale il raddoppio era ogni venticinque anni. In tempi recenti IBM ha contribuito alla teoria di Fuller stilando un rapporto secondo il quale entro il 2020 la conoscenza sarebbe raddoppiata ogni dodici ore, alimentata soprattutto dall’Internet of Things. Anche se tipi di conoscenza diversi hanno naturalmente tassi di crescita diversi, è ormai accettato che la conoscenza umana stia aumentando a un ritmo straordinario. Sorgono pertanto alcune domande: quanto l’uomo è preparato a questi cambiamenti? Quanto il suo processo di apprendimento e aggiornamento riesce a stare al passo con questa vera e propria deflagrazione conoscitiva?

Questa esplosione di dati e nuova conoscenza – potenzialmente una grandissima opportunità – si sta trasformando nel suo opposto, in una sorta di tsunami e diluvio universale. Si incomincia a parlare di information overload, attualizzando il proverbio dei nostri nonni che recitava: «Il troppo stroppia».

Information overload e rifiuti semiotici

Ma non è solo la quantità a preoccupare; anche il rumore di fondo e il fenomeno del fake, quasi un veleno che, quando entra nell’oceano di Internet, rischia di contaminare ogni cosa. Ma vi è un ulteriore fenomeno: la crescente obsolescenza delle informazioni, che però non vengono tolte dai motori di ricerca e dalla memoria cache (il tema ha moltissime implicazioni giuridiche, oltre a essere di enorme difficoltà pratica). Già nel 1990, nel suo Artefatti. Verso una nuova ecologia dell’ambiente artificiale, Ezio Manzini aveva colto il fenomeno nella sua potenziale criticità, notando che «viviamo in mezzo a una massa crescente di “rifiuti semiotici”, cioè di messaggi, testi e codici degradati e de-contestualizzati di cui non possiamo liberarci».

Il dubbio che ogni giorno si fa sempre più certezza è quindi che l’essere umano non riesca a cogliere questa opportunità/necessità e che stia gradualmente diventando “antiquato” – per usare una felice espressione coniata dal filosofo Günther Anders –, inadatto cioè a vivere e operare in questo contesto in vorticosa trasformazione. Lo dice in modo efficace Donald Norman in Il computer invisibile: «Siamo esseri analogici intrappolati in un mondo digitale, e il brutto è che siamo stati noi stessi a rinchiuderci in questa trappola.»

Il paradosso dei creduloni superinformati

Tali fenomeni stanno facendo emergere una sorta di paradosso della conoscenza digitale: c’è sempre più conoscenza accessibile ma le persone sono mediamente più ignoranti, superficiali e credulone. La diffusione di varie forme di complottismo che prevedono l’esistenza dei rettiliani o che la terra sia piatta ne sono una dimostrazione tangibile. Gérald Bronner, nel suo La démocratie des crédules, coglie questo paradosso in modo lapidario:«Viviamo nella società dei creduloni superinformati».

Solo il dubbio è la nostra salvezza come ci ricorda Talete di Mileto, uno dei Sette Sapienti: «Certezza porta disgrazia».

Il digitale sta anche creando una vera e propria crisi cognitiva, che non è definita da una mancanza di informazioni, conoscenze o abilità ma, piuttosto, da una progressiva incapacità di accedere a questa conoscenza. È la nostra umanità a essere minata, sono i meccanismi di interazione dinamica tra il nostro cervello e il nostro ambiente che funzionano sempre meno bene.

Da una parte la facilità con cui possiamo accedere alla conoscenza ci depotenzia e ci impigrisce. Lo psicologo Adrian Ward nota che siamo portati a scambiare l’infinita conoscenza raggiungibile attraverso il motore di ricerca con la nostra, perché questo ci gratifica. Ma ciò riduce i nostri sforzi a ricordare; tanto è vero che si parla di Google effect – chiamato anche “amnesia digitale” – riferendosi alla tendenza a dimenticare informazioni che possono essere facilmente trovate on line. Un motivo in più per prendere di petto il tema della memorabilità legata ai processi di apprendimento.

Il declino dell’autorevolezza e la logica dell’“uno vale uno”

E allora dovremmo seguire il consiglio che Giuseppe Prezzolini pubblicava nel lontano 1922: «Noi potremmo chiamarci la Congregazione degli Apoti, di “coloro che non la bevono”, tanto non solo l’abitudine ma la generale volontà di berle è evidente e manifesta ovunque».

Questo tema ha fatto anche nascere la già citata agnotology, che vuole fornire una nuova prospettiva teorica per ampliare le domande tradizionali sul “come sappiamo” per chiedersi: perché non sappiamo ciò che non sappiamo? I saggi raccolti da Robert N. Proctor nel suo libro del 2008 mostrano che l’ignoranza è spesso più di una semplice assenza di conoscenza; può anche essere il risultato di lotte culturali e politiche oltre che di bias cognitivi.

Il tema è approfondito da Tom Nichols, professore di National Security Affairs presso l’U.S. Naval War College e professore aggiunto presso la Harvard Extension School (la sezione del celebre ateneo che, dal 1910, si occupa degli studenti part-time). Nel suo La conoscenza e i suoi nemici sostiene e dimostra che viviamo in tempi pericolosi, dove mai un numero così alto persone hanno avuto accesso a tanta conoscenza, eppure sono restie a imparare qualsiasi cosa.

Sempre più spesso, qualsiasi affermazione di competenza produce un’esplosione di rabbia da parte di un numero crescente di persone, le quali ritengono che tali affermazioni non siano che fallaci “appelli all’autorità” segni di un contestabile “elitarismo”. È la logica dell’“uno vale uno” che contesta ogni forma di competenza perché si fida del buon senso del padre di famiglia. Questa diffusione di conoscenza non ha innescato un nuovo illuminismo, ma piuttosto il sorgere di un’età dell’incompetenza in cui una sorta di egualitarismo narcisisticoe disinformato sembra avere la meglio sul tradizionale sapere consolidato. La riflessione che guida questo rifiuto per la conoscenza dell’establishment può essere sintetizzata in questa domanda (per loro retorica): «Che farsene di libri, titoli di studio e anni di praticantato se esiste Wikipedia?».

Digilità: una competenza trasformativa

Per navigare nel mare sempre più affascinante e tumultuoso del digitale, allora, serve un’ulteriore competenza che la contemporaneità renderà sempre più necessaria: la “digilità”, ovvero un’abilità ma anche un’agilità digitale. Digitale inteso non solo come tecnologia che automatizza e connette, ma anche come ambiente che produce, collega e valorizza dati e informazioni.

Questa competenza digitale non è semplicemente additiva – un’ulteriore competenza da padroneggiare – ma è anche, forse soprattutto, trasformativa. Rilegge e modifica tutte le competenze disponibili: come gestire progetti e persone, come guidare costruendo e condividendo visioni e come “capitanare” l’impresa leggendo i segnali deboli del futuro.

E ci deve aiutare a usare con efficacia gli strumenti digitali per dare luogo a un effettivo apprendimento e non a una semplice “infatuazione” multimediale.

Il digitale come pharmakon

Niente di grandioso entra nella vita dei mortali

senza una maledizione. Sofocle, Antigone

La cultura greca possedeva nel suo corredo linguistico alcune parole potenti, polisemiche, che definivano con maggiore profondità concetti complessi. Una di queste è pharmakon, che in greco significa sia farmaco che veleno. Ed è proprio questa sua duplicità, questa sua apparente contraddizione, che ci illumina sul significato profondo di alcuni concetti. Uno di questi è il digitale.

Il suo essere pharmakon, non solo ci ricorda che quanto più la tecnologia è potente tanto più è potenzialmente problematica; ma anche, che la “colpa” non è della tecnologia ma di chi la somministra. Se ben usata, infatti, porta grandissimi benefici. Se è mal somministrata, invece, può causare molti danni e – continuando con l’allegoria medica – arrivare perfino alla morte stessa del paziente.

Vedere il digitale come pharmakon ci porta l’attenzione dalla tecnologia alle competenze necessarie per usarla. Una parte rilevante dei danni di queste tecnologie (non consideriamo qui quelli deliberati che richiedono una diversa trattazione) dipende quindi dalle competenze inadeguate sia del somministratore (chi decide) che dei fruitori (chi le utilizza). Il problema principale, dunque, non sta nella tecnologia ma nelle competenze necessarie per utilizzarla in modo corretto.

Il filosofo Paul Virilio, ne L’incidente del futuro, fa un passo in più e osserva che «la tecnologia crea innovazione ma – contemporaneamente – anche rischi e catastrofi: inventando la barca, l’uomo ha inventato il naufragio, e scoprendo il fuoco ha assunto il rischio di provocare incendi mortali.»

Come dire: è la natura stessa dell’innovazione tecnologica che crea pharmakon. Per questo motivo è importante studiare anche le dimensioni problematiche, i lati oscuri del digitale. Ignorando questa dimensione, sarebbe come voler diventare medico studiando anatomia, fisiologia, farmacologia … ma non patologia.

Oltretutto, come sanno bene i medici, è proprio studiando i malfunzionamenti di un organo che si perfezione la conoscenza di quell’organo, la sua fisiologia, i suoi comportamenti meno apparenti ma non per questo meno rilevanti.

I costi ambientali del digitale

Oramai la dimensione problematica non è un fatto ancillare ma è quasi fondativo; può cioè spostare l’ago della bilancia nel decidere se una certa tecnologia vada utilizzata o meno in maniera massiva. Pensiamo per esempio alla natura energivora di alcune applicazioni digitali (ad es. le criptovalute o l’allenamento delle piattaforme dell’intelligenza digitale generativa) e al conseguente crescente consumo energetico. Si stima che un grande centro di calcolo (per esempio quelli di Google) consumi quanto prodotto da una piccola centrale nucleare. Inoltre una parte dell’energia necessaria serve a raffreddare le macchine e richiede quindi anche molta acqua. Già questo fatto basterebbe per guardare con preoccupazione i sviluppi senza freno del digitale.

Ma la voracità di questa tecnologia si sta spostando su un’altra risorsa naturale preziosa: le cosiddette terre rare. Questi metalli – per la verità non così rari ma con processi estrattivi costosi e dannosi per l’ambiente – sono fondamentali per la produzione dei chip. Tra l’altro uno dei giacimenti più importanti al mondo è in Ucraina (gli esperti stimano che il valore di questo “tesoro” ammonti a 10/12 trilioni di dollari). E la loro “rarità” è proprio esplosa con la fame di calcolo dell’IA, che sta facendo deflagrare i conti del maggior produttore dei suoi chip: fra aprile e giugno del 2024 Nvidia ha infatti registrato ricavi in crescita del 122% rispetto all’anno precedente e un utile di quasi 17 miliardi di dollari, in crescita del 168%.

Rifiuti digitali e insostenibilità

Ma anche lo smaltimento dei “rifiuti digitali” è molto problematico. Potremmo dire che l’ecosistema digitale è quanto di più lontano si possa concepire dall’economia circolare. Fino a poco tempo fa alcuni produttori di device avevano addirittura deciso di non renderli riparabili (non solo dall’utente ma anche dall’azienda stessa) per forzare gli utenti a un ricambio frequente dell’apparato, motivato dall’elevato tasso di innovazione.

Una delle destinazioni mondiali degli scarti dell’elettronica è la discarica di Agbobloshie, un quartiere di Accra, capitale del Ghana. Il posto è apocalittico: una discarica a cielo aperto, che si perde nell’orizzonte ed è coperta dal fumo prodotto da coloro che cercano di estrarre rame bruciando i cavi; e la soglia di inquinamento e sopra ogni elemento di tollerabilità. Ciononostante, la gente vive ai suoi margini, cercando di guadagnare qualche spicciolo da ciò che i ricchi abbandonano.

Le molteplici ombre del digitale

E potremmo continuare a lungo nell’identificare i lati oscuri del digitale: le molte sfaccettature della cybersecurity, i danni cognitivicausati dai motori di ricerca e da Wikipedia, la manipolazione latente dei social media, l’(ab)uso delle informazioni personali, il crescente potere dei gatekeeper dell’informazione, l’esplosione incontrollabile del fake, la dimensione perturbante del digitale, l’impennata delle disuguaglianze (con una erosione dei confini fra Stato e grandi corporation) …

La tecnologia è dunque, allo stesso tempo, l’agente disgregatore e la forza motrice del progresso e il padroneggiare il digitale richiede allora non solo abilità tecniche ma anche pensiero critico. E spesso è proprio la conoscenza della dimensione problematica che aiuta non solo la sua identificazione ma la sua risoluzione, portando nuova conoscenza anche sulla dimensione positiva. Come scrive mirabilmente Friedrich Hölderlin in Patmos, «dove c’è il pericolo cresce anche ciò che salva».

L’arte della persuasione digitale

Il pericolo del passato era che gli uomini diventassero schiavi.
Il pericolo del futuro è che gli uomini possano diventare robot,. Erich Fromm, Psicanalisi della società contemporanea

«Noi dobbiamo pensare che ci sia anche un’altra arte [capace di imitare la realtà, come la pittura], un’arte dei discorsi, per cui sia pure possibile incantare le orecchie dei giovani e di quelli ancora molto lontani dal conoscere la realtà delle cose, mostrando loro immagini parlate di tutto e in modo da ingenerare in loro l’opinione che chi parla dice la verità e che su tutto è il più sapiente di tutti».

Sembrerebbe una riflessione sull’IA – o meglio l’estratto di una riunione interna di una delle aziende che stanno lanciando sul mercato le nuove piattaforme dell’IA generativa – ma è invece un’intuizione che risale a circa 2.300 anni fa. È infatti un brano del Sofista di Platone, dove lo Straniero di Elea (l’attuale Velia, provincia di Salerno, dove aveva sede una celebre scuola filosofica) rivela la potenza manipolativa della parola.

Perché la finalità ultima delle piattaforme d’IA generativa non è tanto la produzione di conoscenza, di sistemi esperti, quanto la realizzazione di un linguaggio potentissimo – detto language model – e capace di adattarsi ad ogni interlocutore che le interroga e di persuaderlo della correttezza delle loro risposte. Una sorta di “certificato oracolare” che assicura a queste tecnologie di poter persuadere senza dover dimostrare né la coerenza di ciò che dicono né l’attendibilità delle fonti a cui attingono – che infatti rimangono sempre nascoste.

Il cuore del sistema è dunque il language model e l’obiettivo dell’allenamento è dare in pasto alla piattaforma miliardi di frammenti di conversazione online per allinearsi e diventare familiare con i linguaggi della Rete e con ciò che piace (e genera “like”) e, in ultima istanza, rafforzare il proprio armamentario linguistico in senso persuasivo per arrivare a costruire ciò che Cicerone chiamerebbe captatio benevolentiae digitale.

Competenze umanistiche per l’era dell’IA

Che competenze dobbiamo allora sviluppare per usare al meglio questi sistemi senza esserne (ab)usati? Non solo e non tanto le competenze tecniche – che sono condizione necessaria ma non sufficiente – quanto il pensiero critico e le abilità retoriche che ci consentono di smascherare le manipolazioni linguistiche, evidenziare i buchi logici o i ragionamenti fallaci, investigare la qualità delle fonti e i livelli di attendibilità delle risposte.

L’intelligenza artificiale, quindi, rimette al centro la cultura umanistica nel senso più autentico, e cioè i saperi attorno all’essere umano, ciò che dobbiamo sapere per conoscerci. E uno degli aspetti critici di questa conoscenza sarà proprio il nesso tra linguaggio e memoria.

Pertanto, un utilizzo adeguato dell’IA richiede non solo competenze ma anche abilità di ragionamento e forza una maggiore comprensione di ciò che sappiamo, che è indissolubilmente legata a ciò che ricordiamo. Ce lo ricorda Dante Alighieri nella Divina Commedia: comprendere o imparare qualcosa non forma la vera conoscenza se non si tiene poi a mente ciò che si è imparato(“Non fa scienza senza lo ritenere, avere inteso”).

La captatio benevolentiae digitale

Il fine ultimo delle piattaforme di IA generativa è dunque una sorta di captatio benevolentiae digitale in grado di convincere tutti coloro che li interrogano ad eseguire le azioni che i sistemi raccomandano. E tra le più ricercate vi sono certamente l’acquisto di uno specifico prodotto o l’adesione a una specifica ideologia, che può comportare anche il fornire la propria preferenza di voto ai relativi candidati.

Un assaggio di questa abilità lo abbiamo visto durante l’ultima campagna elettorale statunitense, il cui risultato è dipeso anche dal crescente ruolo attivo di Musk e delle sue piattaforme digitali. Ruolo che incomincia a incidere anche sulla politica estera degli Stati Uniti.

Pensiero critico come antidoto

Ma le aree problematiche delle piattaforme generative dell’IA non si fermano qui. Ed è proprio su queste dimensioni di rischio che dobbiamo concentrare le nostre riflessioni, non solo per cogliere al meglio le incredibili potenzialità che questi sistemi possono offrire, ma anche perché – essendo queste tecnologie ancora a uno stadio infantile di sviluppo – possono essere ancora (forse) in qualche modo orientate per il bene della collettività e non per il potere e la ricchezza di pochi.

Oltretutto l’autentico pensiero critico – da non confondere con lo scetticismo sistematico che cerca solo alibi per non agire – è sempre stato compagno di viaggio dell’innovazione. È quello che Jack Welch – storico CEO di General Electric – chiamava sano scetticismo e considerava la dote più preziosa che i suoi collaboratori diretti dovevano possedere.

Il pensiero critico è pertanto un potente farmaco contro le manipolazioni, la creduloneria e l’autoinganno, ma può diventare anche un veleno; anch’esso un pharmakon, dunque, un’entità bifronte che può passare in un batter d’occhio da benefica a malefica, da protettore del lume della ragione ad attivatore della paranoia e creatore di complottismi. Anche il pensiero critico, dunque, va sato con grande cautela e consapevolezza. Ma nel caso dell’AI generativa ce n’è un gran bisogno e quindi dobbiamo essere pronti e capaci di correre questi rischi.

Vi è un ultimo aspetto potenzialmente nocivo che è necessario menzionare: il progressivo depotenziamento cognitivo sia della memoria che del cervello che – assimilabili a una sorta di muscolo – se non allenati, riducono le loro funzionalità. In particolare, la memoria funziona non accedendo a dati che diventano deperibili con il passare del tempo, ma piuttosto ricostruendo ogni volta un ricordo sensato tramite l’assemblaggio di frammenti mnestici. È il processo, quindi, che va allenato: non basta la tutela del dato. Osserva Paul Ricœur che la memoria in quanto facoltà attiva non recupera le cose “come erano”, ma le ricostruisce ogni volta, arrivando addirittura a modificarle; e questo processo ricostruttivo può diventare addirittura paradossale quando quelli che riteniamo nostri ricordi sono invece presi a prestito da racconti ricavati da altri e riadattati per dare coerenza alla narrazione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati