Nel giugno 2025, la pubblicazione in formato pre-print di uno studio condotto dal MIT Media Lab ha catalizzato il dibattito pubblico sui potenziali effetti dell’intelligenza artificiale (IA) sulla cognizione umana. Lo studio, intitolato “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task,” ha esplorato come il cervello degli studenti risponda all’uso di strumenti di IA generativa, come ChatGPT, durante la scrittura di saggi.
Indice degli argomenti
L’eco mediatica del pre-print dello studio MIT
La diffusione virale di tale pre-print è un ottimo entry point per una riflessione sulla circolazione di idee all’interno di diversi domini discorsivi in traduzione tra loro (cfr. Lotman 1985), e di come alcune idee circolino all’interno della cultura orientando anche la ricerca scientifica. L’eco mediatica dello studio offre innumerevoli livelli di lettura, lasciando il fianco scoperto per un’analisi della narrazione pubblica sull’IA, ma anche una riflessione sul ruolo sociale della stessa. La narrazione giornalistica sembra infatti particolarmente sensibile ad accettare e rilanciare studi che confermano e consolidano timori esistenziali – in particolare, riprendono l’ormai classico argomento platonico del Fedro che prevede, all’ingresso di una ‘nuova’ tecnologia, una conseguente perdita di capacità diffusa a livello sociale.
Se l’analisi della narrazione pubblica a proposito dell’IA meriterebbe uno studio più attento e sistematico, l’intenzione di questo articolo – in cui ci si limita a discutere alcuni esempi appartenenti al contesto mediale italiano e anglo-americano[1] – è quello di seguire la propagazione di tale narrazione attraverso alcuni casi esemplari. Seguendo il percorso intertestuale che va dalle prime reazioni (che si inseriscono in un frame discorsivo di sensazionalismo, lungo una tradizione attestata nel discorso giornalistico) fino al ridimensionamento e contestualizzazione del dibattito da parte di esperti e dalla letteratura scientifica, si cercherà di offrire una lettura semiotica della ricezione dello studio, sperando di offrire una serie di spunti di riflessione tanto sul contenuto (gli effetti dei media su individui e società) quanto sulle dinamiche di traduzione inerenti a diversi domini discorsivi.
La viralità dello studio e la reazione mediatica iniziale
Il 10 giugno 2025 su arXiv – archivio aperto di pubblicazioni scientifiche in ambiente ingegneristico, informatico, IA – viene condiviso uno studio promosso dal MIT Media Lab. Prima di approfondire il contenuto dello studio, può essere interessante analizzare due elementi: il primo è il titolo, ossia un pun (gioco di parole in linga inglese) che riprende una celebre pubblicità progresso promossa dalla Partnership for a Drug-Free America (PDFA) dal titolo This is Your Brain on Drugs, mirata a mostrare l’effetto della droga sul cervello dei giovani attraverso una metafora visiva ai limiti della letteralità, ossia la frittura di un uovo. Sin dalla pubblicità progresso, l’espressione “Your Brain On [X…Y…Z…]” è diventata una matrice per giudizi relativi alla pericolosità di elementi considerati come generatori di dipendenze.
Al di là del titolo allusivo, che può semplicemente constare in una scelta comunicativa azzeccata, l’altro elemento interessante risiede nella tipologia di articolo che viene condivisa su arXiv: si tratta di un pre-print, una modalità di condivisione dei risultati di esperimenti scientifici attraverso circuiti frequentati principalmente da ricercatori e studiosi per promuovere gli esiti e metodi delle proprie ricerche prima di completare il ciclo di peer review. In una condizione ordinaria (non emergenziale, come ai tempi della pandemia da Sars-Cov-19), uno studio di tale portata può affrontare cicli di peer review di mesi, o annate. Questo perché le tempistiche che il dominio della scienza impiega per filtrare (Eco 2007) le interpretazioni aberranti, tramite il lavoro di controllo della comunità scientifica, non coincidono con le tempistiche del dominio mediale, né con quello delle pratiche di scoperta usate per indagare i processi fisici o fisiologici[2], né tantomeno quello della velocità di sviluppo di tecnologie emergenti che raccolgono incredibili investimenti di tipo economico. Questo implica che un ricercatore o una ricercatrice possano sentire il bisogno di condividere con una comunità di pari uno studio non ancora accertato, al fine di far circolare dei risultati considerati estremamente urgenti a livello collettivo.
La dinamica è tutt’altro che nuova, e non è problematica in sé. Ciò che è problematico è stata la ricezione del pre-print in quanto studio che asseriva la pericolosità dell’uso dell’IA generativa tout court. La logica del discorso mediatico – che adotta a sua volta dei regimi temporali velocissimi e deve dare una forma specifica agli eventi per poterli comunicare – sfrutta frame narrativi consolidati, per rendere gli eventi accessibili, condivisibili, apprezzabili da tutti. L’inquadramento degli eventi ha quella che in semiotica si definisce una funzione cognitiva: serve per renderli intelligibili. Allo stesso tempo, in una direzione di semiotica della cultura, si potrebbe anche sostenere che questi frame svolgono la funzione di tenere in piedi il dispositivo del discorso mediatico stesso, dando legittimità all’intermediario tramite la partecipazione a un filone narrativo ricorrente: in questo caso si tratta della tecnologia che ci priverebbe di una capacità cognitiva tramite la delega. In particolare, se si tratta di Intelligenza Artificiale, la delega è esattamente quella dell’ intelligenza in quanto caratteristica umana e – per sottrazione – la conseguenza è quella di una dummification o impigrimento cognitivo da parte degli utenti.
D’altronde il genere discorsivo del sensazionalismo – illustre parente del clickbaiting – ci ha abituati e abituate a questo tipo di mossa retorica: tramite un aggancio emotivo e una narrazione già sedimentata nella memoria culturale, l’evento diventa un fatto all’interno del quale ritrovare una versione comoda e conosciuta del mondo, che permette di catalizzare le nostre paure e angosce in un feticcio – in questo caso, nella tecnologia (Gallese, Moriggi, Rivoltella 2025).
Ecco quindi che, a partire dalla condivisione di uno studio con titolo allusivo e pubblicazione in pre-print il 10 giugno, nel giro di una decina di giorni il New York Post[3] (tabloid non scevro da retoriche disinformative) parla di un chatbot che sta diventando sempre più intelligente (con smarter si potrebbe anche avere l’accezione di furbo o scaltro), ma il cui uso eccessivo potrebbe “destroy our brains”; il giorno dopo, il Corriere della Sera[4] parla a sua volta di “fare male al cervello”, di riduzione “dell’attività cerebrale”; sostiene che “più consistente è il supporto e più si riduce l’ampiezza dell’attività del cervello”, con conseguenze sulla qualità degli output, incapacità di assimilare concetti, e una scarsa capacità di ricordare quanto copiato dall’esterno diventando così “manipolabili da ogni sorta di propaganda o interesse”.
Le correzioni e il ridimensionamento del dibattito
Emerge in questi casi la nozione di danno cognitivo, o addirittura cerebrale, che di per sé è diversa – nonché totalmente assente – da quella di rischio dovuto al debito cognitivo relativo a una abitudine d’uso. La lettura del Corriere appare – quanto meno nella nostra ricostruzione – come assolutamente sensazionalistica, e il dubbio che lo studio non affermi quanto riportato dall’articolo emerge qui in quanto sospetto convincente. Prima di andare ad analizzare la struttura dell’articolo scientifico, tuttavia, osserviamo come il Corriere e il NY Post – testate di fattura completamente opposta – non siano esempi di una lettura estrema dello studio, ma occasioni in linea con una tipologia piuttosto generale.
TIME riporta dello studio tramite un articolo di Andrew R. Chow dal titolo “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study”. L’articolo è stato in seguito sottoposto a una correzione[5] il 23 giugno: la nuova versione dell’articolo riporta un video di 8 minuti in cui appare la ricercatrice Nataliya Kosmyna che smentisce attivamente la prima domanda di Chow: “Does your study provide evidence that ChatGPT is making us dumber?” – “No. No, no, no, no”. Il sito su cui è consultabile la ricerca di Kosmyna e colleghi riporta oggi una sezione FAQ[6] in cui si può leggere un monito a giornalisti di ogni sorta:
Is it safe to say that LLMs are, in essence, making us “dumber”?
No! Please do not use the words like “stupid”, “dumb”, “brain rot”, “harm”, “damage”, “brain damage”, “passivity”, “trimming” , “collapse” and so on. It does a huge disservice to this work, as we did not use this vocabulary in the paper, especially if you are a journalist reporting on it.
Il 25 giugno il dibattito ha già raggiunto uno dei templi della ricerca – o, sarebbe meglio dire, della disseminazione – scientifica mondiale: Nature. Nella sezione news[7] (che non è da confondere con la rivista scientifica vera e propria, ma come una vetrina di accesso a dibattiti di stampo scientifico) un articolo a firma di Nicola Jones riporta di un dibattito che si inserirebbe in un più ampio movimento di indagine di quella che potremmo chiamare la pista platonica (“Are the Internet and AI affecting our memory? What the science says” titola Helen Pearson, sempre nella sezione news di Nature[8]), ossia l’ipotesi per cui l’IA ci stia rendendo cognitivamente pigri, sulla scorta di calcolatrici, macchine da scrivere e calcolatori più complessi (i computer).
Tanto TIME quanto l’articolo di Nature News tratteggiano l’immagine di Kosmyna come altamente scettica rispetto alla presenza di una “dumbness in the brain”; la scienziata afferma inoltre, in diversi contesti, di non aver trovato tracce di “stupidity” e neanche “brain on vacation”. Le preoccupazioni di Kosmyna riguardano una over-reliance sui sistemi di generazione del linguaggio, ma lei stessa ammette che la ricerca (per i metodi utilizzati) non sia sufficiente per generalizzare effetti dovuti a un uso a lungo termine della tecnologia. Attenzione: non viene smentito che questi effetti ci siano, né viene lasciato intendere che la domanda di ricerca su questi ultimi possa essere mal posta. Il punto è che non ci sono sufficienti evidenze per misurare determinati effetti, come se questi potessero essere misurati in un esperimento controllato, riducendo a zero tutti gli altri fattori che possono concorrere all’uso di uno strumento aperto e duttile come l’Intelligenza Artificiale Generativa.
Prospettive alternative: omologazione stilistica e qualità dei contenuti
Anche il Washington Post tenta di smorzare il tono sensazionalistico della prima ricezione dell’articolo: il sottotitolo dell’articolo di David Ovalle[9] recita “Viral headlines often declare that artificial intelligence makes us stupider and lazier. But the research is more complex than that”; in maniera particolarmente interessante, in questo articolo il cervello lascia il posto a un altro attore del racconto ossia la mente, figura a più complessa e più sfuggente: “Is AI rewiring our minds? Scientists probe cognitive cost of chatbots” è il titolo principale, e nel corpo del testo troviamo interrogazioni possibiliste come “Inside our brains, how the persistent use of AI molds the mind remains unclear”.
Altre testate – come il New Yorker tramite la voce di Kyle Chaka (“A.I. Is Homogenizing Our Thoughts. Recent studies suggest that tools such as ChatGPT make our brains less active and our writing less original”), o Repubblica tramite Celeste Ottaviani (“L’Intelligenza Artificiale ‘spegne’ il cervello? Forse, ma solo se la si usa troppo e male”) si distanziano dalla narrazione del danno, concentrandosi piuttosto su un altro aspetto, presente nello studio ma potenzialmente svincolato dalle evidenze neuroscientifiche. Si tratta del rischio della omologazione stilistica o ideativa dei testi prodotti tramite IA che non correla direttamente l’uso alla scarsa attività cerebrale, ma collega pertinentemente un certo tipo di uso, quello irriflesso o superficiale, alla minore attività fisiologica, sostenendo che il rischio nell’uso di questi strumenti risieda anche al di fuori della testa dei partecipanti, nei testi poco originali prodotti dal gruppo di partecipanti a cui era stato chiesto di usare GPT. Questi testi, oltre a essere poco originali, si assomigliano molto tra loro, riducendo lo spazio di argomentazione a una risposta standardizzata.
La struttura dell’esperimento e i metodi di ricerca
Cosa sostiene, veramente, l’esperimento di Kosmyna e colleghi? Iniziamo a osservare come si è strutturato. Il gruppo di neuroscienziati del MIT ha suddiviso 54 partecipanti universitari in tre gruppi: uno aveva il compito di scrivere un saggio tramite l’utilizzo di ChatGPT, uno poteva utilizzare i motori di ricerca e un gruppo di controllo avrebbe invece dovuto svolgere la traccia senza ausili esterni.
Per misurare l’attività cerebrale è stata utilizzata l’elettroencefalografia (EEG), al fine di monitorare l’attivazione neurale dei partecipanti; è stata inoltre svolta un’analisi linguistica degli elaborati, seguita da interviste post-saggio. Mettendo insieme questi diversi metodi di ricerca, il team ha rilevato una connettività cerebrale significativamente inferiore, un minore richiamo mnemonico e un ridotto senso di paternità dei testi prodotti da parte degli utenti che avevano utilizzato interamente GPT rispetto ad altri gruppi.
Risultati prevedibili e importanza della riflessione
È necessario concordare con la firma del Corriere[10] Federico Fubini quando sostiene che “[e]ra forse prevedibile che andasse così”, e accettare gli esiti dello studio con scarsa sorpresa. Se copiamo senza riflettere su quello che stiamo copiando, senza esercitare l’uso delle nostre funzioni cognitive come la concentrazione o l’elaborazione (cosiddetta di alto livello), allora utilizzeremo meno le risorse fisiche necessarie a far emergere il pensiero.
Nel momento in cui leggiamo, interpretiamo, memorizziamo attivamente il contenuto di un testo, allora sarà rilevabile una maggiore attività neurale. Questo non dovrebbe apparire come uno shock, in particolare a chi ha avuto modo di sperimentare, negli anni della scuola, diverse tecniche di copiatura: dalle versioni di latino allo svolgimento di esercizi matematici, l’esperienza di apprendimento cambia visibilmente se viene elaborato un esercizio di incorporazione rispetto al copiare senza riflettere sul contenuto. Questo non significa che l’apprendimento debba coincidere con lo sforzo, ma sicuramente con una dose di lavoro che passa per la mediazione del corpo e la riflessione approfondita e attenta.
La sessione di scambio e l’ordine d’uso degli strumenti
Ciò da cui invece ci dobbiamo distaccare è il tono sensazionalistico con cui è riportato il resto dell’esperimento e le sue implicazioni teoriche (e conseguenze). Un aspetto cruciale dell’esperimento, spesso trascurato nelle prime riprese mediatiche, è stata infatti la “sessione di scambio”: in questa fase, i partecipanti che avevano precedentemente utilizzato ChatGPT sono stati invitati a scrivere senza ausili, mentre il gruppo di controllo è stato introdotto all’uso dell’IA. I risultati hanno dimostrato una profonda differenza: i partecipanti che avevano iniziato il processo di scrittura in modo autonomo e solo in seguito avevano utilizzato l’IA per migliorare o espandere i loro saggi hanno mostrato una connettività neurale maggiore e un engagement più elevato rispetto a coloro che avevano usato l’IA fin dall’inizio. Al contrario, gli utenti che sono partiti con l’IA e poi passati alla scrittura autonoma hanno continuato a mostrare una connettività ridotta, suggerendo un “influsso persistente” delle “modalità di pensiero” derivate dall’uso di IA generativa, come l’uso di un vocabolario omogeneizzato.
Il concetto di debito cognitivo
La nozione principe dello studio è quella di “debito cognitivo”, situazione che si verifica nel momento in cui, durante l’interazione con strumenti tecnologici quali le IA, il processo di scarico (offloading)cognitivo che il nostro sistema attua nei confronti dell’ambiente comporta una “riduzione” dell’attivazione neurofisiologica che l’individuo dovrà “ripagare” in futuro. Il debito viene ripagato con costi diversi: recuperando con più fatica abilità non esercitate, affrontando difficoltà maggiori quando la tecnologia non è disponibile, o producendo testi/idee meno originali e più omologati. Il meccanismo – che non è scevro da implicazioni di tipo morale – prevede una sorta di vantaggio immediato, sulla scorta di un costo nascosto (lo scarso engagement neurale) che può – anche se mancano prove empiriche al riguardo – distribuirsi sul lungo periodo. Il debito cognitivo non indicherebbe tuttavia un danno irreversibile, ma uno squilibrio dinamico: l’automazione porta benefici immediati, ma rischia di ridurre la crescita e la manutenzione delle risorse cognitive, lasciandoci in futuro più dipendenti dalla macchina.
Offloading cognitivo e mente estesa
È forse necessario, al fine di inquadrare efficacemente lo studio, ricordare brevemente in cosa consiste il processo di offloading cognitivo, ipotesi che sta alla base della teoria cognitiva della mente estesa. Questo ultimo consiste nello spostamento – non per forza intenzionale – del lavoro (inteso come processo, e non soltanto elaborazione computazionale) cognitivo su strumenti esterni, che vengono utilizzati per alleggerire lo sforzo mnemonico o il ragionamento. Tipico è l’esempio del fisico Richard Feynman che sosteneva come il suo ragionamento avvenisse sulla carta, e non potesse essere attribuito unicamente a ciò che succedeva all’interno della sua testa. Senza le possibilità «aperte» dalla tecnologia (in questo caso, la carta), il processo mentale non sarebbe stato eseguibile. Anche qui, se facciamo riferimento alla esperienza condivisa di studio e apprendimento, il concetto appare quasi scontato.
Questo dipende da un’altra nozione, quella di carico cognitivo: se il costo di un compito è troppo alto rispetto alle capacità di elaborazione disponibili, allora la performance di un compito sarà ridotta; se questo è equilibrato, l’apprendimento sarà ottimale. Per questo ci rimettiamo a libri, fogli, schemi, “pizzini” e altri supporti per la nostra attività cognitiva: il meccanismo dell’offloading cognitivo non è una degenerazione dell’intelligenza naturale, ma la normale condizione umana, un metodo di interazione con l’ambiente tipico della nostra specie.
Sfide pedagogiche e delega alla macchina
Il problema per lo sviluppo delle capacità di elaborazione concettuale è una sfida pedagogica che è sempre esistita. Se da un lato non sono fuori luogo i paragoni con la calcolatrice – strumento tecnologico a cui possiamo delegare la nostra attività di calcolo – che potrebbero quindi portarci a dismettere l’argomento dell’impigrimento cognitivo come obsoleto o infondato, dall’altro sono comprensibili le preoccupazioni emergenti a proposito dell’IA generativa.
Non soltanto per quanto riguarda il problema delle allucinazioni o la scarsa affidabilità dei suoi output, ma per il tipo di attività che possiamo potenzialmente delegare alla macchina e che aprono a un numero indefinito di scenari.Come si sosterrà più avanti infatti, tramite il linguaggio possiamo svolgere qualsiasi attività (trattandosi di un sistema modellizzante primario, come voleva Lotman): sia mentire che dire la verità, sia produrre ragionamenti validi – cioè coerenti – da un punto di vista logico che stravolgere un argomento con un sofisma (un sofisma è un argomento che sembra valido retoricamente, ma che nasconde una fallacia o che è costruito apposta per incantare l’uditorio).
Uso costruttivo e prospettiva della mente estesa
Se quindi aumentano esponenzialmente le attività che possiamo delegare alla macchina, come facciamo ad assicurarci che ne venga fatto un uso costruttivo in termini educativi e pedagogici? Il contraltare negativo di questo argomento (cioè del rischio della delega) ha a che fare col riduzionismo neurocognitivo, e con una lettura ingenua dell’ipotesi della mente estesa.
Se non si conosce abbastanza il dibattito intorno a questa nozione (di mente estesa) si possono infatti male interpretare le sue conseguenze teoriche, pensando che essa coincida con un argomento ingenuo rispetto alla coscienza delle macchine, o che l’Intelligenza Artificiale sia una estensione dell’intelligenza umana. Niente di tutto questo: adottare una posizione di questo tipo significa riconoscere che esiste naturalmente un margine di incorporazione di risorse esterne nei nostri processi cognitivi, che sono costitutivamente ibridi e “artificiali”.
Usi efficaci dell’IA nell’apprendimento
L’IA generativa, nella prospettiva di una mente estesa, può essere vista come un supporto che prende parte a un processo (inscindibile dal funzionamento del nostro sistema cognitivo!), fornendoci una base per raggiungere in maniera più efficace un obiettivo. Ciò che è necessario per sconfessare una nozione moralista di debito cognitivo è assicurare un uso consapevole e accorto della tecnologia, che permetta di fare esperienze di apprendimento significative.
Non è un caso che un altro studio pubblicato su PNAS[11] abbia fatto emergere – in contesti dotati di campioni più ampi e attraverso design della ricerca basato su trial controllati e randomizzati (RCT) – usi efficaci dell’integrazione di Chatbot basati su LLM all’interno dell’esperienza didattica, laddove l’agente conversazionale fornisce delle domande che orientino l’apprendimento e che svolgano una funzione di tutoraggio. In questo caso, non solo vi è un miglioramento nella performance immediata, ma il “danno” (ossia il fatto di non ricordare le nozioni apprese insieme alle IA, o in generale l’idea di aver “peggiorato” le performance) viene azzerato, nel senso in cui non si osserva un peggioramento significativo rispetto al gruppo di controllo.
L’uso di uno strumento, così come le sue conseguenze, non seguono quasi mai dei percorsi di determinazione causale, ma passano attraverso una serie di mediazioni: una di queste mediazioni è il discorso, inteso come insieme di conoscenze, socialmente e culturalmente determinato, di cui fanno parte anche quelle che Eco chiamava competenze enciclopediche (Eco 1979; 1984), ossia nozioni, narrazioni, convenzioni sociali e stereotipie. Queste non sono positive o negative a priori, quanto inevitabili: fanno parte del funzionamento degli esseri umani in quanto animali sociali e sono strettamente correlate al linguaggio.
Opposizioni binarie e domini di discorso: dal dibattito pubblico a quello scientifico
Tanto in ambito giornalistico quanto in ambito scientifico la vera sfida, secondo chi scrive, consiste nel non cadere nelle opposizioni classiche che accompagnano le prese di posizione sull’Intelligenza Artificiale. Un esempio lampante è quello che tende a opporre l’umano al tecnologico, come se il primo fosse naturale e l’altro culturale: Intelligenza Naturale vs. Intelligenza Artificiale, come se la prima esistesse in maniera indipendente dalla tecnica, dalla cultura e dal contesto. In che modo l’intelligenza umana è naturale se si serve costantemente di risorse esterne per funzionare? Forse la natura stessa dell’umano è quella di interagire costantemente col proprio ambiente in maniera efficace e di sfruttare le risorse a sua disposizione per orientarsi nel mondo?
Storia e approcci dell’intelligenza artificiale
Passando all’Intelligenza Artificiale, opporla a quella naturale significa non riconoscere che l’IA non sia il prodotto storico di una specifica idea di intelligenza (Dreyfus 1992, Crawford 2021), che ha poi seguito trasformazioni e diverse “stagioni” di sviluppo (Monti 2025), arrivando all’ipotesi connessionista che ha in parte ridimensionato l’approccio simbolico all’Intelligenza Artificiale. In maniera molto semplice, se la prima puntava a costruire sistemi basati su logica formale, regole “if-then” e rappresentazioni simboliche della conoscenza, il secondo ha risolto il problema di costruzione di sistemi intelligenti tramite modelli in grado di apprendere (riconoscere e riprodurre) pattern da grandi quantità di dati. L’IA di tipo connessionista consiste in un modello matematico che si allena a riconoscere schemi e fare previsioni, mentre tipici sistema simbolico sono i “sistemi esperti” o i motori inferenziali.
Linguaggio, realtà e limiti delle opposizioni
Il rapporto tra connessionismo e IA simbolica ci restituisce un’altra opposizione fallace e fuorviante, quella tra linguaggio e realtà. Da una parte ci sarebbe il linguaggio, e dall’altra il reale, come se la realtà non fosse composta anche dai prodotti di linguaggio, e potesse essere analizzata estromettendo il linguaggio come elemento “accessorio” al reale. Non è un caso se l’impresa dell’Intelligenza Artificiale – inteso come il progetto scientifico di imitare le capacità dell’essere umano – si sia trovata presa tra un’ipotesi di tipo simbolico – legata alla fiducia in una realtà che dovrebbe seguire le regole della logica – e un’ipotesi di tipo connessionista – legata alla possibilità di trovare delle regolarità nella nostra esperienza, generalizzabili e riproducibili. Se dobbiamo affidarci a una diagnosi medica che sfrutta sistemi di IA, allora sarà bene impiegare sistemi dotati di ontologie (ossia database relazionali che prevedono relazioni rigide tra gli elementi) in grado di operare in maniera deduttiva e inferenziale a partire da un insieme chiuso di casistiche. Se invece dobbiamo rendere più comprensibile un testo scritto in un linguaggio a noi oscuro o sarà bene affidarsi a un Chatbot che sfrutta un LLM. Non è un caso che l’abilità di linguaggio sia diventata una facoltà imitabile da parte di sistemi di IA nel momento in cui si è abbandonata l’ipotesi simbolica, poiché il linguaggio non funziona rispondendo a regole di tipo logico-formale, ma ammette la contraddizione (cfr. Eco 1975) e costituisce un sistema che, idealmente, può funzionare in maniera arbitraria; le regole del linguaggio sono norme che si stratificano nel tempo (cfr. Lorusso 2010) e che emergono tramite la stratificazione degli usi.
Complessità scientifica versus semplificazione mediatica
Il linguaggio mediatico (e quello che si sviluppa in ambienti come le piattaforme social) ci ha abituati alle opposizioni binarie, alla distinzione bianco-nera. Se si considera inoltre come, secondo l’ipotesi strutturale, le opposizioni giochino un ruolo fondamentale nell’emersione del senso, in quanto permettono la costituzione dei valori che sono alla base dell’esperienza umana, allora non apparirà come un caso che, da un punto di vista comunicativo, sia molto più efficace proporre una distinzione binaria che non un ragionamento di tipo complesso.
La scienza e l’indeterminazione dei sistemi
Ma è proprio la complessità che regge il funzionamento del dispositivo scientifico moderno: chi pratica – in maniera seria – il metodo scientifico non produce infatti enunciati di tipo riduzionistico, ma ammette l’indeterminazione e l’apertura dei sistemi. La scienza fa fatica tout court a produrre enunciati poiché deve passare per una serie di sistemi di garanzia che le permettono di non praticare distinzioni binarie, o attribuire dei meccanismi di causa effetto all’interno di processi multifattoriali. È molto difficile infatti dimostrare scientificamente le dinamiche di causa ed effetto dei processi sociali, poiché a seconda dei metodi utilizzati si potrebbero produrre risultati diversi, e a seconda del metodo utilizzato devono essere prodotte delle scelte che rendono meno generalizzabili alcuni studi. Pensiamo infatti alla scarsa generalizzabilità di esperimenti svolti in contesti controllati, laddove è più difficile misurare quella che Hutchins (1995) chiamava cognition in the wild, ovvero i processi cognitivi che emergono nelle pratiche reali, integrate con strumenti, ambiente fisico, interazioni sociali e vincoli contestuali.
Meta-analisi e limiti della comparabilità
Studiare l’effetto dell’IA sulla cognizione in generale è qualcosa di molto complesso. Un modo in cui la ricerca scientifica – ma molto cambia da dominio disciplinare a dominio disciplinare, poiché spesso l’analisi dei dati non ha le stesse basi concettuali dell’analisi statistica – prova a ovviare alla complessità è attraverso lo strumento delle meta-analisi, che cercano di standardizzare grandezze eterogenee tramite una stessa misura (il cosidetto effect size standardizzato). Questo può consentire di mettere sullo stesso piano risultati espressi in scale diverse, e provare ad “allargare lo sguardo” rispetto alle limitazioni rappresentate dai singoli esperimenti. Allo stesso tempo, però, le meta analisi presentano dei limiti; anche se standardizzati, gli effect size derivano da fenomeni concettualmente diversi, senza garantire una comparabilità non è perfetta: si rischia di mescolare “mele e pere”.
Evidenze di aumentazione umana senza sinergia
Uno studio con meta analisi che si basa su questo tipo di standardizzazione è ad esempio quello di Vaccaro, Almaatouq & Malone (2024) che si chiede quando i sistemi umano – IA funzionino “meglio” delle persone o delle macchine, ciascuna presa sigolarmente. Per rispondere, gli autori hanno condotto la prima review sistematica e meta-analisi preregistrata sugli esperimenti di collaborazione umano – IA pubblicati tra gennaio 2020 e giugno 2023. L’articolo parla di evidenze di aumentazione umana, ossia casi in cui la combinazione di umano e IA supera significativamente l’umano da solo, ma sottolinea con forza l’assenza di una di sinergia media: i sistemi umano – IA performano peggio del migliore tra umano e IA da soli.
È chiaro che per poter rendere gli studi misurabili sono state create delle condizioni laboratoriali che non corrispondono per forza all’uso reale di questi strumenti (quali sono i casi in cui l’IA performa “da sola”?), e che campioni di riferimento e performance valutate siano molto eterogenei tra loro, ma alla difficoltà qualitativa la meta analisi risponde con una media quantitativa. Ciò che è fondamentale capire, rispetto al rapporto con il racconto mediatico e con il suo framing è che questo studio – così come fa la stessa Kosmyna rispetto all’esperimento del MIT – non propone una generalizzabilità assoluta degli analisi, ma spiega nel dettaglio quali sono i limiti della propria ricerca in termini di comparabilità delle misure, bias di pubblicazione e di selezione degli argomenti di ricerca, qualità degli studi inclusi, e soprattutto una alta eterogeneità tra gli effetti: questo rende difficile spiegare le interazioni tra diverse variabili.
Adattabilità della macchina e ruolo del linguaggio
Di fronte a una situazione così variegata, rimane un dubbio: come è possibile che uno stesso strumento porti a reazioni cosi diverse, dibattiti così accesi, e risultati così eterogenei nello studio dei suoi effetti? Questo molto probabilmente avviene in funzione dell’estrema adattabilità della macchina a compiti diversi. Questo, si vuole sostenere, non è semplicemente merito della macchina, ma di quello che la macchina imita: il linguaggio.
Variabilità dell’output e metafore fuorvianti
Dal momento che la macchina è in grado di imitare il funzionamento del linguaggio umano, l’output di una IA generativa è aperto, non pre-determinato, e quindi completamente dipendente da una serie di condizioni altamente variabili: la costruzione del prompt, il tipo di risorse che sono state date in pasto al LLM per mettere in moto il suo funzionamento, le competenze dell’utente. A influire sull’affidabilità di una risposta vi è la condizione di fornirgli delle fonti affidabili, dotate di informazioni fattuali accreditate, per ridurre le allucinazioni e gli errori; a garantire l’affidabilità dell’ouput è altrimenti la presenza di fonti “consultate” per produrre una risposta, magari attraverso l’attivazione di un crawler per individuare delle fonti online.
Quando si scrive “consultate” si sta usando una metafora. Uno dei problemi legati all’antropomorfizzazione dell’IA consiste nel lessico metaforico che ci troviamo costretti a usare per evitare lunghe perifrasi. È evidente che un LLM “non consulta”, così come “non pensa” o non è dotato di coscienza. Tuttavia, esattamente come fanno gli esseri umani, può sfruttare il funzionamento del linguaggio per produrre ragionamenti validi o ragionamenti fallaci. Le allucinazioni non sono degli “errori” prodotti dalla macchina, ma fanno parte del suo funzionamento ordinario e del fatto che la base di dati elaborata per produrre le risposte dal Transformer – la semantica vettoriale che realizza un’idea di semantica topologica (cfr. Eco 2007) – consista di dati linguistici, dove il rapporto tra significante e significato è arbitrario e non motivato.
Funzione conoscitiva del linguaggio
Il fatto che manipoli unicamente il linguaggio non vuol dire che non possa essere utilizzato per scopi conoscitivi o che non possa produrre conoscenza. Certo, se per conoscenza si intende una proposizione in linea con delle condizioni referenziali di verità, allora è molto difficile che la macchina produca automaticamente delle risposte di questo tipo. Se si accetta però che il mondo è un insieme complesso di fenomeni, e che il linguaggio può essere un veicolo per aumentare la nostra conoscenza del mondo stesso (attraverso l’esplicitazione delle prospettive, o la traduzione tra diversi testi e linguaggi), allora si possono intravedere delle possibilità di utilizzo delle IA generative che potenzino il pensiero critico o che allenino a smontare degli argomenti retoricamente inefficaci. È infatti fallace pensare che dal momento che una IA generativa può produrre risultati sbagliati secondo criteri di corrispondenza, allora non svolga alcun tipo di funzione conoscitiva. Significa non riconoscere che il linguaggio, la cultura e il sapere teorico attraversino ogni forma di ragionamento e che possano dare forma anche all’elaborazione concettuale. L’uso di un LLM dovrebbe coincidere con l’esplorazione di uno spazio latente di possibilità (cfr. Monti 2025).
Buone pratiche per l’uso efficace
Se si considera un utente inesperto, è vero che l’integrazione delle funzioni di ricerca online e di elaborazione linguistica all’interno dello stesso applicativo web rischia di rendere (ancora) più opaco il funzionamento di Chatbot basati su LLM, portando a confonderli con motori di ricerca e a non adottare i comportamenti adeguati a rendere efficace il loro uso. Ma questo non li rende inutili per lo studio o per la ricerca, semplicemente richiede l’adozione di un insieme di buone pratiche.
Per questi motivi, uno dei migliori uso che si può fare di un Chatbot che usa IA generativa è quello di formulare delle sintesi di fonti recuperate all’esterno dell’ambiente (e controllate). Nel suo funzionamento standard infatti, per produrre una risposta, il sistema non “controlla” singolarmente le diverse fonti, ma “interroga” una vastissima quantità di dati producendo poi delle risposte coerenti dal punto di vista di lessico, sintassi e semantica su base probabilistica. Si può sostenere che abbia una competenza linguistica (mediata tecnicamente) ma non una capacità di verifica fattuale o empirica: se quindi è l’utente a fornire documenti dotati di una alta affidabilità, si riduce drasticamente il rischio di avere risposte scorrette o inaffidabili. Diventa insomma ancora più importante avere utenti consapevoli del funzionamento del sistema, in modo che questi ultimi possano attribuirgli le giuste task, e mettere in campo le variabili necessarie all’ottenimento di un output utile allo studio.
Limiti dell’approccio computazionalista
Si può sostenere che la posizione sensazionalista faccia il cosiddetto passo più lungo della gamba, passando dalle evidenze neurofisiologiche alle conseguenze cognitive senza inquadrarle adeguatamente (come invece fanno gli scienziati che producono i diversi studi). Questo però non è dovuto solo al sensazionalismo, ma anche all’implicita idea di mente che soggiace a queste indagini. Il problema dell’approccio cosiddetto “computazionalista” alla mente, che la vede come un semplice elaboratore di input e output, è che rende quasi immediati i rapporti di causa ed effetto nelle dinamiche cerebrali. In realtà, secondo diversi approcci filosofici la mente è un fenomeno, complesso e irriducibile al suo funzionamento meccanico (come d’altronde insegna l’hard problem di David Chalmers). Un’esperienza di utilizzo di uno strumento non è qualcosa che può essere ridotta alla misurazione di ciò che avviene al sostrato fisico dell’utente, poiché molti di più sono i fattori in gioco, che attraversano diversi livelli di esistenza: vi sono gli obiettivi che indirizzano l’azione, le competenze dell’utente, lo stato generale e condiviso di conoscenza di quello strumento. A questo potremmo aggiungere che tanto nel discorso pubblico quanto in quello scientifico, l’utilizzo delle tecniche di neuroimaging (sia che si tratti di EEG, che di MRI, che della combinazione dei due) rischia spesso di essere utilizzata in maniera strumentale o di generare una seduzione neuroimmaginativa (Gallese, Moriggi, Rivoltella 2025).
Rapporto tra linguaggio e pensiero
Ciò che rimane da analizzare è il rapporto tra il linguaggio e il pensiero: se sappiamo che il linguaggio contribuisce a dare una forma agli eventi – dal momento in cui due racconti diversi sullo stesso evento possono differire ma essere entrambi veri – non è affatto detto che la nostra capacità di ragionare sia dettata dal linguaggio. Noi utilizziamo attivamente segni esterni (come le parole) per ragionare, ma il livello concettuale del ragionamento è distinto da quello linguistico del significato, e i due – seppur condividano la natura categoriale – lavorano secondo meccanismi diversi. Certamente, l’interpretazione – la semiosi che produce senso – è un movimento dinamico che attraversa entrambi i livelli, e spesso segue le norme culturali sedimentate nell’uso del linguaggio, ma non possiamo sostenere che all’origine della nostra facoltà di ragionamento vi sia il linguaggio. Questo è uno dei veicoli del pensiero, ma il secondo non coincide col primo. Certo, ragionare utilizzando parole inadeguate porterà probabilmente a conclusioni inadeguate, ma è improbabile che si tratti di un percorso deterministico, quanto di una modifica nelle condizioni di possibilità di una attività che eccede queste ultime.
Loop culturale e omologazione lessicale
Più interessante che chiedersi se diventeremo tutte e tutti cognitivamente pigri (che, per altro, rivela di un’ ideologia della produttività a ogni costo) è forse osservare come il linguaggio degli LLM abbia già avuto, secondo alcune ricerche (Yakura et al 2024, sempre in pre-print!) un’incidenza sulla scelta di parole utilizzate negli scambi comunicativi, orientando la nostra scelta lessicale e, secondo alcuni, limitandola: se possiamo a questo punto affermare che l’IA non ci renderà stupidi, sembra alle porte il rischio di trovarci all’interno di un “closed cultural feedback loop in which cultural traits circulate bidirectionally between humans and machines”. La cultura è infatti il luogo dove si sedimentano i valori, che sono un elemento fondamentale nei processi cognitivi e interpretativi. Più preoccupante della scarsa capacità referenziale dei chatbot, è la qualità delle loro interpretazioni, dipendente dai prompt – e dall’abbonamento che ci possiamo permettere.
Questioni sociali urgenti e prospettive future
Forse il loop culturale tra uomo e macchina è un processo iniziato moltissimo tempo fa, che coincide con la tesi della tecnica come elemento antropologicamente costitutivo dell’umano. Tuttavia, la forte dipendenza del funzionamento dei Chatbot general purpose dalle possibilità correlate ai diversi piani economici di abbonamento può porre un serio problema sociale in termini di disuguaglianze.
Senza farsi traviare dalla scelta lessicale dei modelli e dalle promesse del marketing di questi nuovi player del settore tech – quando Sam Altman lancia un nuovo modello di GPT e lo chiama thinking sa benissimo che si tratta di una combinazione più performante di elaborazione linguistica accorpata al fine tuning, e non di “ragionamento” nel senso classico del termine – dobbiamo prendere atto del progressivo miglioramento nella qualità degli output di questi sistemi. Assistiamo da mesi a un’accelerata senza freni dello sviluppo di modelli sempre più performanti, costringendoci a rivedere costantemente i nostri giudizi, le nostre modalità d’uso, a sperimentare possibilità nella pratica: i benefici in termini di tempo sono evidenti e sotto gli occhi di molti. Di fronte alla possibilità che questa svolta tecnologica ci possa liberare dal lavoro, rimane tuttavia una preoccupazione. Il fatto di poter fare più cose in meno tempo ci permetterà di guadagnare tempo libero, o cambierà il verace mercato del lavoro costringendoci a lavorare (ancora) di più?
Al netto delle paure tecnofobiche sull’impigrimento cognitivo, e una volta compreso che il debito cognitivo può essere scontato preventivamente da un uso consapevole e informato del sistema, è arrivato forse il momento di interrogarci su questioni più urgenti – come la disparità di competenze digitali tra gli utenti, l’utilizzo di agenti conversazionali come surrogato delle relazioni umane, o la possibilità di un (ulteriore) inasprimento delle disuguaglianze a partire dalle diverse possibilità di accesso a diversi sistemi di IA. Alla paranoia della sostituzione dobbiamo sostituire il coraggio di progettare un’integrazione efficace dei sistemi di IA generativa nelle nostre pratiche sociali: questo renderà necessario andare oltre alla demonizzazione dello strumento e farla finita finalmente con la paura, platonica,di dimenticarci di chi siamo.
Bibliografia
Bastani H., Bastani O., Sungu A., Ge H., Kabakcı Ö., Mariman R.
2025 “Generative AI without guardrails can harm learning: Evidence from high school mathematics”, Proc. Natl. Acad. Sci. U.S.A, 122 (26) e2422633122, https://doi.org/10.1073/pnas.2422633122.
Crawford, K.
2021 Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, New Haven.
Dreyfus, H.
1992 What Computers Still Can’t Do. A Critique of Artificial Reason, MIT Press, Boston.
Eco, U.
1975 Trattato di semiotica generale, Bompiani, Milano.
1979 Lector in Fabula, Bompiani, Milano.
1984 Semiotica e filosofia del linguaggio, Einaudi, Torino.
2007 Dall’albero al labirinto, Bompiani, Milano.
Gallese, V., Rivoltella, P.C., Moriggi, S.
2025 Oltre la tecnofobia. Neuroscienze ed educazione al digitale, Raffaello Cortina, Milano.
Hutchins, E.
1995 Cognition in the Wild, MIT University Press, Boston.
Kosmyna, N., et al.
2025 “Your brain on chatgpt: Accumulation of cognitive debt when using an ai assistant for essay writing task”, arXiv preprint, arXiv:2506.08872, 4
https://arxiv.org/abs/2506.08872?utm_source=chatgpt.com.
Lorusso, A. M.
2010 Semiotica della cultura, Laterza, Roma-Bari.
Lotman
1985 La semiosfera. L’asimmetria e il dialogo nelle strutture pensanti, Marsilio, Venezia.
Monti, N.
2025 Prompting. Politiche e poetiche dell’Intelligenza Artificiale, Tlon Edizioni.
Vaccaro, M., Almaatouq, A. & Malone, T.
2024 “When combinations of humans and AI are useful: A systematic review and meta-analysis”, Nature Human Behaviour, 8, 2293–2303 (2024). https://doi.org/10.1038/s41562-024-02024-1.
Yakura, H., Lopez-Lopez, E., Brinkmann, L., Serna, I., Gupta, P., Soraperra, I., & Rahwan, I.
2024 “Empirical evidence of Large Language Model’s influence on human spoken communication”, arXiv preprint, arXiv:2409.01754.
https://arxiv.org/abs/2409.01754.
[1] Chi scrive è consapevole dell’enorme rischio riduzionistico inerente al costruire un corpus d’analisi isolando solo testate nordamericane e italiane; l’articolo qui presentato non ha pretese di esaustività o di generalità ma vuole prendere come caso d’analisi il dibattito pubblico su un tema specifico per come questo può essere appreso da un lettore italiano facente riferimento a testate affermate e conosciute. Data l’arbitrarietà nella scelta degli esempi, l’autore si assume ogni responsabilità rispetto a eventuali mancanze o imprecisioni date dalla scelta di concentrarsi sul discorso pubblico in Italia e USA.
[2] Per un’analisi semiotica del rapporto tra dominio del discorso scientifico e dominio del discorso mediale cfr. Alessi 2024.
[3] https://nypost.com/2025/06/19/tech/chatgpt-is-getting-smarter-but-excessive-use-could-destroy-our-brains-study-warns/?utm_source=chatgpt.com
[4] https://www.corriere.it/economia/intelligenza-artificiale/25_giugno_20/chatgpt-cervello-risultati-studio-mit-432a4af7-cc10-4e7a-aba8-e56ca5206xlk.shtml?utm_source=chatgpt.com
[5][5] https://time.com/7295195/ai-chatgpt-google-learning-school/?utm_source=chatgpt.com
[6] https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/#faq-is-it-safe-to-say-that-llms-are-in-essence-making-us-dumber
[7] https://www.nature.com/articles/d41586-025-02005-y
[8] https://www.nature.com/articles/d41586-025-00292-z
[9] https://www.washingtonpost.com/health/2025/06/29/chatgpt-ai-brain-impact
[10] Articolo citato in precedenza
[11] https://hamsabastani.github.io/education_llm.pdf?utm_source=chatgpt.com











