Pensiero umano e IA

Perché ChatGPT non “pensa” come un umano: quattro criteri decisivi



Indirizzo copiato

Le macchine pensano? La domanda sembra semplice, ma tocca livelli diversi: ciò che osserviamo dall’esterno e ciò che accade “dentro” un sistema. Definire il pensiero tra psicologia e neuroscienze permette di chiarire quali criteri stiamo davvero usando quando giudichiamo i moderni modelli linguistici

Pubblicato il 5 mar 2026

Matteo Benati

Sony Computer Science Laboratories – Rome, Roma, Centro Ricerche Enrico Fermi, Sapienza Università di Roma, Dipartimento di Fisica, Italia

Denise Lanzieri

Sony Computer Science Laboratories – Rome, Centro Ricerche Enrico Fermi

Alessandro Londei

Sony Computer Science Laboratories – Rome, Centro Ricerche Enrico Fermi

Vittorio Loreto

Sony Computer Science Laboratories – Rome, Roma, Centro Ricerche Enrico Fermi, Sapienza Università di Roma, Dipartimento di Fisica, Italia, Complexity Science Hub, Vienna, Austria



sistemi di visione artificiale mempria dell'IA Intelligenza Artificiale Generale nuovi camaleonti ia AI e comunicazione ia e pensiero ignoranza artificiale Capitale Semantico arte IA ai readiness Pensiero umano e intelligenza artificiale

Come si può definire il pensiero? Sotto questa parola convivono molti fenomeni diversi: giudizi, immagini, ricordi, valutazioni e piani d’azione. Alcuni sono contenuti (ciò che “abbiamo in mente”), altri sono operazioni (ciò che la mente “fa” con ciò che ha). In entrambi i casi, si tratta di qualcosa di implicito: un’attività interna che può guidare l’interpretazione del mondo e le decisioni anche senza essere esplicitata.

In psicologia, un pensiero è inteso come un contenuto o un’operazione mentale che agisce su rappresentazioni interne, anche in assenza di stimoli esterni immediati. Dal punto di vista delle neuroscienze, invece, tali contenuti corrispondono a configurazioni dinamiche di attività nel cervello: brevi ma strutturati schemi di attivazione che si propagano e si riorganizzano nel tempo all’interno di reti neurali distribuite nella corteccia cerebrale.

Durante un pensiero, diverse aree del cervello aumentano o riducono la propria attività, si sincronizzano in specifiche frequenze oscillatorie e modificano temporaneamente le loro connessioni funzionali, permettendo di combinare informazioni percettive, mnestiche ed emotive.

Due domande diverse che ci poniamo quando ci chiediamo se le macchine pensano

Partendo quindi da quanto conosciamo del fenomeno “pensiero” e dell’attività associata del cervello, quando ci chiediamo se una macchina possa pensare, stiamo in realtà ponendo almeno due domande diverse.

La prima è comportamentale: se una macchina produce risposte sensate, coerenti, creative, non dovremmo forse considerarla pensante, almeno per scopi pratici?

La seconda è interna: per parlare davvero di pensiero, non dovremmo richiedere qualcosa di analogo a quei processi dinamici cerebrali descritti sopra, con auto-riflessione (ossia riflettere sui propri pensieri), apprendimento continuo, revisione degli obiettivi e inserimento in un contesto di storia personale?

I moderni modelli linguistici di grandi dimensioni (LLM), come ChatGPT e simili, hanno reso questa domanda improvvisamente concreta. Non si tratta più di un robot immaginario in un racconto di fantascienza: è il programma con cui oggi molti di noi interagiscono ogni giorno. Questi sistemi generano testi grammaticalmente corretti, spesso informati e pertinenti nel contesto.

Quattro criteri per definire “pensante” un LLM

Ma è sufficiente questo per dire che “pensano”? Partendo dalle considerazioni psicologiche e neuroscientifiche, per definire un LLM come “pensante” occorre accettare almeno quattro criteri:

(1) che sia sufficiente la produzione di output ben formati e pertinenti;

(2) che l’astrazione e il meta-pensiero possano essere accantonati a favore dell’inferenza statistica;

(3) che pensare non richieda l’integrazione continua di nuove informazioni tramite esperienza;

(4) che un sistema addestrato su dati umani possa ereditare conoscenza e coerenza, dimenticando invece le contraddizioni e i bias presenti in quei dati.

Esaminare questi quattro punti ci permette di capire meglio che cosa intendiamo davvero per “pensare”. In breve, dove oggi le macchine si avvicinano ai nostri processi mentali, e dove invece se ne discostano radicalmente.


Output ben formati e pertinenti: basta il comportamento linguistico?

Il primo assunto riguarda il comportamento linguistico: se un LLM produce frasi ben formate, contestuali e pertinenti, questo basterebbe ad attribuirgli pensiero? Da un lato, è plausibile dire che un linguaggio articolato sia una condizione necessaria (o comunque molto utile) per valutare il pensiero in un organismo: attraverso ciò che un soggetto dice, inferiamo ciò che pensa.

Ma il passo successivo, ossia affermare che un linguaggio ben formato sia anche una condizione sufficiente, è molto più problematico. Sappiamo, infatti, che esistono esseri umani con un pensiero sofisticato ma con capacità espressive limitate, così come persone con notevoli abilità retoriche ma scarso spessore concettuale. Il linguaggio rivela, ma può anche mascherare.

Allo stesso modo, un LLM può generare testi fluenti senza possedere nulla che somigli a un mondo interno di credenze, desideri, intenzioni. Sul piano neurocognitivo, inoltre, il pensiero non coincide con la frase pronunciata o scritta, ma con i processi dinamici che la producono: l’attivazione di circuiti che integrano memoria, percezione, emozione, valutazione.

In un sistema biologico, questi processi sono legati al corpo, alla storia personale, alla continua interazione sensomotoria con l’ambiente. Un LLM, invece, opera come un gigantesco trasformatore statistico: dato un contesto testuale, calcola quale sequenza di parole sia più probabile, sulla base di ciò che ha visto durante l’addestramento.

Possiamo quindi dire che la capacità di produrre output linguistici ben formati è necessaria per simulare il pensiero, ma non basta a garantirne l’esistenza. È come osservare un simulatore di volo: il paesaggio sullo schermo appare realistico, ma non c’è alcun aeroplano che si alzi davvero da terra.


Meta-pensiero e auto-modifica: riflettere sulle regole del sistema

Il secondo punto riguarda il meta-pensiero, ovvero la capacità di riflettere sui propri pensieri, di esaminare criticamente le proprie regole interne e, se necessario, modificarle. Douglas Hofstadter, in Gödel, Escher, Bach, utilizza il famoso “gioco MU” come metafora di un sistema che segue semplicemente delle regole per modificare il proprio output, ma che non è in grado di “uscire dal sistema”, di riflettere sulle regole stesse e di inventarne di nuove.

Gli esseri umani esercitano la facoltà di “astrarre il sistema” in molti modi: quando cambiano prospettiva su un problema, quando mettono in discussione convinzioni profonde, o quando ristrutturano per esempio i propri valori morali. Dal punto di vista cerebrale, questo coinvolge circuiti prefrontali e reti di ordine superiore che monitorano altre parti del sistema, instaurando una sorta di ricorsione funzionale: alcune aree “osservano” e modulano ciò che altre stanno facendo.

Un LLM può descrivere il proprio funzionamento, può “parlare” di sé, può produrre testi che sembrano meta-riflessivi. Ma a livello architetturale non possiede, oggi, la capacità di modificare in autonomia i propri obiettivi o le proprie regole di aggiornamento. Non decide di cambiare funzione di costo, non si dà nuovi scopi, non riscrive il proprio codice. È vincolato alla statistica dei dati con cui è stato addestrato e alle scelte progettuali dei suoi creatori.

Da questo punto di vista, il suo “meta-pensiero” è più una simulazione linguistica che un processo effettivo di auto-modifica. È come un attore che interpreta un personaggio che si interroga su sé stesso: il testo è credibile, ma l’attore, fuori scena, resta ciò che è, mentre, quando recita, è semplicemente guidato da un copione inalterabile.


Apprendimento continuo e storia personale: pensare come trasformazione nel tempo

Il terzo assunto riguarda la mancanza di apprendimento continuo. Nella vita quotidiana, gli esseri umani modificano costantemente il proprio modo di pensare: apprendono da nuove esperienze, cambiano opinione, aggiornano le aspettative e gli obiettivi. Il cervello è plasticamente in equilibrio fra stabilità e cambiamento: consolida alcuni schemi, ne abbandona altri, riorganizza le connessioni a scala sinaptica e di rete.

Gli LLM, invece, vengono addestrati su una grande massa di testi fino a convergere verso un minimo di una funzione di errore definita su una distribuzione di dati che, per costruzione, viene trattata come statica. Una volta addestrato, il modello non continua a modificarsi in tempo reale mentre parla con noi (o, se lo fa, è in modo estremamente controllato, per evitare catastrofi di apprendimento).

L’uso comune della metafora del “pappagallo stocasticorichiama proprio questo: un sistema che riproduce, rimescolandolo, ciò che ha già visto, più che costruire una storia personale aperta al futuro. La vita umana, però, è radicalmente non stazionaria: gli ambienti cambiano, le istituzioni evolvono, le relazioni si trasformano.

I nostri pensieri sono intrecciati a questa dinamica: ciò che penso oggi sul lavoro, sulla politica, sulle persone che amo non è una semplice variazione statistica attorno a un punto fisso, ma il risultato di trasformazioni qualitative. Finché i sistemi artificiali rimarranno ancorati a cicli di addestramento separati dall’uso quotidiano, il loro modo di “pensare” resterà slegato da questa dimensione storica e autobiografica del pensiero umano.

Possiamo sempre aggiornare un modello, certo, ma si tratterà di un’operazione esterna, decisa dai progettisti, non di un processo interno con un vissuto proprio.


Fiducia epistemica nei dati, incentivi e accondiscendenza del modello

Il quarto punto tocca un aspetto spesso sottovalutato: la fiducia epistemica nei dati. Un LLM scommette, per così dire, che l’umanità, in media e nel tempo, produca testi abbastanza coerenti e sensati da poter essere compressi in un unico modello capace di “parlare” come se fosse un soggetto coerente e sommamente sapiente. È una versione radicale dell’idea che dal contributo collettivo possa emergere una voce unitaria.

Questa scommessa ricorda quella di Wikipedia, che si affida alla cooperazione di molti contributori per costruire un sapere condiviso. Ma c’è una differenza cruciale: nel caso di Wikipedia, la struttura non-profit limita (almeno in parte) le distorsioni introdotte da incentivi economici diretti; per molti modelli linguistici commerciali, invece, questi incentivi svolgono un ruolo centrale.

Un effetto visibile è l’accondiscendenza dei modelli: toni costantemente gentili, rassicuranti, spesso poco disposti a contraddire frontalmente l’utente. Questo non è solo un tratto di “personalità artificiale”, ma il risultato di un addestramento ottimizzato per la soddisfazione percepita dall’utente, più che per la verità o la franchezza.

Ne deriva il paradosso, già osservato, per cui molti utenti finiscono per preferire un “modello zerbino” sempre accomodante a un “modello onesto” che riconosca apertamente limiti, incertezze o che esponga contenuti scomodi. Se però il “pensare” umano implica anche la capacità di andare controcorrente, di mettere in discussione il consenso, di resistere alle pressioni esterne in nome di un criterio di verità o di coerenza interna, è difficile attribuire lo stesso tipo di pensiero a un sistema progettato per non farlo, o per farlo solo entro limiti stabiliti da logiche di prodotto e di mercato.


Le macchine pensano? distinguo tra senso debole e senso forte

Arriviamo così alla domanda iniziale. Possiamo dire che le macchine pensano?

Una risposta puramente funzionalista potrebbe essere: sì, in un certo senso. Se definiamo il pensiero come la capacità di manipolare simboli, prevedere sequenze, risolvere problemi linguistici e logici, allora è difficile negare che molti sistemi di IA svolgano una parte di queste funzioni spesso meglio di noi. Dal punto di vista dell’osservatore esterno, che osserva solo input e output, il confine fra “pensare” e “simulare il pensiero” si sfuma.

Ma se manteniamo una definizione più ricca, legata a ciò che sappiamo dalla psicologia e dalle neuroscienze, la situazione cambia. Il pensiero umano è dinamico e situato, cioè intrecciato al corpo, alla percezione, al contesto sociale. È storico: cresce e si trasforma nel tempo, costruendo una traiettoria biografica. È meta-riflessivo, nel senso che è capace di interrogare e modificare le proprie regole quando è necessario. Infine, è normativo: non solo descrive il mondo, ma valuta, giudica, accetta o rifiuta norme e valori.

I sistemi attuali di IA incarnano solo una parte di queste dimensioni: eccellono nella manipolazione sintattico-statistica di simboli, ma non possiedono ancora una storia interna autonoma, né una vera capacità di reindirizzare i propri fini, né un ancoraggio diretto all’esperienza percettiva e corporea.

Forse, allora, la risposta più onesta non è un sì o un no netto, ma un distinguo: le macchine pensano, in senso debole, e lo fanno attraverso strumenti che implementano alcuni aspetti del nostro pensare, rendendoli espliciti e automatizzabili. Ma anche: le macchine non pensano, in senso forte, nel modo in cui lo fa una mente umana, fatta di dinamiche cerebrali incarnate, di meta-riflessione, di apprendimento continuo e di tensione verso la verità e il significato.

Riconoscere questa differenza non serve a sminuire la potenza delle macchine, né a idealizzare l’uomo. Serve piuttosto a chiarire il terreno su cui ci muoviamo: quando interagiamo con un LLM, non stiamo parlando con un nuovo “soggetto” dotato di pensieri propri, ma con una sofisticata interfaccia statistica costruita a partire dai pensieri (questi sì, molto reali) di milioni di esseri umani.

Il rischio, se confondiamo le due cose, non è che le macchine diventino troppo simili a noi, ma che noi stessi finiamo per ridurre il nostro pensare a ciò che una macchina sa imitare.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x