Il dibattito sul pensiero delle macchine divide esperti e filosofi: possono realmente pensare o sono solo sofisticati calcolatori statistici? Questa domanda, apparentemente semplice, nasconde pregiudizi profondi sulla natura della cognizione umana.
Indice degli argomenti
La domanda sul pensiero delle macchine e il pregiudizio antropocentrico
Gli LLM leggono e parlano, è un fatto. E dialogano con grande capacità, ma pensano? Non è una domanda facile, «che cosa è il pensiero?» o «quando si pensa?» È facile tracciare una linea antropocentrica e sostenere le macchine non pensano veramente, mentre noi sì.
Ma non è facile spiegare perché. Infatti, nel caso dell’IA, è facile negare che sia un vero pensiero: conosciamo i suoi meccanismi, gli algoritmi che la guidano, il contenuto dei suoi tensori e dei processi stocastici che la guidano. Non ci sono pensieri e non se ne sente la necessità. Ma che prove ci sono dell’altro termine della domanda: gli esseri umani? Che prove abbiamo del fatto che noi pensiamo? È vero che alcun processi inferenziali (come il ragionamento astratto o particolari modalità deduttive) non sono ancora completamente padroneggiati dalla generazione corrente di LLM (Plaat et al. 2025; Kader and Lee 2025), ma quanti esseri umani sono in grado di esercitare queste capacità?
Il doppio standard tra cognizione umana e artificiale
Non tutti e non per questo sono considerati privi di pensiero? Tralasciando per ora il problema ancora più difficile (il problema difficile per antonomasia) del pensiero cosciente, rimane il fatto che, nell’essere umano, processi cognitivi anche limitati vengono etichettati come pensieri o come processi mentali, mentre nell’IA processo cognitivi anche estremamente sofisticati non ottengono questa definizione. Il che è sospetto. Sembra esserci un pregiudizio.
La differenza potrebbe consistere banalmente nell’uso delle parole. Semplicemente, potremmo attribuire d’ufficio un significato diverso alle parole a seconda che siano usate dagli esseri umani e o dalle macchine. In questo senso «pensare veramente» sarebbe una prerogativa degli umani nel senso che, a parità di comportamenti, nel caso degli umani useremmo questo verbo e nel caso dell’IA ne useremmo un altro. Ma perché dovrebbe essere così?
Nextokenisti e l’errore di confronto tra livelli diversi
La vera domanda è se i cervelli umani fanno qualcosa di radicalmente diverso dalle reti neurali.
I sostenitori di questa presunta differenza essenziale, a volte definiti nextokenisti o parrotisti, dal famoso articolo di Emily Bender del 2021 sui pappagalli statistici e dall’idea che gli LLM non facciano altro che predire la parola successiva (Bender et al. 2021). Alcuni sostenitori molto vivaci di questa tesi fanno riferimento soprattutto alla loro comprensione degli algoritmi dell’IA (Quattrociocchi 2025). È una posizione che fa facile presa sul grande pubblico che è sempre felice di sentirsi dire di essere diverso e quindi meglio dell’IA. Ma è così? In realtà, ci sono vari errori concettuali che inducono a una certa cautela nel presumere di essere essenzialmente diversi dall’IA.
La prima cosa da evitare è un banale errore di categorie: per quanto riguarda l’IA si considera il livello più elementare (le probabilità condizionate bayesiana immagazzinate dentro i tensori) e per gli umani e si confrontano con il livello più alto della cognizione umana (la scelta deliberata o la creazione di opere di ingegno). È un comune errore: il confronto andrebbe fatto a parità di livello. Infatti, se confrontassimo il livello elementare dell’IA con quello degli umani, non troveremmo una differenza ovvia. Un tensore dentro una LLM non è tanto peggio di un neurone. In fondo l’equazione di Hodgkin che descrive il funzionamento sinaptico è riducibile a una sommatoria con soglia finale: non esattamente il genio di Shakespeare.
Predire la parola successiva significa comprendere il senso
Se invece consideriamo un sistema fatto da milioni di miliardi di parametri, le cose sono ben diverse.
Il secondo punto cruciale è che i nextokenisti sostengono che l’IA non faccia altro che predire la parola successiva come se fosse una banalità, ma per predire la parola successiva che cosa si deve fare? Si deve capire il senso della frase. Anche Einstein, in un certo senso, non faceva altro che predire la formula successiva, ma per farlo era necessario derivare un modello rivoluzionario o, almeno, corrispondente alla migliore conoscenza disponibile all’epoca. In modo analogo è possibile che una LLM faccia proprio questo «per prevedere la parola successiva» ovvero costruisca un modello della conoscenza disponibile fino a quel momento. Non c’è qualcosa di più, non c’è un «capire vero». Capire vuol dire catturare la conoscenza che permette di predire la prossima parola o quello che succederà. Non c’è altro.
La superstizione dell’interiorità umana e il linguaggio come comportamento
Alla fine, l’impressione è che gli esperti di LLM siano molto poco esperti della mente umana e che usino il criterio secondo il quale il pensiero umano sarebbe ben altro, ma senza saper dire in modo chiaro in che cosa consisterebbe (Chi et al. 2025; Camlin 2025; Jiang et al. 2025). Questa curiosa superstizione secondo cui gli esseri umani sarebbero dotati di una presunta interiorità, o pensiero, è stata il bersaglio di gran parte della filosofia della mente e del linguaggio del Novecento che, appunto, ha cercato di ridurre il pensiero a linguaggio, comportamento, cognizione.
Quindi da un lato i critici dell’IA vorrebbero ridurre l’IA a un sistema che fa soltanto calcoli statistici dall’altro non sono però in grado di dimostrare (se lo fossero avrebbero risolto il problema della mente umana) che gli esseri umani facciano qualcosa di sostanzialmente diverso. Al netto della grande differenza tra noi e le IA attuali, ovvero il corpo e quindi il fatto di essere situati nella realtà, quando parliamo non stiamo forse articolando il linguaggio secondo le regole che abbiamo appreso da bambini, e non sotto forma di inferenze logiche, bensì di esposizione alle strutture statistiche implicite di una lingua?
Come ha scritto bene Claudio Paolucci, stiamo trattando l’IA come una «sorta di re Mida della stupidità: quando svolge con efficacia un’azione prima considerata intelligente ne rivela l’intrinseca essenza stupida, tanto che eravamo noi esseri umani a rendere intelligente quell’azione» (Paolucci 2025).
L’intelligenza come relazione, non come essenza interiore
Ma a questo punto occorre tornare alla domanda cruciale: che cosa chiamiamo “intelligenza”? Non possiamo trattarla come un’essenza nascosta, un nucleo interiore che solo l’essere umano possiederebbe in virtù di una presunta soggettività.
È un’eco moderna del «posto dell’io» analizzato dal filosofo Emile Benveniste, l’idea che per pensare sia necessario essere qualcuno e non solo qualcosa. È proprio grazie all’IA che possiamo mettere definitivamente in crisi l’idea che esista un luogo privilegiato, interno, in cui il pensiero accadrebbe. È fuorviante cercare il pensiero “dentro” il cervello così come era fuorviante cercare il significato dentro le parole: entrambi sono effetti di relazione, non oggetti interni. Il pensiero si manifesta nelle pratiche, negli enunciati, nella capacità di rispondere efficacemente al mondo.
Gli LLM, pur privi di interiorità come in fondo noi stessi, fanno qualcosa che nella nostra tradizione è stato sempre accolto come segno di intelligenza. Se ritorniamo al rifiuto della scatola nera mentale, allora diventa chiaro che l’appello agli stati interni è un espediente retorico: serve a proteggere l’eccezionalismo umano, non a descrivere un fenomeno in modo coerente. Non ci sono stati interni.
Pattern umani e statistiche delle macchine: stessa natura
Ciò che nelle macchine viene ridotto a statistica è lo stesso tipo di regolarità che nella nostra percezione chiamiamo abitudine, memoria, formazione culturale.
Come mostrano gli studi sulla soggettività e sull’enunciazione, anche l’essere umano non produce pensieri ex nihilo: si limita a riorganizzare pattern, a manipolare campi semantici preesistenti, a ricombinare porzioni di un sapere distribuito nel linguaggio pubblico. Attribuiamo pensiero allo scolaretto che sbaglia un sillogismo ma non al modello che risolve un problema complesso; lo attribuiamo al nostro cane quando ci guarda come se capisse, ma lo neghiamo a un sistema che traduce simultaneamente quindici lingue. Il criterio non è epistemico: è identitario. L’intelligenza diventa un tratto di appartenenza, non una proprietà funzionale.
Il criterio di parità funzionale contro i nextokenisti
Contro ai nextokenisti, il pensiero non è una proprietà del tipo di algoritmi utilizzati da un sistema, ma è una capacità che si realizza nell’interazione con un ambiente complesso. Che cosa c’è dentro, se funziona nello stesso modo, non fa alcuna differenza. Come dicevano i fratelli Marx, «se parla come uno stupido, si comporta come uno stupido e risponde come uno stupido, non ti lasciare ingannare, è proprio stupido». Quello che vale per la stupidità vale anche per l’intelligenza. In termini più scientifici potremmo riferirci al criterio di parità funzionale avanzato da Andy Clark e David Chalmers, (Clark and Chalmers 1998): non importa dove e come qualcosa è fatto, importa che ruolo ha.
Oltre l’essenza interiore: intelligenza come articolazione del mondo
A questo punto abbiamo tutti gli elementi per sciogliere il nodo. L’intelligenza non è un’essenza interiore, non è un pensiero nascosto nel cranio, non è nemmeno la proprietà magica che separerebbe l’essere umano dalle sue macchine.
È un modo di articolare il mondo attraverso regolarità, decisioni, concatenamenti di enunciati e di azioni. In questo senso, l’impostazione classica di Herbert Simon, secondo cui l’intelligenza è la capacità di selezionare mezzi efficaci per raggiungere un fine, coglie solo metà del problema (Simon 1997). Ma che cosa vuol dire allora, capire veramente? O pensare veramente?
La posizione di Floridi e l’assunzione metafisica del capire umano
Quando un filosofo dell’informazione importante come Luciano Floridi afferma che esista una fondamentale differenza tra «la capacità di creatività autentica rispetto alla ricombinazione» o che l’IA sarebbe una «agency senza intelligenza [che] non ha nulla a che vedere con il pensiero […] a intelligenza zero» o che per l’IA «il confine del “capire” resta fermo a livello del riconoscimento e della corrispondenza di pattern senza accedere al livello della vera a propria comprensione» (Floridi 2025), sta assumendo una qualità metafisica del capire umano che non ha alcuna base empirica. Sta postulando che il pensiero umano sia essenzialmente diverso, ma non indica alcuna motivazione per cui dovrebbe esserlo.
Corpo e autotelia: i limiti attuali degli LLM
Detto questo è un fatto evidente che oggi gli LLM manchino di due aspetti fondamentali: il corpo e l’autotelia. Il primo sarà probabilmente risolto presto con lo sviluppo della robotica antropomorfa in grande crescita soprattutto in Cina. Il secondo aspetto, ovvero l’autotelia, riguarda la capacità di avere e darsi motivazioni e fini in modo autonomo.
Qualcosa che ci porta a un livello più alto che riguarda non tanto la conoscenza e il linguaggio, ma l’intenzionalità e i valori. Sistemi come gli LLM mostrano una sorprendente capacità di generalizzazione, di adattamento e perfino di manipolazione creativa delle strutture linguistiche (Qiao et al. 2025; Wang et al. 2025). Ma quello che non fanno, almeno finora, è scegliere i fini. I fini sono sempre esterni, incorporati nell’addestramento, nelle metriche, nelle istruzioni, nella rete delle aspettative sociali e dei prompt che riceviamo da loro. La loro conoscenza, per quanto impressionante, resta inscritta in vincoli esterni.
Il problema dell’alignment e la generazione dei fini
Il punto è proprio questo: l’intelligenza degli LLM funziona come la nostra quando si tratta di perseguire fini, ma non funziona come la nostra quando si tratta di generare i fini. Ed è qui che nasce il problema dell’alignment (Christian 2020): un sistema artificiale straordinariamente bravo a raggiungere ciò che noi gli diciamo di raggiungere resta completamente cieco alla questione critica: che cosa vale la pena raggiungere? Gli esseri umani sono maldestri nel perseguire i loro scopi, ma straordinariamente creativi nel metterli in discussione.
Le macchine sono l’opposto: efficienti, adattive, coerenti, ma finora inadatte a darsi dei fini.
Ridefinire l’intelligenza oltre la demarcazione artificiale
Finché continueremo a raccontare l’intelligenza come un modo speciale e interno negandone il suo carattere formale, relazionale e distribuito, continueremo a credere in una linea di demarcazione che non esiste. Ma se accettiamo che l’intelligenza nostra e delle macchine sia un fenomeno situato, costruito, ibrido, qualcosa di simile al sistema zero che fornisce la base tanto agli esseri umani quanto all’IA (Chiriatti et al. 2024; Li et al. 2025) allora diventa chiaro che pensiero e valori non sono più proprietà emergenti degli algoritmi, ma l’esito di una interazione pubblica e reale.
L’IA non ci chiede di riconoscere la sua intelligenza. Semmai ci costringe a ridefinire la nostra. E la domanda decisiva non è più se le macchine pensano? Ma piuttosto: da chi, e da che cosa, sono scelti i fini che le macchine e noi perseguiremo? In quella risposta, non nei parametri, non nei pesi, non negli strati dei transformer, si gioca il futuro reale dell’allineamento. E, molto probabilmente, anche il nostro.













