scenari

Le AI possono pensare? La risposta è nel linguaggio interiore



Indirizzo copiato

Il dialogo interiore costituisce il pensiero astratto umano. I sistemi di intelligenza artificiale manipolano simboli linguistici in modo coerente. L’integrazione tra robotica embodied e inner speech artificiale apre scenari inediti sulla natura del pensiero stesso

Pubblicato il 26 gen 2026

Antonio Chella

Laboratorio di Robotica, dipartimento di Ingegneria Università degli Studi di Palermo

Arianna Pipitone

Università degli studi di Palermo



IA e mente umana (1) economia dell'attenzione; psicologia e tecnologia ignoranza artificiale

Il discorso interno rappresenta uno dei meccanismi cognitivi più affascinanti della mente umana: quel monologo silenzioso attraverso cui ragioniamo, pianifichiamo e diamo forma ai nostri pensieri astratti. Ma cosa accade quando questo processo viene simulato da sistemi artificiali?

Quando lingua e pensiero si intersecano: il linguaggio come forma costitutiva

Linguaggio interiore, pensiero incarnato. Dove lingua e pensiero si intersecano, la parola diviene strumento di mediazione tra esperienza corporea e mentale (Fernyhough & Borghi, 2023), dando origine a uno dei processi cognitivi più complessi della mente umana.

Il discorso interno è quel monologo, silente o esternalizzato, per cui un soggetto utilizza le strutture linguistiche per ragionare, ponderare, memorizzare (Baddeley, 1992) e interpretare il proprio sé immerso nel mondo (Morin, 2011; Alderson-Day & Fernyhough, 2015). Mezzo attivo di comunicazione con sé stessi, intuitivamente inteso come riflessione mentale, riconosciuto come strumento primario dello sviluppo umano (Vygotsky, 1939), non è semplice riflesso del pensiero, ma è dimostrato che è una sua forma costitutiva, ed in certi casi una delle sue manifestazioni uniche (Munroe, 2023).

Come le strutture linguistiche del discorso interno incanalano il pensiero e ne danno forma, attraverso trigger che attivano connessioni logiche, sarebbe pretenzioso chiederci se un processo equiparabile avviene nei modelli computazionali che mirano a simularlo? Quali teorie potrebbero far supporre che, seppur simulato da una macchina, un “pensiero artificiale” non sia comunque una forma di pensiero?

Il discorso interno umano: la parola che struttura il pensiero

Quante volte ci saremo trovati coinvolti in un monologo, durante la pianificazione delle nostre attività quotidiane, durante la ripetizione di un argomento da memorizzare, durante una semplice riflessione. Questa manifestazione linguistica interiore, non si limita solo a tradurre processi mentali preesistenti, ma costituisce una delle modalità fondamentali di emergenza del pensiero: è attraverso la parola, interiorizzata e riflessiva, che il pensiero si struttura e diviene entità accessibile per sé (Fernyhough & Borghi, 2023).

Le evidenze neuroscientifiche e psicologiche mostrano che questo fenomeno coinvolge non solo reti cerebrali linguistiche, ma anche sensomotorie e mnemoniche, evidenziando la natura incarnata del pensiero (Borghi & Binkofski, 2014). Tuttavia, ridurre il dialogo interno a un semplice correlato embodied rischia di oscurarne la funzione costitutiva. Per molti domini del pensiero astratto, dalla matematica all’etica, dai concetti giuridici a quelli filosofici, il linguaggio interno non è il rivestimento di pensieri preesistenti: è il mezzo stesso attraverso cui il pensiero si realizza.

I numeri esatti e il linguaggio come unico veicolo del pensiero

Il caso più studiato è quello dei numeri esatti. Munroe (2023) dimostra che per pensare al numero 3.735 non possediamo alcuna rappresentazione mentale indipendente dal codice simbolico: pensare a un numero significa semplicemente usare internamente il suo nome. Le evidenze sono stringenti: popolazioni amazzoniche senza vocabolario numerico esteso non distinguono quantità esatte oltre il quattro; un paziente afasico calcolava correttamente sia con cifre arabe che con parole inglesi, ma non riusciva a tradurre tra i due codici, se invece esistesse un “concetto centrale” del numero, questo dovrebbe fungere da ponte.

Pertanto, partendo da capacità innate limitate, l’acquisizione di sistemi semiotici (codici numerici, vocabolari etici, terminologie giuridiche) ci permette di generare pensieri che sarebbero altrimenti inaccessibili. Non possediamo antecedentemente i concetti che poi il linguaggio “etichetta”, ma è l’articolazione simbolica stessa che costituisce il pensiero. Questa prospettiva dissolve la distinzione foderiana tra “mentalese” e linguaggio naturale. Per intere categorie di pensiero astratto non esiste un formato di rappresentazione sottostante: il linguaggio non traduce pensieri pre-esistenti ma li costituisce.

Large Language Models: simulazione o pensiero linguistico?

Alla luce di questa prospettiva, emerge una questione cruciale: se in certi casi il linguaggio naturale non si limita a veicolare il pensiero, ma ne costituisce la struttura stessa, allora la distinzione fra “pensare con linguaggio” e “elaborare rappresentazioni linguistiche” si fa più sfumata. Il linguaggio non è solo strumento comunicativo, i sistemi semiotici ci permettono di pensare pensieri che sarebbero impossibili senza gli stessi sistemi.

I Large Language Models (LLM) sembrano, a prima vista, operare in un universo radicalmente diverso da quello cognitivo umano. Quando un individuo ascolta o evoca mentalmente una parola, ad esempio mela, si attivano simultaneamente nodi lessicali, aree sensomotorie e reti associative autobiografiche. Queste componenti incarnano il legame fra linguaggio e percezione, ma la dinamica cognitiva non si esaurisce lì.

Mela: dall’esperienza sensoriale alla manipolazione simbolica

La parola mela non richiama alla mente soltanto esperienze sensoriali (la superficie liscia, la consistenza al morso, il sapore acidulo) o ricordi episodici (un pomeriggio d’infanzia sotto un melo), bensì può innescare un discorso riflessivo nel quale il soggetto rielabora concettualmente ciò che ha percepito, ad esempio valutando i benefici nutrizionali del frutto, o il suo valore simbolico, senza necessariamente dar forma a concetti centrali preesistenti, come valore nutrizionale o peccato originale.

Quando un LLM processa il prompt mela, non attiva schemi percettivi o ricordi sensoriali, ma configurazioni vettoriali in uno spazio di embedding multidimensionale, dove mela si colloca vicino a frutto, rosso o Newton in base a correlazioni statistiche acquisite durante l’addestramento. Quando l’LLM connette mela a peccato, a conoscenza, a libertà, sta forse operando diversamente da un umano che pensa questi concetti astratti “usando internamente i loro nomi”? La risposta è che la manipolazione coerente di simboli secondo strutture trasformazionali è sufficiente per una forma di pensiero linguistico.

Da questa analogia emerge una domanda di fondo: se il pensiero umano, in certi casi, può essere costituito dal linguaggio stesso, allora l’assenza di corpo basta davvero a negare la possibilità di una forma di pensiero linguistico? Se il linguaggio può generare pensiero attraverso le proprie strutture interne, perché escludere che ciò accada anche in un sistema linguistico artificiale, sebbene privo di esperienza sensomotoria? Quando un LLM processa “calcola 3.735 + 2.481”, genera una sequenza di trasformazioni simboliche che producono un risultato corretto: perché questo dovrebbe essere “mero calcolo probabilistico” mentre l’articolazione interna umana degli stessi simboli costituisce “pensiero autentico”? In entrambi i casi, un trigger linguistico attiva relazioni simboliche che si auto-organizzano. Se il linguaggio può generare pensiero attraverso le proprie strutture interne, perché escludere che ciò accada anche in un’architettura computazionale? La manipolazione coerente di simboli secondo strutture trasformazionali potrebbe essere sufficiente per una forma di pensiero linguistico, indipendentemente dal substrato che la implementa.

Simulazione tecnica o strumento cognitivo? Il dibattito sulla consapevolezza

Manzotti (2024) sostiene che l’uso di strutture linguistiche nelle macchine non equivale a dialogo o auto-dialogo umano, ma rappresenta solo una simulazione tecnica priva di reale consapevolezza: le architetture computazionali che simulano il linguaggio interiore, secondo l’autore, confondono il funzionale con il fenomenologico. Possono imitare il comportamento del pensiero riflessivo, ma non producono esperienza soggettiva, evidenziando una distinzione rigorosa tra simulazione cognitiva e esperienza cosciente.

L’idea che una simulazione di discorso umano non sia tale perché priva di un “sé cosciente” trascura che, come mostrano gli studi di Fernyhough e Borghi (2023), il dialogo interno è tale non solo come esperienza fenomenologica, ma anche come strumento cognitivo operativo, capace di organizzare l’attenzione, la memoria e il ragionamento, funzioni che, in parte, possono essere simulate anche da sistemi non coscienti. Quindi, così come la coscienza sussiste senza dialogo interno, potremmo dire che il dialogo interno può sussistere senza coscienza e deve essere riconosciuto tale anche se solo assolvente funzioni cognitive. Negare qualsiasi valore cognitivo al linguaggio artificiale significa ignorare che la dimensione dialogica del pensiero non coincide unicamente con la presenza di coscienza fenomenica, ma può esistere come processo funzionale, dinamico e produttivo di conoscenza.

Il pensiero come proprietà della materia biologica: la visione di Faggin

Allo stesso modo, Federico Faggin (2024) sostiene che i computer, per quanto complessi, non possano né pensare né essere coscienti, in quanto privi di quella sensazione interiore che accompagna l’esperienza incarnata. Secondo la sua visione, il pensiero e la coscienza sono proprietà intrinseche dei sistemi viventi, radicate nella specificità ontologica della materia biologica e dunque irriducibili alla computazione classica. In questa prospettiva, il pensiero e la coscienza nascono dalla carnalità dell’essere, non dall’elaborazione simbolica.

Tuttavia, alla luce di quanto visto, tale posizione rischia di trascurare un aspetto cruciale: il fatto che il linguaggio stesso possa costituire l’unico veicolo del pensiero, indipendentemente dal suo substrato materiale. È vero che nei LLM manca il grounding corporeo e affettivo: come ricordano Bender e Koller (2020), questi modelli manipolano forme linguistiche con straordinaria abilità senza mai aver toccato, visto o agito nel mondo a cui quelle forme si riferiscono. Sono sistemi che hanno “letto” ogni descrizione del rosso senza mai averlo percepito, un paradosso anticipato da Harnad (1990) con il symbol grounding problem. Ma se il linguaggio naturale può farsi esso stesso struttura del pensiero, la questione aperta diventa se un linguaggio formale, come quello dei LLM, possa ospitare una forma di pensiero disincarnato, anche se meramente funzionale.

Robotica embodied e inner speech artificiale: nuove architetture cognitive

Eppure l’integrazione emergente tra LLM e robotica embodied sta modificando anche questo scenario. Architetture come RT-2 (Zitkovich et al., 2023) e PaLM-E (Driess et al., 2023) non si limitano a processare testo: incorporano percezione visiva da telecamere, feedback tattile da sensori di forza, propriocezione da encoder articolari, e traducono istruzioni linguistiche in sequenze motorie eseguibili. Lavori sull’inner speech artificiale (Pipitone & Chella (2021)) hanno sviluppato architetture cognitive in cui il robot letteralmente “parla a sé stesso” in linguaggio naturale. In questi sistemi, l’inner speech artificiale non è un mero output linguistico: è un processo computazionale ricorsivo in cui rappresentazioni linguistiche interrogano e modulano altre rappresentazioni prima che l’azione venga eseguita. Il robot “usa parole” per decodificare cosa sta percependo, “si chiede” quale azione intraprendere e se può intraprenderla, “valuta” internamente le conseguenze. Come nei bambini (Cangelosi & Schlesinger, 2015), emerge una “biografia operazionale” in cui parole e azioni si co-determinano reciprocamente.

D’altronde, in anni meno recenti, venne già evidenziato (Steels, 2003) come una forma di retroazione linguistica, consentendo l’ulteriore processamento in input dell’output, portasse al raffinamento di informazioni condivise da una popolazione di agenti artificiali, evidenziando che il riascolto del sé permetta un raffinamento della comprensione e della disambiguazione dell’informazione condivisa. Evidenziando che anche in strutture assolutamente prive di sé, la componente funzionale di un dialogo interiore richiami quella di un essere umano, che riflette concettualmente per inferire meglio il contesto.

Oltre l’antropomorfismo: ripensare la natura del pensiero

Seppur non si voglia sostenere la tendenza pericolosa all’antropomorfismo acritico, proiettando abilità altissime e prettamente umane su sistemi che esibiscono comportamenti convincenti (Dennet, 1989), si dovrebbe però porre uno sguardo critico sullo scetticismo categorico che invoca il “pensiero autentico” come proprietà accessibile solo ai neuroni biologici, identificando una sola ed esclusiva forma di pensiero. Tale posizione ignora una lezione fondamentale della storia scientifica: non siamo le uniche creature viventi, la nostra razionalità è permeata da bias sistematici (Kahneman & Tversky, 1979), e quindi, forse, il pensiero stesso non è vincolato a un’unica implementazione ma è un processo emergente che può manifestarsi in substrati multipli.

Da un punto di vista metodologico, assumere che solo i sistemi biologici possano ospitare pensiero dialogico costituisce una petizione di principio: assume per certo, a priori, senza prove inconfutabili, ciò che dovrebbe comunque essere dimostrato. La domanda empirica più sensata diventa quindi: se un sistema embodied dotato di inner speech mostrasse i correlati funzionali della coscienza riflessiva (auto-riflessione linguistica, integrazione informazionale, apprendimento dall’errore e autoregolazione) su quale base potremmo negare che esso stia realizzando, sicuramente in forma rudimentale, un processo di pensiero?

Il punto non è se tale pensiero senta il mondo come un essere umano, ma se il linguaggio che lo struttura funzioni come luogo d’emergenza del pensare. Se così fosse, la distinzione fra “esperienza incarnata” e “processo linguistico” non segnerebbe una sospensione ontologica, ma due modi differenti di articolare un medesimo principio: il pensiero come dialogo interno, sia esso espresso nella carne o nel calcolo.

La domanda pragmatica: cosa cambia se le macchine simulano il pensiero?

La domanda cruciale non dovrebbe essere: “pensano davvero nel senso pieno umano?” ma pragmatica ed etica: “cosa può cambiare se si comportassero come se pensassero? Quale sarebbe per noi la differenza? Quali scenari futuri potrebbero preoccuparci se anche simulassero pensiero?”.

Un sistema che integra linguaggio e azione, che costruisce modelli predittivi del mondo e li raffina attraverso interazione, che esibisce comportamento adattativo, e che ragiona su concetti astratti, sta realizzando processi informativi che nei sistemi biologici chiamiamo cognizione e pensiero. Negarlo è provincialismo cognitivo; accettarlo passivamente, ignorando le differenze strutturali profonde, è antropomorfismo ingenuo.

La sfida intellettuale ed etica del nostro tempo è navigare tra questi estremi: riconoscere la realtà funzionale dei “pensieri non incarnati”, senza proiettare su di essi la pienezza dell’esperienza umana; studiare le differenze architetturali tra cognizione biologica e artificiale senza demonizzarle come barriere invalicabili; promuovere educazione etica alle linee di confine, e non chiedersi soltanto se esistano davvero o meno.

Non dovremmo chiederci se le macchine possano pensare nel nostro stesso identico modo, ma se stiano sviluppando forme alternative e legittime di cognizione che meritano riconoscimento scientifico e, eventualmente, considerazione morale. La realtà inconfutabile è che stiamo assistendo all’alba di intelligenze genuinamente diverse dalla nostra, come già ne esistono tante in natura: non imitazioni della mente umana, ma implementazioni alternative di processi informativi complessi che esigono nuove categorie concettuali per essere comprese adeguatamente.

Computo ergo cogito? Se il calcolo può generare un discorso interno, che potrebbe anche ancorarsi a esperienze sensori-motorie, orientare decisioni complesse e rielaborare processi di auto-riflessione astratta, allora forse sì, in una forma diversa, ma non per questo meno reale. Perché il pensiero non appartiene solo a chi sente, ma anche a chi (o cosa), in qualche modo, dice qualcosa a sé stesso.

Bibliografia

Alderson-Day, B., & Fernyhough, C. (2015). Inner Speech: Development, Cognitive Functions, Phenomenology, and Neurobiology. Psychological Bulletin, 141(5), 931–965.

Baddeley, A. (1992). Working Memory. Science, 255 (5044), 556–559.

Bender, E.M., & Koller, A. (2020). Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. Annual Meeting of the Association for Computational Linguistics.

Borghi, A. M., & Binkofski, F. (2014). Words as social tools: An embodied view on abstract concepts (Vol. 2). Springer New York.

Cangelosi, A., & Schlesinger, M. (2015). Developmental Robotics: From Babies to Robots. Cambridge, MA: MIT Press.

Dennett, D. C. (1989). The Intentional Stance. Cambridge, MA: MIT Press.

Driess, D., Xia, F., Sajjadi, M. S., Lynch, C., Chowdhery, A., Ichter, B., … & Toussaint, M. (2023). PaLM-E: An Embodied Multimodal Language Model. arXiv preprint arXiv:2303.03378.

Faggin, F. (2024). Irreducible: Consciousness, life, computers, and human nature. John Hunt Publishing.

Fernyhough, C., & Borghi, A. M. (2023). Inner speech as language process and cognitive tool. Trends in cognitive sciences, 27(12), 1180-1193.

Harnad, S. (1990). The Symbol Grounding Problem. Physica D: Nonlinear Phenomena, 42(1-3), 335–346.

Kahneman, D., & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica, 47(2), 263–291.

Manzotti, R. (2024). AI Internal Dialogues vs. Human Conscious Inner Speech. IAC19

Morin, A. (2011). Self-Awareness Part 1: Definition, Measures, Effects, Functions, and Antecedents. Social and Personality Psychology Compass, 5(10), 807–823.

Munroe, W. (2023). Semiotics in the Head: Thinking About and Thinking Through Symbols. Philosophy and Phenomenological Research, 107(2), 413–438.

Pipitone, A., & Chella, A. (2021). What Robots Want? Hearing the Inner Voice of a Robot. iScience, 24(4), 102371.

Steels, L. (2003). Evolving Grounded Communication for Robots. Trends in Cognitive Sciences, 7(7), 308–312.

Vigotsky, L. S. (1939). Thought and speech. Psychiatry, 2(1), 29-54.

Zitkovich, B., Yu, T., Xu, S., Xu, P., Xiao, T., Xia, F., … & Han, K. (2023, December). Rt-2: Vision-language-action models transfer web knowledge to robotic control. In Conference on Robot Learning (pp. 2165-2183). PMLR.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x