LLM, oracoli e promesse

AGI non è “Dio”: cosa c’è dietro il mito dell’intelligenza artificiale generale



Indirizzo copiato

IA generativa e AGI vengono presentate come una “mente” superiore: un oracolo che sa tutto, prevede il futuro e risolve ogni problema. Ma prima di accettare questa narrazione, serve chiarire cosa intendiamo per “pensare” e quale ruolo abbia il linguaggio, sia negli esseri umani sia nei modelli linguistici

Pubblicato il 9 feb 2026

Luc Steels

Research professor at the Catalan Institute for Advanced Studies (ICREA)



AI lavoro
AI lavoro

I CEO delle Big Tech come Elon Musk, Sam Altman e Mark Zuckerberg presentano i sistemi di intelligenza artificiale generativa basati su Large Language Models (LLM) come macchine pensanti — non semplicemente macchine che pensano a livello umano, ma superumane, con qualità quasi divine: onniscienza, onnipotenza (se incorporate in robot), onnipresenza e padronanza di ogni lingua umana.

IA generativa e AGI: il racconto “divino” dei CEO Big Tech

L’IA generativa viene proposta come un oracolo capace di prevedere accuratamente il futuro, dimostrare teoremi, risolvere problemi scientifici complessi e progettare elaborati artefatti ingegneristici. Si sostiene persino che possa impegnarsi in dialoghi terapeutici o fungere da compagno quasi vivente, suscitando sentimenti di sensibilità nei suoi utenti.

In breve, l’IA generativa – di cui ChatGPT è un precursore – viene paragonata al Dio giudaico-cristiano, un dio perfetto e onnisciente, di cui non può essercene che uno solo.

Naturalmente gli entusiasti dell’IA non chiamano l’IA generativa “Dio”. Parlano invece di Intelligenza Artificiale Generale (AGI). Ma alcuni lo fanno.

Quando l’AGI diventa fede: il caso Levandowski e la chiesa

Un esempio è Anthony Levandowski, così convinto da aver fondato una chiesa chiamata “Way of the Future” in attesa dell’arrivo del Dio-AGI. Levandowski è un ingegnere brillante che ha cofondato Waymo, il progetto di Google per le auto autonome, prima di finire in prigione dopo aver sottratto segreti tecnici per portarli al rivale Uber.

È stato poi graziato dal presidente americano Donald Trump, con sollievo dei membri della sua chiesa.

IA generativa e AGI come corsa al monopolio: perché “uno solo” vince

Più seriamente, le grandi aziende tecnologiche stanno investendo miliardi per costruire l’AGI e spingerla nel mondo il più rapidamente possibile, nella corsa a essere i primi e ottenere un monopolio. Poiché ci sarà un solo vincitore (la religione dell’IA è monoteista), l’azienda che costruirà per prima l’AGI guadagnerà ricchezze immense e un potere straordinario.

Ma l’IA generativa, basata su un LLM, è davvero una macchina pensante? L’arrivo dell’AGI equivale alla venuta di Dio sulla Terra? Ci sarà davvero un’unica IA che governerà il mondo?

Per rispondere a queste domande dobbiamo chiarire che cosa intendiamo per “pensare”, il che richiede comprendere la natura e il ruolo del linguaggio nel pensiero umano e nell’IA.

Che cosa significa “pensare”: linguaggio, simboli e inferenza

Secondo la scienza cognitiva contemporanea, il pensare consiste in trasformazioni di strutture simboliche, un processo chiamato inferenza. Un simbolo associa un aspetto fisico — ad esempio una concatenazione di suoni — a un significato. Una struttura simbolica è composta da diversi simboli organizzati in uno schema sintattico, e il suo significato si ottiene combinando i significati delle sue parti.

Le lingue umane sono esempi eminenti di sistemi simbolici. Sono convenzionali, nel senso che la forma del simbolo — la sua manifestazione fisica — non ci dice nulla del suo significato. La stringa “rosso” rappresenta la categoria [rosso] in italiano, ma potrebbe altrettanto bene essere stata chiamata “rood” (olandese) o “aka” (giapponese).

Anche la grammatica è convenzionale: in inglese “Luca likes Elena” significa che Elena è l’oggetto dell’amore di Luca; in italiano bisogna dire “A Luca piace Elena”. Poiché simboli e strutture simboliche sono convenzionali, se ne può apprendere il significato solo tramite definizioni dei loro rapporti semantici con altri simboli — come nei dizionari — o tramite esempi concreti di uso che consentono di ancorare un simbolo alla realtà attraverso vista, tatto o udito.

Una volta che esiste il linguaggio, è possibile esternalizzare le inferenze umane trasformando frasi in altre frasi, generando catene di trasformazioni che combinano, espandono, generalizzano o re-istanziano le frasi di partenza. Se leggiamo “Tutti gli uomini sono mortali” e “Socrate è un uomo”, possiamo inferire che “Socrate è mortale”.

Il percorso che porta da un insieme di frasi a un risultato desiderato può essere tortuoso, perché molte frasi possono essere rilevanti e molte inferenze possibili. L’inferenza comporta spesso l’esplorazione di uno spazio di possibilità. Se lo spazio è molto grande, servono euristiche per identificare le ipotesi migliori da cui partire e quali percorsi esplorare per primi. Queste euristiche si apprendono dall’esperienza nel risolvere problemi simili.

IA generativa e AGI alla prova della verità: limiti delle inferenze umane

Già nei primi scritti sul linguaggio — dai filosofi greci ai dibattiti monastici del buddhismo tibetano — troviamo avvertimenti: le inferenze umane potrebbero non essere vere, nel senso di conformi alla realtà, sia perché partono da frasi false (che portano potenzialmente a conclusioni false anche se i passaggi sono corretti), sia perché non seguono trasformazioni che preservano la verità.

Ad esempio, dalla frase “Quando piove, mio zio esce con l’ombrello” non posso inferire che fuori stia piovendo solo perché ho visto mio zio uscire con l’ombrello.

Dalla logica all’IA razionale: perché l’IA classica cercava garanzie

Per rendere le inferenze più solide, filosofi, linguisti e semiologi hanno sviluppato metodi per regolarle: la logica. Essa richiede prima una traduzione delle frasi naturali in un linguaggio formale per eliminare ambiguità, e poi l’uso di regole di inferenza logica che garantiscono la preservazione della verità.

Quando l’IA è nata, a metà degli anni ’50, i suoi pionieri — John McCarthy, Herbert Simon, Allen Newell — hanno costruito su questa tradizione logica. Hanno trovato un modo per implementare strutture simboliche nei computer (tramite stati della macchina, più precisamente puntatori in memoria) e per eseguire operazioni fisiche sulle rappresentazioni analoghe alle inferenze logiche.

Pur essendo possibile implementare altre trasformazioni, i primi ricercatori insistevano sulla logica perché volevano che l’IA fosse affidabile e preservasse la verità. Non sorprende che il primo programma di IA, il “Logic Theorist” (1956), mirasse a dimostrare i teoremi del calcolo proposizionale definiti nei Principia Mathematica di Russell e Whitehead.

Da allora, il paradigma della cosiddetta IA simbolica ha prodotto tecnologie efficienti (LISP, PROLOG, le tecnologie del web semantico basate su knowledge graph) e applicazioni in teoremistica, pianificazione, programmazione automatica, argomentazione legale, ecc. Oggi queste realizzazioni sono chiamate “IA classica”, in contrasto con la cosiddetta “IA moderna”, oggi sotto i riflettori. [Alcuni la chiamano anche “Good Old Fashioned AI” o GOFAI, un termine che non apprezzo perché stigmatizza ingiustamente un approccio ancora prezioso e fondamentale per applicazioni che richiedono affidabilità.]

IA generativa e AGI non sono logica: che cosa fa davvero un LLM

Che dire allora dei LLM? Sicuramente non eseguono inferenze logico-formali. Potremmo dire che trasformano comunque strutture simboliche — vero, come spiegherò — ma se vogliamo sostenere che “pensano”, occorre precisione terminologica.

Chiamerò “IA razionale” la rappresentazione simbolica della conoscenza e il ragionamento logico. L’IA razionale fa inferenza razionale e quindi pensa razionalmente. E allora cosa fa l’IA generativa basata su LLM?

Propongo di chiamarla “IA associativa”. Essa associa frasi ad altre frasi sulla base della loro plausibilità statistica rispetto ai testi di addestramento. I LLM sono quindi macchine che producono associazioni, non inferenze razionali.

Possono a volte dare un risultato simile alla logica — ma è fortuna. Non c’è nozione di verità, nessuna disambiguazione verso rappresentazioni formali, nessuna garanzia di trasformazioni che preservano la verità, nessuna certezza che le frasi del corpus siano vere.

Embedding e IA associativa: simboli contestuali, non formali

A volte l’IA associativa viene detta non-simbolica, ma in realtà usa simboli. La differenza è che non sono formali, ma contestuali. Che cosa significa?

Il linguaggio umano usa simboli formali: la forma fisica non informa sul significato. I LLM invece rappresentano i simboli tramite embedding, rappresentazioni vettoriali che catturano in modo olistico i contesti d’uso tipici di un simbolo. Un embedding è una sequenza di numeri: le sue dimensioni riflettono aspetti del contesto d’uso della parola.

Negli anni ’50 linguisti come Zellig Harris ipotizzavano che gli embedding — derivati solo statisticamente senza alcuna conoscenza semantica — riflettessero comunque proprietà di significato, perché parole che condividono contesti condividono aspetti semantici.

Oggi gli embedding sono molto più sofisticati: le dimensioni sono scelte automaticamente per essere compatte e semanticamente rilevanti, e si costruiscono embedding non solo di singole parole ma di frasi, paragrafi e interi testi.

Usare embedding apre un mondo di nuove possibilità computazionali: confrontare parole o frasi tramite similarità coseno, completare frasi, generare alternative grammaticali, ecc.

I LLM operano con embedding e imparano associazioni: tra frasi in lingue diverse ma equivalenti, tra immagini e descrizioni testuali, tra turni di dialogo e possibili risposte, ecc. Le operazioni sono vettoriali, completamente diverse dalle trasformazioni strutturali dell’IA simbolica.

La differenza non è solo computazionale ma epistemologica: l’IA razionale opera su simboli univoci con trasformazioni regolamentate; l’IA associativa opera su rappresentazioni olistiche di simboli linguistici.

IA generativa e AGI: valore, guard rail e perché non sostituisce l’umano

È senza dubbio una delle scoperte del secolo che sia possibile sviluppare una tecnologia capace di derivare automaticamente embedding e associarli da enormi corpora linguistici. Ma non dobbiamo perdere di vista che il risultato non corrisponde al pensiero razionale.

È pensiero associativo che ha bisogno di vincoli esterni, “guard rail”, e contesti aggiuntivi per avvicinarsi al tipo di inferenze che ci aspettiamo da un’entità intelligente. Più le persone useranno l’IA generativa, più scopriranno questa differenza e i limiti che comporta. È inevitabile una reazione.

Il pensiero associativo ha certamente valore, ma non può sostituire l’intelligenza umana, che combina senza soluzione di continuità inferenza associativa e pensiero razionale. E certamente un dio onnisciente dovrebbe essere capace di entrambi.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x