L’Intelligenza Artificiale Generale, Artificial General Intelligence o AGI è l’aspirazione di creare sistemi artificiali dotati di un’intelligenza versatile e ampia, paragonabile a quella umana in una vasta gamma di compiti.
Questo concetto si contrappone alla cosiddetta Intelligenza Artificiale Ristretta (o debole), che caratterizza la maggior parte delle applicazioni odierne di AI, specializzate in compiti specifici (per esempio il riconoscimento facciale o la traduzione automatica) ma prive di capacità di adattamento generale. Dopo decenni in cui la ricerca AI si è frammentata in sottocampi sempre più specializzati – dall’apprendimento automatico alla visione artificiale, dal data mining alla robotica – il termine AGI è emerso per indicare un ritorno alle origini: l’idea di un principio unificante dell’intelligenza artificiale che consenta a una macchina di apprendere e ragionare in modo generale (Wang, 2007).
Negli ultimi tempi, il termine AGI è diventato sempre più presente anche nel discorso pubblico e mediatico: aziende come OpenAI, DeepMind e altre start-up dichiarano esplicitamente l’obiettivo di perseguire l’AGI, e i progressi inaspettatamente rapidi in questo settore potrebbero condurci a sistemi generali prima di quanto previsto. Tuttavia, non esiste ancora una definizione condivisa e precisa di cosa costituisca esattamente un’AGI, e il dibattito su rischi e tempistiche rimane aperto.
Indice degli argomenti
Origini del concetto di AGI e contesto storico
La nozione di “intelligenza generale artificiale” era già implicita nel sogno originario dei pionieri dell’AI. Nel 1956 – anno della conferenza di Dartmouth che segnò simbolicamente la nascita ufficiale dell’IA – l’obiettivo dichiarato era quello di simulare ogni aspetto dell’intelligenza umana tramite le macchine. Storicamente, i fondatori dell’intelligenza artificiale negli anni ’50 avevano dunque mire ambiziose: creare una macchina “pensante” di livello umano. La fiducia in quegli anni era così alta che Herbert Simon nel 1965 predisse che entro vent’anni le macchine sarebbero state capaci di fare qualunque lavoro svolto dall’uomo, come riporta (Crevier 1993). Nei primi anni 2000 questa frammentazione dell’IA era evidente: i diversi sottocampi dell’AI procedevano in isolamento, ciascuno con propri metodi e obiettivi, e mancava un quadro teorico comune. In reazione a ciò, tra il 2004 e il 2007 alcuni ricercatori iniziarono a richiamare l’attenzione sull’importanza di sistemi a scopo generale (“general-purpose systems”) sia all’interno sia al di fuori dell’AI accademica tradizionale (Wang, 2007).
È in questo contesto che nasce il termine AGI: nel 2006 viene pubblicato Artificial General Intelligence, curato da Ben Goertzel e Cassio Pennachin, il primo volume interamente dedicato all’AGI (Goertzel & Pennachin, 2007). Nello stesso anno si tiene un Artificial General Intelligence Workshop che riunisce una quarantina di ricercatori interessati all’argomento. In quelle sedi si rese esplicita la necessità di studiare l’“intelligenza” come un unico concetto applicabile a situazioni diverse, recuperando così l’ispirazione originale dell’AI. In altre parole, per molti di questi pionieri il termine “AGI” indicava semplicemente il ritorno all’idea originaria di AI forte o AI a livello umano, ma con la “G” aggiunta per distinguerla dalla miriade di applicazioni narrow che ormai monopolizzavano il nome di “intelligenza artificiale” senza perseguirne l’obiettivo più generale.
Poiché questa prospettiva non era inizialmente ben accolta nella comunità AI, i ricercatori interessati all’AGI si organizzarono autonomamente. Il primo convegno internazionale sull’AGI si tenne nel 2008, marcando di fatto la nascita ufficiale dell’AGI come campo di ricerca separato (Wang, 2007). A ciò seguirono la creazione di una rivista scientifica dedicata (nel 2009) e di una società di ricerca sull’AGI. Da allora, ogni anno si tiene una conferenza AGI, e diversi volumi e atti congressuali hanno raccolto i progressi teorici e pratici del settore. Pur senza una strategia unica condivisa, gli sforzi dei ricercatori AGI convergevano sull’obiettivo comune di costruire sistemi artificiali generalisti, in grado di trasferire conoscenze e competenze da un dominio all’altro come fa la mente umana.
In parallelo, a partire dal 2012, la rivoluzione del deep learning ha prodotto risultati impressionanti nell’AI, riaccendendo l’interesse verso l’idea di un’AI generale. Eventi mediatici come la vittoria del programma AlphaGo di Google DeepMind (Silver et al., 2016) sul campione mondiale di Go nel 2016, hanno spinto pubblico e addetti ai lavori a chiedersi se l’AGI fosse più vicina del previsto. Diverse aziende hanno cominciato a descrivere i propri traguardi come “passi verso l’AGI”, approcci spesso basati su estensioni del deep learning o su integrazioni di tecniche di IA esistenti. L’AGI insomma è tornata al centro del dibattito, sospinta questa volta dai successi pratici e commerciali dell’AI.
L’interesse crescente verso l’Artificial General Intelligence è stato descritto recentemente come «un palloncino che si gonfia e sgonfia continuamente, spinto da picchi di ottimismo (o paura) circa il suo potenziale impatto e successivamente ridimensionato dalla realtà che spesso non riesce a soddisfare le aspettative» (O’Donnell, 2025). Secondo O’Donnell, è importante avere una definizione chiara e condivisa di cosa sia l’AGI, perché senza di essa diventa impossibile valutare correttamente la sua fattibilità, sicurezza e impatto su mercati del lavoro, sicurezza nazionale e società in generale.
Nel dibattito attuale, spesso manca chiarezza su quali compiti cognitivi umani esattamente l’AGI dovrebbe superare per essere considerata “generale”, rendendo difficile una discussione produttiva e concreta sul futuro sviluppo di queste tecnologie (O’Donnell, 2025). O’Donnell sottolinea inoltre che, nonostante il clamore suscitato da recenti progressi come i Large Language Models, molte questioni tecniche fondamentali restano irrisolte, mettendo in dubbio la narrazione di una rapida ed inevitabile realizzazione dell’AGI.
Va notato comunque che l’idea di un’intelligenza generale non è nuova al di fuori dell’informatica: in psicologia cognitiva essa risale al cosiddetto fattore g (da general intelligence), introdotto nei primi del ‘900 per spiegare la correlazione positiva tra le prestazioni di un individuo in differenti test cognitivi (Spearman, 1904). Proprio questa nozione ha in parte ispirato l’AGI: la “G” di AGI sottolinea la ricerca di un principio unitario dell’intelligenza che sottenda le varie manifestazioni cognitive. Per molti versi, quindi, l’AGI ambisce a realizzare in un sistema software ciò che il fattore g rappresenta per la mente umana: un meccanismo generale capace di affrontare problemi molteplici grazie a capacità di apprendimento e ragionamento non specifiche di un singolo dominio.
Innovazioni teoriche e approcci pratici verso l’intelligenza artificiale generale
Negli ultimi quindici anni, la comunità AGI ha esplorato varie strade per realizzare un’intelligenza generale artificiale. Tra i contributi di spicco si possono citare approcci molto diversi tra loro – da architetture software integrate a formalismi matematici astratti – a testimonianza della natura eterogenea del campo. In questa sezione esamineremo tre innovazioni: OpenCog, NARS e AIXI, insieme alle idee chiave che le sottendono.
OpenCog: la piattaforma integrata di Ben Goertzel
Uno dei primi progetti collaborativi nati in seno alla comunità AGI è OpenCog, avviato da Ben Goertzel verso il 2008. OpenCog si propone come un framework open source modulare per la costruzione di sistemi di intelligenza artificiale generale (Goertzel, 2021). L’idea centrale di Goertzel era creare un’architettura cognitiva comprensiva – chiamata OpenCog Prime – che includesse molteplici componenti (rappresentazione della conoscenza, apprendimento, ragionamento, pianificazione, percezione, azione, ecc.), progettati per interagire tra loro in modo da generare un comportamento intelligente emergente equivalente a quello umano. In altre parole, OpenCog adotta un approccio integrato: combina tecniche simboliche (reti semantiche di conoscenza e logiche probabilistiche) con tecniche subsimboliche (reti neurali, algoritmi evolutivi, metodi statistici), nel tentativo di riprodurre la ricchezza e la versatilità dell’intelligenza biologica.
Goertzel stesso ha definito la sua filosofia come patternist, ovvero basata sull’idea che la mente sia fondamentalmente un sistema di riconoscimento, creazione e trasformazione di pattern (schemi) a vari livelli. In OpenCog, la memoria centrale è l’AtomSpace, un database grafico che memorizza atomi di conoscenza (concetti, enunciati, relazioni) insieme ai valori che ne rappresentano certe caratteristiche (come la verosimiglianza o l’importanza statistica). Su questa base di conoscenza, operano diversi moduli algoritmici specializzati: un motore di inferenza probabilistica (il formalismo Probabilistic Logic Networks), meccanismi di attenzione che simulano il focus cognitivo selezionando le informazioni più rilevanti, procedure di apprendimento evolutivo (per generare nuove soluzioni candidate) e altri componenti. L’interazione di questi elementi, nelle intenzioni dei suoi creatori, dovrebbe portare a una forma di cognizione generale emergente.
Nei primi esperimenti, OpenCog Prime è stato impiegato per controllare agenti virtuali in mondi simulati e persino un robot umanoide NAO, usati come banco di prova per sviluppare capacità cognitive generali – ad esempio l’apprendimento di un linguaggio semplice e la risoluzione di problemi – in ambienti diversi. L’obiettivo dichiarato di OpenCog è accelerare lo sviluppo di un’AGI benefica per l’umanità, mantenendo il progetto aperto alla comunità scientifica. Pur non avendo ancora prodotto una vera AGI, OpenCog rappresenta un importante tentativo di creare un’architettura integrata e condivisa per l’AGI. Il progetto continua ad evolvere: una nuova versione denominata OpenCog Hyperon (Goertzel et al., 2023) è attualmente in sviluppo con l’intento di aggiornare l’architettura e migliorarne l’efficienza e scalabilità, integrando le conoscenze acquisite finora.
NARS: il sistema di ragionamento non-assiomatico di Pei Wang
Un approccio diverso –teorico ma concretizzato in un sistema funzionante – è quello di Pei Wang con il suo Non-Axiomatic Reasoning System (NARS). Fin dai primi anni del 1990, Wang ha sviluppato una teoria dell’intelligenza incentrata sul ragionamento in condizioni di conoscenza ed evidenza insufficienti. Questo approccio si fonda sul principio che un agente intelligente reale debba operare in un ambiente complesso con risorse computazionali limitate e informazioni incomplete (Wang, 2006) – una situazione che Wang formalizza come Assumption of Insufficient Knowledge and Resources (AIKR). In quest’ottica, l’intelligenza è vista essenzialmente come adattamento: la capacità di un sistema di apprendere dall’esperienza e adattare il proprio comportamento in un ambiente dinamico e incerto, non potendo fare affidamento su un insieme predefinito di conoscenze complete o risorse infinite.
Il fulcro teorico di NARS è una logica formale chiamata Non-Axiomatic Logic (NAL). A differenza delle logiche classiche (che richiedono premesse certe e regole di inferenza fisse in contesti chiusi) o di altre logiche non-classiche, la NAL è pensata per funzionare con informazioni incomplete e in evoluzione. Essa ammette gradi di credibilità delle proposizioni e ragiona in modo incrementale man mano che riceve nuove evidenze. In NARS, ragionare significa estendere continuamente le conoscenze esistenti per far fronte a nuovi problemi, combinando in modo flessibile micro-passaggi inferenziali in comportamenti intelligenti, in maniera indipendente dal dominio specifico. Le regole d’inferenza di base (deduttive, induttive, abduttive e analogiche) sono incorporate nel sistema, ma le credenze e i fatti specifici vengono appresi dall’esperienza. In questo modo, NARS si comporta come un sistema che impara, accumulando e aggiornando il proprio sapere con ogni nuova informazione, e ragiona traendo conclusioni anche sotto incertezza per raggiungere i suoi obiettivi.
NARS è implementato come un motore di inferenza che opera in tempo reale: riceve in ingresso enunciati in un linguaggio logico (terminale) proprietario, ciascuno accompagnato da un valore che rappresenta il suo grado di credibilità e una priorità. Il sistema elabora conclusioni inferenziali e allo stesso tempo gestisce le priorità in modo da allocare le risorse computazionali ai compiti più urgenti o importanti (un meccanismo di attenzione integrato). Questo gli consente di funzionare in ambienti in cui i dati in arrivo sono potenzialmente infiniti mentre il tempo e la memoria sono limitati – scenario tipico di un agente AGI nel mondo reale.
In sostanza, la filosofia di NARS è che l’intelligenza generale richieda un metodo di ragionamento adattativo, in cui il sistema non parte da un corpus di conoscenze statico né con risorse illimitate, ma deve scoprire regole e fatti man mano e prendere decisioni soddisfacenti nonostante l’incertezza e la scarsità di informazioni. NARS incarna questa filosofia, enfatizzando il ragionamento come processo centrale dell’intelligenza. Nel corso degli anni, Wang ha esteso e raffinato NARS in varie implementazioni (Wang, 2013) e lo ha applicato in scenari sperimentali che vanno dall’apprendimento linguistico alla risoluzione di problemi logico-matematici. Sebbene meno noto al pubblico rispetto alle spettacolari demo dei sistemi di deep learning, NARS rappresenta uno dei tentativi più longevi e originali di costruire un’AGI basata su principi diversi dal mainstream statistico: un’AGI che ragiona come uno scienziato, imparando gradualmente le leggi del suo mondo e adattando la propria condotta di conseguenza.
AIXI: il formalismo di intelligenza universale di Marcus Hutter
Ancora differente è il contributo di Marcus Hutter, ricercatore che ha affrontato l’AGI da una prospettiva matematico-formale. Hutter ha sviluppato quello che è noto come il formalismo AIXI, presentato nei primi anni 2000 (Hutter, 2005). AIXI non è un software concreto, bensì un modello teorico di agente ideale che, in linea di principio, possiede la massima capacità di apprendimento e problem solving in qualunque ambiente computazionalmente definibile. In pratica, Hutter ha formulato una definizione matematica di intelligenza universale: un agente AIXI è quello che massimizza, in media, la sua performance (misurata in termini di ricompense ottenute) su tutti i possibili ambienti.
Per costruire AIXI, Hutter combina concetti provenienti dall’informatica teorica e dall’apprendimento per rinforzo. L’agente AIXI, in modo ricorsivo, considera tutte le possibili ipotesi di ambiente esterno (ossia tutti i possibili programmi computabili che potrebbero descrivere il mondo), attribuendo a ciascuna ipotesi una probabilità a priori legata alla sua complessità (meno complesso equivale al più probabile, secondo i principi dell’induzione di Solomonoff). Sulla base di queste ipotesi, l’agente valuta tutte le possibili sequenze di azioni future calcolando l’aspettativa di ricompensa per ciascuna, e seleziona infine la prima azione della sequenza ottimale. Questo procedimento – definito in maniera astratta e che richiede calcoli complessi – determina l’azione idealmente ottimale per l’agente in ogni istante, dato il suo passato di percezioni e azioni. Il risultato è un agente teoricamente onnisciente e ottimizzato, che impara perfettamente da ogni esperienza e pianifica le azioni ideali a lungo termine in qualunque situazione.
AIXI è incomputabile nella pratica, proprio perché richiede di considerare infinite possibilità e di risolvere problemi con costi computazionali proibitivi. Tuttavia, il valore di questo modello per la ricerca sull’AGI è stato quello di fornire un punto di riferimento formale: una definizione teorica di ciò che significherebbe essere intelligenti. Da AIXI sono stati derivati modelli approssimati e implementabili (ad esempio AIXI-tl, che introduce limiti di tempo e complessità per rendere i calcoli gestibili) impiegati in esperimenti su problemi di gioco e di apprendimento. Il formalismo di Hutter ha anche stimolato discussioni sul significato stesso di intelligenza: invece di cercare di replicare i meccanismi cognitivi umani, AIXI propone un criterio oggettivo e generico basato sulla massimizzazione della capacità di raggiungere obiettivi in ambienti diversi. Questo sposta l’attenzione dal come pensa un essere umano (approccio più biologico e cognitivo) al cosa definisce in generale un comportamento intelligente di successo. Pur rimanendo un’astrazione lontana dall’implementazione pratica, il lavoro di Hutter è considerato fondamentale nella storia dell’AGI perché ha fornito rigore matematico a un campo altrimenti frammentato in idee disparate. Ha, in un certo senso, elevato l’AGI a problema formale ben definito: quello di trovare l’agente con massima intelligenza possibile.
AGI e l’era dei Large Language Model: le “scintille” di GPT-4
Negli ultimi anni, il panorama dell’intelligenza artificiale è stato rivoluzionato dall’avvento dei Large Language Model (LLM), ovvero modelli di apprendimento profondo con decine o centinaia di miliardi di parametri, addestrati su enormi quantità di dati testuali. Modelli come GPT-3 e soprattutto GPT-4 (sviluppato da OpenAI) hanno mostrato capacità sorprendenti in campi prima ritenuti fuori portata per le macchine: dalla risoluzione di problemi matematici complessi alla comprensione del linguaggio naturale a livello esperto, fino alla scrittura di codice e all’analisi di immagini. Queste prestazioni trasversali hanno riacceso il dibattito sull’AGI: c’è chi si chiede se i LLM di ultima generazione rappresentino i primi passi verso una vera intelligenza generale artificiale.
Nel 2023 un gruppo di ricercatori di Microsoft ha pubblicato un report dal titolo molto provocatorio: “Sparks of Artificial General Intelligence: Early experiments with GPT-4” (Bubeck et al., 2023). In questo lavoro si documentano una serie di test condotti su GPT-4 (ancora in fase di sviluppo all’epoca), evidenziando come esso manifesti “scintille di AGI”. Gli autori sostengono che GPT-4 appartiene a una nuova generazione di modelli linguistici più vicini all’intelligenza generale rispetto ai precedenti, insieme a sistemi come ChatGPT e PaLM. Gli autori mostrano esempi in cui GPT-4 eccelle in compiti nuovi e complessi senza bisogno di istruzioni specifiche: ad esempio risolve problemi di matematica mai visti prima, interpreta vignette visuali dimostrando comprensione delle situazioni, comprende le intenzioni dietro domande trabocchetto di logica, trasferisce conoscenze tra domini differenti. In molti di questi test, la performance di GPT-4 è vicina a quella di un essere umano competente. Questa ampiezza e flessibilità di capacità, unita al fatto che emergono da un singolo modello addestrato in modo generico (senza moduli specializzati per ogni compito), è ciò che gli autori chiamano “sparks”, ossia i primi bagliori di un comportamento generale. In altre parole, GPT-4 sembra aver appreso non solo specifiche abilità, ma anche una sorta di elasticità cognitiva nel passare da un tipo di problema all’altro – una caratteristica tipicamente associata all’intelligenza generale.
Tuttavia, lo stesso report sottolinea chiaramente che queste scintille non equivalgono a un’AGI completa. Anzi, attraverso esperimenti mirati, i ricercatori evidenziano i limiti sostanziali che ancora separano GPT-4 da un sistema veramente generale. In primo luogo, GPT-4 difetta di capacità di pianificazione a lungo termine: essendo un modello autoregressivo di completamento del testo, ragiona essenzialmente passo dopo passo (token per token) senza un piano d’azione globale che abbracci l’intero problema. Ciò porta, ad esempio, a difficoltà nei compiti che richiedono molti passaggi logici indipendenti o che prevedono di mantenere uno stato interno (memoria) consistente durante la risoluzione – ambiti in cui l’AI finisce per commettere errori anche banali. In secondo luogo, GPT-4 non possiede un meccanismo di apprendimento continuo dall’ambiente: dopo la fase di addestramento iniziale, il modello non aggiorna più in modo permanente i propri “sinapsi” sulla base di nuove esperienze (se non tramite costosi ri-addestramenti offline). Durante l’uso interattivo può adattarsi transitoriamente all’input dell’utente (ad esempio ricordando informazioni fornite nella conversazione corrente), ma questa memoria svanisce al termine della sessione. In termini di AGI, ciò significa che GPT-4 manca della capacità di accumulare conoscenza nel tempo come farebbe un agente che impara vivendo nel mondo.
Altri limiti ben noti includono la mancanza di percezione e azione diretta nel mondo fisico (GPT-4 è limitato al dominio testuale, sebbene ne esista una versione multimodale con input visivi), l’assenza di autonomia negli obiettivi (il modello non ha scopi propri, ma reagisce solo ai prompt umani) e problemi di robustezza come le allucinazioni (ossia quando il modello produce con sicurezza informazioni scorrette o inesistenti). Inoltre, per quanto efficaci, le sue strategie di risoluzione dei problemi spesso differiscono da quelle umane – GPT-4 può superare test accademici difficilissimi, ma fallire in compiti apparentemente banali che richiedono buon senso o una comprensione fisica del mondo reale.
Il 2024 ha visto quella che molti considerano una svolta storica verso l’AGI. OpenAI, continuando la scalata oltre GPT-4, ha sviluppato una serie di modelli sperimentali chiamati “serie o” (o1, o2, o3…). OpenAI o3 ha ottenuto risultati sbalorditivi: ha raggiunto un punteggio dell’87,5% sul benchmark ARC-AGI, un test ideato per misurare la capacità di intelligenza generale adattiva (Chollet, 2023). Questo dato è straordinario se paragonato ai progressi precedenti: basti pensare che nel 2020 GPT-3 aveva totalizzato lo 0% sullo stesso test, e GPT-4 (versione iniziale, indicata come 4o) solo il 5% nel 2024. In pochi mesi, o3 ha frantumato quei limiti, passando da risultati quasi nulli a prestazioni superiori a quelle medie umane (fissate attorno all’85% per quel benchmark). Va notato che o3 ha ottenuto tali risultati grazie a un approccio nuovo: invece di limitarsi ad aumentare dimensioni e dati, OpenAI ha introdotto un metodo di apprendimento per rinforzo che guida il modello a “pensare” in modo più approfondito durante la generazione delle risposte. In pratica, o3 esplicita una sorta di “ragionamento a catena” interno – analizzando il problema – prima di fornire la risposta finale, riducendo errori e “allucinazioni” e mostrando una migliore capacità di adattamento a compiti inediti. Questo cambio di paradigma – da modelli che replicano schemi visti nei dati, a modelli che sintetizzano nuovi programmi e soluzioni – rappresenta un avanzamento verso la generalità: i nuovi LLM non si limitano a imitare, ma iniziano ad improvvisare strategie per problemi nuovi. È come essere passati da un motore più potente a un veicolo di concezione completamente nuova.
Grazie a innovazioni del genere, oggi i modelli IA sanno scrivere codice, risolvere problemi di matematica avanzata, spiegare barzellette, comporre testi creativi, e persino pianificare azioni – tutte abilità un tempo ritenute fuori portata. Molti compiti considerati “difficili” per le macchine cadono uno dopo l’altro. Ad esempio, problemi di buon senso e astrazione (come quelli del test ARC-AGI, che richiedono di completare schemi visivi e deduttivi) sembravano irrisolvibili per gli LLM, tanto che lo stesso Chollet criticava l’eccessiva enfasi industriale su questi modelli incapaci di vero ragionamento, basati solo sulla memorizzazione. Eppure, l’ultimo concorso ARC del 2024 ha visto un modello raggiungere il 55,5% (record pre-o3), e ora o3 ha alzato ulteriormente l’asticella ben oltre il 75-85%. Ciò dimostra che i limiti presunti possono cadere. Nel 2020 pochi avrebbero creduto che entro il 2024 un modello IA potesse avvicinarsi alla performance umana in compiti di ragionamento astratto – sarebbe sembrata fantascienza fino al giorno prima che accadesse. Gli sviluppi più recenti nei LLM suggeriscono che la domanda non è più se raggiungeremo una AGI, ma quando – e soprattutto come ci faremo trovare pronti di fronte a questa realtà emergente.
Conclusioni
Dopo questo percorso tra passato e presente dell’AGI, è utile soffermarsi su un elemento cruciale che probabilmente distingue un sistema davvero generale: la capacità di ragionare in senso lato, cioè di derivare inferenze nuove da conoscenze pregresse in modo affidabile, efficiente e flessibile. Su questo tema la visione di Pei Wang – e del suo sistema NARS – offre spunti importanti per il futuro dell’AGI, specialmente in rapporto ai moderni LLM.
Come abbiamo visto, NARS pone il ragionamento al centro dell’intelligenza: per Wang, pensare significa inferire passo dopo passo nuove conclusioni a partire da conoscenze incomplete, perseguendo obiettivi e adattandosi a vincoli di tempo e risorse (Wang, 2013). La sua concezione differisce radicalmente dall’approccio dei modelli linguistici statistici. Un LLM come GPT-4 in effetti risolve molti problemi di “ragionamento” senza possedere un motore di inferenza logica interno: esso simula il ragionamento attraverso correlazioni statistiche apprese dal testo, producendo catene di ragionamento apparenti (spesso chiamate chain-of-thought) che somigliano a deduzioni o piani, ma che in realtà sono generate con un meccanismo di completamento del tutto differenti. In termini semplici, il LLM non “sa” realmente cosa sta facendo in senso logico, anche se il suo output può sembrare frutto di un ragionamento. Ciò conduce a errori peculiari: ad esempio, un LLM può fallire su un semplice problema aritmetico se la domanda viene riformulata in modo leggermente diverso, oppure contraddirsi tra un turno e l’altro di conversazione – segni che non possiede un modello interno di logica o di coerenza del mondo, ma si basa solo sul pattern statistico delle frasi.
Alcuni limiti fondamentali degli attuali LLM sono dovuti alla mancanza di un modello interno di ragionamento. Ad esempio, le reti neurali di grandi dimensioni faticano a gestire in modo affidabile il binding delle variabili logiche (cioè l’associazione coerente tra simboli che ricorrono in ruoli diversi in una deduzione), non hanno un meccanismo intrinseco per garantire la coerenza logica globale delle loro risposte (un LLM può generare localmente frasi plausibili che però globalmente non stanno in piedi), e mancano di un quadro esplicito per scegliere quali inferenze effettuare in base a un obiettivo (si limitano a proseguire la sequenza più probabile, senza un vero concetto di “scopo”). Questo non significa che i LLM siano inutili per l’AGI – al contrario, la loro capacità di assorbire conoscenza da enormi moli di dati testuali è impressionante – ma indica che per superare certi limiti potrebbero dover essere integrati con componenti di ragionamento esplicito.
Il sistema NARS rappresenta un tentativo di dotare un’intelligenza artificiale di un cuore che opera secondo principi espliciti, e che arricchisce il proprio sapere progressivamente. Un aspetto affascinante della concezione di Wang è che in NARS le regole base del ragionamento (la logica non-assiomatica) sono progettate dall’uomo, ma non il contenuto specifico delle conoscenze: quello l’AGI lo costruisce da sé, interagendo col mondo. Così, un futuro sistema AGI potrebbe nascere con un motore di inferenza innato (un po’ come noi nasciamo con certe predisposizioni cognitive di base), ma poi imparare tutto il resto come farebbe un bambino, accumulando esperienza e raffinando da sé le proprie credenze. Questo approccio risponde alla domanda chiave su cosa debba essere costruito a priori e cosa appreso in un’AGI. Trovare il giusto equilibrio è fondamentale: un sistema interamente costruito a mano rischia di essere rigido e incompleto; uno interamente appreso da dati grezzi (come i LLM) rischia di mancare di affidabilità e trasparenza nelle sue “deduzioni”.
La strada verso l’AGI probabilmente richiederà la convergenza di più linee di ricerca. Da un lato, i progressi dell’apprendimento profondo mostrano che è possibile raggiungere capacità sorprendenti attraverso l’auto-apprendimento da grandi quantità di dati. Dall’altro, i progetti classici di AGI – come quelli di Goertzel, Wang, Hutter e altri – ricordano l’importanza di strutture cognitive esplicite: memorie strutturate, motori di inferenza, rappresentazioni simboliche integrabili con quelle subsimboliche, e principi ispirati sia dalla psicologia umana sia da teorie matematiche dell’intelligenza. L’AGI, per definizione, dovrà saper unire molte capacità diverse. È dunque plausibile che un futuro sistema di intelligenza generale artificiale incorpori il meglio di entrambi gli approcci: la potenza adattiva e intuitiva delle reti neurali di grandi dimensioni e la solidità di un nucleo di ragionamento logico simbolico. In questa sfida di integrazione, contributi come NARS offrono un riferimento prezioso su come dotare le macchine di un senso del ragionamento continuo, auto-migliorante e guidato da obiettivi – qualità che sono alla base dell’intelligenza così come la conosciamo.
Bibliografia
Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., … & Zhang, Y. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv preprint arXiv:2303.12712.
Chollet, F. (2023). On the Measure of Intelligence. arXiv preprint arXiv:1911.01547.
Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books.
Goertzel, B., & Pennachin, C. (Eds.). (2007). Artificial General Intelligence. Berlin: Springer.
Goertzel, B. (2021). The General Theory of General Intelligence: A Pragmatic Patternist Perspective. arXiv preprint arXiv:2103.15100.
Goertzel, B., Bogdanov, V., Duncan, M. et al. (2023). OpenCog Hyperon: A Framework for AGI at the Human Level and Beyond. arXiv preprint arXiv:2310.18318
Hutter, M. (2005). Universal Artificial Intelligence: Sequential Decisions based on Algorithmic Probability. Berlin: Springer.
O’Donnell, J. (2025, March 11). AGI is suddenly a dinner table topic. MIT Technology Review. https://www.technologyreview.com/2025/03/11/1112983/agi-is-suddenly-a-dinner-table-topic/
Silver, D., Huang, A., Maddison, C. et al. (2016) Mastering the game of Go with deep neural networks and tree search. Nature 529, 484–489.
Spearman, C.E. (1904). ‘General intelligence’, Objectively Determined and Measured, American Journal of Psychology, 15, 201–293
Wang, P. (2006). Rigid Flexibility: The Logic of Intelligence. Dordrecht: Springer.
Wang, P. (2007). Artificial General Intelligence — A gentle introduction https://cis.temple.edu/~pwang/AGI-Intro.html
Wang, P. (2013). Non-Axiomatic Logic: A Model of Intelligent Reasoning. Singapore: World Scientific.