l’analisi

Intelligenza artificiale generale, cos’è davvero? La verità oltre l’hype



Indirizzo copiato

L’idea che l’Intelligenza Artificiale Generale (AGI) sia l’obiettivo ultimo della ricerca AI è spesso data per scontata. Ma cosa significa davvero AGI? Soprattutto, è un concetto utile o un’illusione che distoglie risorse e attenzione dai veri progressi tecnologici?

Aggiornato il 12 feb 2026

Alessandro Longo

Direttore agendadigitale.eu



AI ACT obblighi intelligenza artificiale etica
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

In sintesi

  • L’AGI è una buzzword con definizione ambigua: i framework di “percentuali di AGI” mostrano abilità frastagliate (forti in ragionamento e linguaggio, deboli in memoria di lungo periodo e apprendimento continuo).
  • Le Big Tech e il marketing alimentano hype e investimenti, presentando modelli come GPT-5, Claude 4, Gemini, DeepSeek e GLM-5 come passi verso l’AGI, pur restando sistemi statistici con scarsa autonomia.
  • Tra ottimisti e scettici, emergono limiti e rischi: il framework Survival Game colloca le AI tra “Limited” e “Capable”, mentre la governance propone AI Safety Institutes e il principio MAIM, spingendo verso AI specializzate e agenti avanzati.
Riassunto generato con AI

L’AGI, intelligenza artificiale generale, è diventata una buzzword nel dibattito sull’intelligenza artificiale, la sua definizione resta però ambigua e divisiva. Alcuni la raccontano come imminente, altri la paragonano a una chimera scientifica. Attraverso un’analisi di alcune recenti posizioni emerse, sia accademiche che strategiche, proviamo a smontare il “giocattolo” mito dell’AGI per osservarlo più da vicino e proviamo a valutare se abbia davvero senso inseguirla come obiettivo prioritario.

Cos’è davvero l’intelligenza artificiale generale (AGI)?

L’Artificial General Intelligence (AGI) viene generalmente definita come un sistema in grado di svolgere qualsiasi compito cognitivo umano con prestazioni uguali o superiori. Questa concezione, promossa da aziende come OpenAI e DeepMind, si basa sull’idea che una rete neurale sufficientemente grande e addestrata su una varietà di dati possa acquisire un’intelligenza simile a quella umana.

Negli ultimi anni, il concetto di AGI è stato al centro del dibattito pubblico, con alcuni esperti che sostengono che il suo sviluppo sia imminente (Ezra Klein Show, 2025[1]). Non esiste un consenso sulla sua definizione: per alcuni, l’AGI è un sistema capace di apprendere autonomamente nuovi compiti senza supervisione, mentre per altri dovrebbe possedere capacità di ragionamento e adattamento paragonabili a quelle umane.

Negli ultimi anni sono nati anche tentativi di dare una cornice più rigorosa al termine, ad esempio proponendo definizioni che trattano l’AGI come un insieme di abilità cognitive comparabili a quelle di un adulto ben istruito e misurabili con batterie psicometriche derivate dalla psicologia umana.

Questi framework arrivano perfino ad attribuire punteggi “percentuali di AGI” a modelli come GPT-5, ma mostrano profili molto frastagliati: forti in alcune aree (ragionamento, linguaggio, calcolo), debolissimi in altre (memoria di lungo periodo, apprendimento continuo), a conferma che l’idea di una vera “intelligenza generale” resta lontana e controversa.

Questa mancanza di chiarezza permette alle aziende tecnologiche di usare il termine per attrarre finanziamenti e giustificare strategie aziendali, alimentando un ciclo di aspettative che potrebbe non trovare riscontro nella realtà tecnologica attuale. Secondo gli autori del paper “Stop treating ‘AGI’ as the north-star goal of AI research” (Blili-Hamelin et al., 2025)[2], il concetto stesso di AGI è altamente contestato e privo di una definizione operativa condivisa, il che lo rende uno strumento retorico molto malleabile. In questo quadro, sviluppi incrementali dell’AI tradizionale vengono spesso presentati come “passi verso l’AGI”.

I modelli di ultima generazione come GPT-5 e GPT-5.2 di OpenAI, la serie Claude 4 di Anthropic, i Gemini 2.5 e 3 di Google DeepMind e i nuovi modelli cinesi come DeepSeek R1 o GLM-5 sono descritti nel marketing come tappe di avvicinamento all’intelligenza generale, nonostante rimangano sistemi statistici di pattern recognition e reasoning che faticano ancora con compiti realmente nuovi, privi di dati di addestramento, e non possiedono capacità robuste di apprendimento autonomo nel tempo.

Questo crea un circolo di aspettative in cui ogni avanzamento viene narrato come un passo decisivo verso l’AGI, alimentando il flusso di investimenti senza una verifica oggettiva delle reali capacità cognitive dei modelli AI. Il paper sottolinea inoltre che molte ricerche sull’AGI non seguono criteri scientifici rigorosi, presentando metriche vaghe o non replicabili. Ciò favorisce la proliferazione di annunci sensazionalistici, in cui il concetto di AGI è utilizzato più come leva di marketing che come obiettivo scientifico misurabile.

Il mito dell’intelligenza artificiale generale e le aspettative irrealistiche

Il dibattito sulla fattibilità dell’AGI si divide tra chi la considera una tecnologia imminente e chi la ritiene ancora un obiettivo irraggiungibile nel breve termine. Questa polarizzazione riflette non solo divergenze scientifiche, ma anche interessi economici e geopolitici.

L’AGI è vicina: una prospettiva ottimistica

Secondo alcuni esperti, l’Intelligenza Artificiale Generale potrebbe emergere nei prossimi due o tre anni, grazie ai recenti sviluppi nel deep learning e alla crescente disponibilità di risorse computazionali. Ezra Klein e Ben Buchanan, nel loro dibattito sul The Ezra Klein Show (2025)[3], evidenziano come molti ricercatori e aziende leader del settore credano che l’AGI sia ormai una possibilità concreta, piuttosto che un concetto astratto o futuribile.

Un esempio significativo di questa accelerazione è il caso di Manus, presentato inizialmente come un agente generale sviluppato in Asia e capace di coordinare autonomamente sequenze lunghe di azioni — dalla ricerca alla scrittura di codice, fino all’analisi di dati aziendali — con un’unica interfaccia conversazionale.

Nel 2025 Manus è stato acquisito da Meta per una cifra superiore ai 2 miliardi di dollari, diventando uno dei tasselli centrali della sua strategia sugli agenti AI. L’azienda lo descrive come un sistema in grado di pianificare, monitorare e completare progetti complessi quasi senza supervisione umana, e i suoi numeri di fatturato in rapida crescita vengono spesso usati come prova che “l’AGI sta arrivando”. Tuttavia, anche in questo caso si tratta di un agente costruito sopra modelli statistici esistenti, con forti limiti di comprensione del contesto e nessuna vera capacità di apprendimento strutturato dal mondo, al di là dell’aggiornamento dei dati.

Questa visione ottimistica si basa sulla convinzione che i recenti miglioramenti nelle architetture AI, uniti all’espansione delle capacità computazionali, possano portare a un cambiamento di paradigma. Il rischio, sottolineano Buchanan e Klein, è che questa evoluzione avvenga troppo rapidamente per essere adeguatamente regolamentata, con implicazioni profonde per la sicurezza informatica, il mercato del lavoro e la competizione tra potenze tecnologiche globali.

La Cina e gli Stati Uniti, in particolare, stanno investendo miliardi di dollari nella ricerca AI, cercando di ottenere un vantaggio strategico in quella che potrebbe essere la più grande rivoluzione tecnologica del secolo.

Le previsioni ottimistiche

Le previsioni sui tempi restano estremamente eterogenee. Alcuni CEO di laboratorio, come Sam Altman, parlano apertamente di una possibile AGI entro il 2030, mentre altre analisi sottolineano che potrebbe volerci ben più di un decennio, se non addirittura diverse decadi, prima che sistemi AI riescano a coprire in modo affidabile l’intero spettro delle abilità umane.

In altre parole, anche il fronte “ottimista” non dispone di evidenze sperimentali solide, ma si muove su scenari probabilistici e scommesse tecnologiche.

L’AGI è lontana o impossibile: il fronte scettico

Una parte della comunità scientifica considera l’AGI non solo lontana, ma potenzialmente irraggiungibile con le attuali metodologie di ricerca. Gary Marcus, noto esperto di AI, critica apertamente il concetto stesso di AGI[5], sostenendo che gli attuali modelli non siano realmente capaci di apprendere in modo generale, ma si limitino a riconoscere pattern nei dati su cui sono stati addestrati.

Nello studio “Stop treating ‘AGI’ as the north-star goal of AI research” (Blili-Hamelin et al., 2025) gli autori criticano l’ossessione per l’AGI, sostenendo che sia una costruzione più ideologica che scientifica, affermano che l’idea di perseguire un’intelligenza artificiale generalista è basata su presupposti non verificabili e che molte delle ricerche in questo campo sono guidate più da interessi commerciali e hype mediatico che da una reale necessità tecnologica. Inoltre, il paper avverte che concentrarsi sull’AGI rischia di distogliere risorse da applicazioni AI più concrete e utili nel breve termine.

Queste critiche sollevano una questione chiave: l’AGI è un obiettivo realistico o è solo un’idea affascinante che alimenta il marketing delle Big Tech? La ricerca deve continuare a investire su una meta incerta, o sarebbe più produttivo sviluppare AI specializzate, capaci di eccellere in ambiti mirati senza la necessità di una “coscienza” artificiale? Il dibattito rimane aperto, ma il fronte scettico avverte che l’AGI potrebbe rivelarsi più un’illusione che una destinazione concreta. In numerosi interventi pubblici e articoli accademici, Marcus ha ribadito che le attuali reti neurali non possiedono capacità di ragionamento astratto, né la flessibilità cognitiva necessaria per adattarsi autonomamente a nuovi compiti senza un massiccio riaddestramento.

Nel 2025 Gary Marcus ha sintetizzato questa posizione con una formula diventata quasi uno slogan: «la storia più sottovalutata dell’AI è che il puro scaling non ha prodotto l’AGI». Nei suoi interventi su riviste come Fortune e nella propria newsletter, ha mostrato come, nonostante l’aumento vertiginoso di parametri, dati e potenza di calcolo, i modelli continuino a fallire su compiti che richiedono comprensione causale profonda, coerenza a lungo termine e affidabilità nelle situazioni fuori distribuzione.

I limiti attuali dell’intelligenza artificiale

Uno degli studi più rilevanti che mettono in discussione l’AGI come concetto praticabile è quello della Tsinghua University e della Renmin University[6], che introduce un nuovo framework chiamato “Survival Game” per testare il livello di autonomia e adattabilità dei sistemi AI. Secondo questo modello, l’intelligenza di un sistema non si misura solo dalla sua capacità di elaborare dati, ma soprattutto dal numero di errori che commette prima di trovare una soluzione. Lo studio dimostra che la maggior parte delle AI attuali opera ancora a livello “Limited”, ovvero fa errori infiniti prima di trovare la soluzione corretta, segno che manca di una vera autonomia decisionale. Anche i modelli più avanzati, come quelli basati su deep learning, rientrano al massimo nel livello “Capable”, caratterizzato da un numero finito di errori ma con una variabilità elevata nelle prestazioni.

Per raggiungere un’AGI autentica, sarebbe necessario un sistema che funzioni a livello “Autonomous”, cioè in grado di risolvere problemi con un numero limitato e costante di errori, cosa che oggi nessun modello AI sembra in grado di fare.

Inoltre, gli autori stimano che raggiungere il livello Autonomous in modo generalizzato richiederebbe modelli con circa 10^26 parametri e risorse computazionali tali che, ai prezzi attuali, il valore dell’hardware necessario supererebbe di diversi ordini di grandezza la capitalizzazione di mercato delle più grandi aziende tecnologiche. Anche ipotizzando miglioramenti significativi dell’hardware, lo studio parla di decine di anni prima che una tale scala diventi realisticamente accessibile, mettendo in seria discussione l’idea che l’AGI possa emergere semplicemente continuando a “gonfiare” i modelli esistenti.

Lo studio evidenzia anche un altro problema: gli attuali modelli AI dipendono interamente dai dati su cui vengono addestrati, il che li rende incapaci di gestire situazioni realmente nuove senza un intervento umano. Questo limite strutturale contraddice la promessa di un’AI “generale” e suggerisce che l’approccio attuale, basato sulla mera espansione delle reti neurali, potrebbe non essere la strada giusta.

L’intelligenza artificiale generale è una minaccia da gestire come le armi nucleari

Un’altra prospettiva, più pragmatica e legata alla sicurezza internazionale, considera l’AGI non solo un traguardo tecnologico, ma un rischio geopolitico da gestire con estrema cautela.

Secondo il paper “Superintelligence Strategy” (Schmidt, Hendrycks, Wang, 2025)[7], l’Intelligenza Artificiale Generale potrebbe rappresentare un punto di svolta tanto destabilizzante quanto la scoperta della fissione nucleare nel XX secolo. Eric Schmidt e i suoi coautori sostengono che l’AGI, se realizzata senza adeguati controlli, potrebbe compromettere l’equilibrio globale, con la possibilità che un solo attore — sia esso uno Stato o una grande corporation — acquisisca un vantaggio tecnologico incontrastato.

Per evitare questo scenario, propongono di trattare gli AI avanzati alla stregua dell’uranio arricchito, soggetti a rigide regolamentazioni internazionali e a un controllo sovranazionale che impedisca la proliferazione incontrollata. In questo contesto, il concetto di Mutual Assured AI Malfunction (MAIM) assume un ruolo centrale.

Questo principio, mutuato dalla dottrina della Mutua Distruzione Assicurata (MAD) della Guerra Fredda, suggerisce che nessuno Stato dovrebbe cercare di monopolizzare l’AGI, poiché un tale squilibrio potrebbe portare a un’escalation imprevedibile, tra sabotaggi informatici e corse agli armamenti digitali. La corsa per il controllo dell’AGI potrebbe infatti portare a sviluppi accelerati e non regolamentati, con conseguenze imprevedibili sulla sicurezza globale e sulla stabilità economica.

Questa prospettiva trova riscontro nel crescente interesse delle agenzie governative per lo sviluppo dell’AI militare e strategica. Paesi come gli Stati Uniti e la Cina stanno già investendo in sistemi di intelligenza artificiale con applicazioni per la difesa e la sorveglianza, rendendo sempre più concreta l’ipotesi che l’AGI possa diventare uno strumento di supremazia tecnologica anziché una tecnologia di beneficio universale. L’idea di regolamentare la ricerca sull’AGI a livello internazionale è condivisa anche da istituzioni accademiche e think tank sulla sicurezza tecnologica.

Le iniziative di governance

Dal 2024 in poi, questo tipo di preoccupazioni ha iniziato a tradursi in iniziative concrete di governance: è nata una rete internazionale di istituti dedicati alla valutazione dei modelli avanzati (International Network of AI Safety Institutes) e si sono moltiplicati summit globali, dal Bletchley Park AI Safety Summit ai meeting di Seul fino all’AI Action Summit di Parigi del 2025.

Ma i primi report indipendenti — come l’AI Safety Index del Future of Life Institute — mostrano che nessuna delle principali aziende (OpenAI, Google DeepMind, Anthropic, Meta, xAI e alcuni player cinesi come Zhipu AI e DeepSeek) è oggi davvero preparata a gestire i rischi di sistemi con capacità paragonabili all’AGI, ottenendo valutazioni di sicurezza complessive non superiori alla sufficienza.

La questione principale rimane aperta: è davvero possibile regolamentare un’innovazione ancora inesistente? Soprattutto, chi avrà il potere di definire i limiti di sviluppo e applicazione di un’AGI, evitando che diventi una tecnologia esclusiva di pochi attori con interessi economici e geopolitici?

Problemi e contraddizioni del concetto di intelligenza artificiale generale

L’idea di un’Intelligenza Artificiale Generale non è solo un concetto tecnologico, ma anche una costruzione economica e politica che riflette interessi specifici più che una reale necessità scientifica. Uno dei principali problemi è la presunta neutralità scientifica dell’AGI: definire cosa significhi “intelligenza” è in sé una scelta culturale e politica. La ricerca sull’AI ha sempre oscillato tra modelli simbolici e connessionisti, e l’AGI viene spesso presentata come la sintesi definitiva di questa evoluzione, quando in realtà resta un obiettivo mal definito. Un altro aspetto critico è il controllo del dibattito sull’AGI.

Le Big Tech utilizzano la narrazione dell’AGI per giustificare ingenti investimenti e attrarre finanziamenti pubblici e privati, senza fornire prove concrete che questa sia una direzione realistica. OpenAI, DeepMind e Anthropic parlano di AGI come di un traguardo imminente, ma le loro stesse ricerche dimostrano che i loro modelli attuali, sebbene sempre più avanzati, rimangono fondamentalmente degli strumenti di elaborazione statistica piuttosto che entità dotate di vera comprensione e autonomia cognitiva.

Nuove definizioni e alternative all’AGI

Negli ultimi mesi si osserva inoltre un curioso cambiamento di tono nel settore: dopo anni in cui “AGI” era lo slogan dominante, parte di Silicon Valley ha iniziato a prendere le distanze dal termine, preferendo espressioni come “superpowered AI” o concentrandosi sugli “agenti avanzati”.

Analisi e report parlano esplicitamente di un “vibe shift”: la retorica della singola mente artificiale onnisciente lascia il posto a un discorso più pragmatico su sistemi altamente performanti ma specifici per dominio, mentre le preoccupazioni principali si spostano dalla nascita improvvisa di una superintelligenza alle conseguenze politiche, economiche ed energetiche di modelli sempre più potenti ma ancora strutturalmente fallibili.

Infine, esiste una alternativa praticabile alla corsa verso l’AGI: sviluppare AI specializzate, ottimizzate per compiti specifici, che possano effettivamente migliorare processi industriali, sanitari e logistici senza la necessità di inseguire una “superintelligenza onnisciente”. Molti ricercatori sostengono che una AI avanzata e distribuita su diversi settori potrebbe avere un impatto molto più concreto rispetto all’inseguimento di un’ipotetica intelligenza generale, che rischia di rimanere un concetto vago e strumentalizzato.

Oltre il mito dell’intelligenza artificiale generale: un futuro realistico per l’IA

L’AGI non è solo un problema tecnico, ma un’idea politica ed economica che orienta la direzione della ricerca AI, proprio come l’inseguimento del viaggio interstellare nei film di fantascienza: un sogno affascinante, ma irto di incognite.

Se alcune narrazioni vogliono convincerci che siamo vicini a una sorta di Skynet di Terminator, capace di sfuggire al controllo umano, la realtà tecnologica è ben diversa. Gli attuali modelli di AI, pur essendo straordinariamente avanzati, operano ancora con logiche deterministiche e dataset predefiniti, molto lontani dalla creatività autonoma e dall’adattamento istantaneo di un’intelligenza realmente generale. Invece di alimentare una visione apocalittica o utopistica dell’AGI, come quella di Ex Machina, in cui una macchina riesce a manipolare e comprendere il comportamento umano meglio degli stessi esseri umani, sarebbe più utile concentrarsi su AI avanzate ma specializzate, capaci di risolvere problemi concreti e migliorare le capacità umane in settori mirati. L’intelligenza artificiale che oggi abbiamo a disposizione è più simile a HAL 9000 di 2001: Odissea nello Spazio: può analizzare dati e fornire risposte precise, ma non comprende realmente ciò che sta facendo. Il rischio è che l’AGI resti una promessa carica di hype, sfruttata per giustificare investimenti miliardari e strategie aziendali, mentre il progresso effettivo avviene in settori più circoscritti. L’attenzione dovrebbe essere posta non sulla creazione di una mente artificiale onnisciente, ma su strumenti AI altamente performanti, capaci di potenziare l’intelligenza umana senza cadere nella trappola della “superintelligenza mistica”.

Non a caso, alcune delle esperienze più interessanti degli ultimi mesi vanno proprio in questa direzione: reti di agenti specializzati per singoli domini (dal diritto alla genomica, dalla manutenzione industriale al risk management) e strumenti come OpenClaw, che mostrano come un “assistente personale” ben integrato nei flussi di lavoro possa avere impatti immediati molto più concreti di una vaga promessa di AGI.

Il futuro dell’AI sembra assomigliare più a un ecosistema di intelligenze parziali e cooperative che a un’unica mente artificiale generale

Note


[1] https://www.nytimes.com/2025/03/04/opinion/ezra-klein-podcast-ben-buchanan.html#

[2] https://arxiv.org/pdf/2502.03689

[3] https://www.nytimes.com/2025/03/04/opinion/ezra-klein-podcast-ben-buchanan.html#

[4] https://www.technologyreview.com/2025/03/11/1112983/agi-is-suddenly-a-dinner-table-topic/?utm_source=the_download&utm_medium=email&utm_campaign=the_download.unpaid.engagement&utm_term=Active%20Qualified&utm_content=03-11-2025&mc_cid=68ef2ebcde&mc_eid=b9b4a7aa98

[5] https://arxiv.org/pdf/2502.03689

[6] https://arxiv.org/pdf/2502.18858v1

[7] https://drive.google.com/file/d/1JVPc3ObMP1L2a53T5LA1xxKXM6DAwEiC/view?pli=1

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x