approfondimento

Superintelligenza, perché tante firme contro l’AI che sfida l’uomo



Indirizzo copiato

Dallo statement del Future of Life Institute, firmato da scienziati, leader politici, religiosi e celebrità, al limite tecnico del transformer e ai nuovi modelli predittivi come i-JEPA: la “superintelligenza” non è alle porte, ma il dibattito sulla governance dell’AI entra in una nuova fase

Pubblicato il 24 ott 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



Massimizzare l’adozione dell’AI in sanità: verso un approccio strategico di lungo periodo; AI gen consulenza; superintelligenza; AI industria
Foto: Shutterstock

Steve Bannon, Meghan Markle e Stephen Fry si sono uniti a un gruppo eterogeneo di personalità pubbliche, scienziati, politici, imprenditori, religiosi e artisti, che chiedono una proibizione globale dello sviluppo della cosiddetta “superintelligenza”, in un’alleanza inedita contro i rischi dell’intelligenza artificiale avanzata.

L’appello, pubblicato il 23 ottobre dal Future of Life Institute (FLI), è stato sottoscritto, nel momento in cui scriviamo questo articolo, da oltre 27 mila persone (di cui 22.075 provenienti dalla campagna parallela promossa da Ekō). Tra i nomi più noti figurano Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, Richard Branson, Mary Robinson, Susan Rice, Stephen Fry, il principe Harry, Meghan Markle e Steve Bannon. Il documento invita i governi e le istituzioni internazionali a vietare lo sviluppo di sistemi di AI capaci di superare le capacità cognitive umane in tutti gli ambiti, fino a quando non sarà raggiunto un consenso scientifico sulla loro sicurezza e controllabilità.

In Italia, da Marco Camisani Calzolari, noto divulgatore scientifico (e autore di Agendadigitale.eu).

Superintelligenza, cosa dicono i contrari

“Chiediamo una proibizione dello sviluppo della superintelligenza, che non dovrà essere revocata finché non vi sarà (1) un ampio consenso scientifico sul fatto che possa essere realizzata in modo sicuro e controllabile, e (2) un forte sostegno pubblico”. L’iniziativa, spiega il presidente del FLI Max Tegmark, nasce dalla convinzione che “la vera minaccia non sia un’altra azienda o un altro Paese, ma le macchine che stiamo costruendo”. Secondo Tegmark, “sempre più persone stanno iniziando a pensare che il rischio maggiore non venga da altri attori economici, ma dalla traiettoria tecnologica che abbiamo intrapreso”.

Lo statement arriva in un momento in cui le principali Big Tech, OpenAI, Google, Meta, Anthropic, competono per raggiungere la “general intelligence” e dopo che nel marzo 2023 lo stesso Istituto aveva lanciato un primo appello per una moratoria di sei mesi sullo sviluppo di nuovi modelli. Oggi la richiesta è più radicale, un divieto totale e a tempo indeterminato sullo sviluppo della superintelligenza.

Le priorità da affrontare

Secondo il FLI, la priorità è garantire che ogni ulteriore passo avvenga solo con un chiaro consenso scientifico e sociale, per evitare rischi di “obsolescenza economica, perdita di libertà, disuguaglianze, minacce alla sicurezza nazionale e persino estinzione umana”. Tra i firmatari compaiono anche numerosi ricercatori cinesi, come Andrew Yao e Ya-Qin Zhang (ex presidente di Baidu), insieme a figure istituzionali come Susan Rice (consigliera per la sicurezza nazionale di Barack Obama) e Mike Mullen (capo di Stato Maggiore congiunto sotto Bush e Obama).

La petizione è accompagnata da un sondaggio secondo cui il 75% degli americani sarebbe favorevole a una regolamentazione forte dell’AI, mentre solo il 5% difende lo status quo di sviluppo non regolato.

Superintelligenza, il contesto

A differenza del 2023, oggi il dibattito sulla superintelligenza si colloca in un contesto di forte saturazione tecnologica e narrativa.
L’intelligenza artificiale generativa, esplosa con ChatGPT, Gemini e Claude, mostra oggi una curva di rendimento decrescente: i nuovi modelli richiedono enormi risorse di calcolo ma offrono miglioramenti marginali. Il risultato è una bolla di aspettative che procede in parallelo alla difficoltà di produrre veri salti cognitivi.
La “superintelligenza” evocata dai firmatari non è dunque una realtà imminente, ma un’ipotesi etica e politica, una dichiarazione di principio contro la perdita di controllo e di senso.

Il limite del transformer: l’AI ha raggiunto la sua estensione massima

L’architettura transformer, introdotta nel 2017 con Attention Is All You Need, ha alimentato tutti i modelli di AI generativa finora sviluppati. Ma la comunità scientifica concorda, il paradigma ha raggiunto la sua soglia di complessità utile.

  • Ogni nuovo modello cresce esponenzialmente in dimensioni e costi, ma senza innovazioni concettuali.
  • I sistemi restano basati su correlazioni probabilistiche, incapaci di costruire modelli causali o rappresentazioni interne del mondo.
  • L’intelligenza che generano è linguistica ma non cognitiva, priva di comprensione o intenzionalità.

In altre parole, non siamo alla vigilia della superintelligenza, ma alla fine del ciclo transformer. Il paradigma che ha definito la prima generazione dell’AI generativa si sta esaurendo, proprio mentre cresce l’immaginario di un salto evolutivo.

Il dopo-transformer: l’intelligenza predittiva e i modelli JEPA

Proprio per superare questi limiti, alcuni ricercatori, tra cui Yann LeCun, chief scientist di Meta e vincitore del Turing Award insieme a Hinton e Bengio, lavorano su architetture alternative. La più avanzata è i-JEPA (Image Joint Embedding Predictive Architecture): un modello che non “predice la prossima parola” come i transformer, ma costruisce rappresentazioni astratte del mondo e ne prevede gli stati futuri. i-JEPA non si basa su dati etichettati né su generazione testuale, ma su apprendimento auto-supervisionato e predizione del contesto, più vicino al funzionamento del cervello umano che alla statistica linguistica. L’obiettivo non è imitare il linguaggio, ma comprendere il mondo attraverso il cambiamento e la coerenza.

Un approccio radicalmente diverso, non “più grande”, ma “più vicino al senso”. Proprio per questo, molti ricercatori vedono in i-JEPA una possibile nuova fase cognitiva dell’AI non più generativa, ma predittiva.

Una firma che manca: la posizione di Yann LeCun

Prezioso nella comunità dell’AI, Yann LeCun non figura tra i firmatari dello Statement on Superintelligence. La sua scelta non va letta come un semplice dato formale, ma come indicazione di una visione distinta: LeCun ha criticato pubblicamente le paure apocalittiche relative all’AGI, definendole alla stregua di cliché o “scenari fantascientifici” che rischiano di distogliere l’attenzione dalla ricerca reale. Per lui, la minaccia non risiede nella nascita di una mente autonoma e incontrollabile, ma nella carenza concettuale degli attuali modelli di AI e nella mancanza di una vera ricerca cognitiva di lungo termine. Il suo approccio, incentrato su architetture auto-supervisionate, rappresentazioni del mondo e modelli predittivi, appare come l’antitesi dell’allarmismo: non temere che la macchina pensi, ma progettare macchine che sappiano.
La sua assenza tra i firmatari segnala che, nella comunità scientifica, esistono due visioni distinte:

  • da un lato chi teme un’accelerazione incontrollata verso sistemi oltre-umani (Hinton, Bengio, Tegmark);
  • dall’altro chi teme che quella stessa paura diventi un freno culturale e intellettuale alla ricerca della vera comprensione dell’intelligenza artificiale.

Superintelligenza o sovranità cognitiva

Avevamo scritto che la questione non è quando arriverà l’AGI, ma come la definiremo. Lo Statement on Superintelligence sposta ulteriormente la discussione, dal come al se. La posta in gioco non è la nascita di una mente più intelligente dell’uomo, ma la sovranità sullo sviluppo dell’intelligenza stessa. Chi decide cosa significa “intelligenza”, quali limiti etici porre e chi può spingersi oltre? Una domanda politica prima che tecnologica, che chiama in causa la responsabilità collettiva di scegliere che tipo di mente vogliamo mettere al mondo.

Un dibattito necessario, ma in ritardo

Lo Statement arriva mentre la regolamentazione globale dell’AI avanza lentamente: l’AI Act europeo è in fase di attuazione graduale, mentre gli Stati Uniti restano frammentati tra norme statali e iniziative private. In questo contesto, l’appello del FLI funziona come atto di autodisciplina collettiva, un richiamo al principio di precauzione. Allo stesso tempo, arriva nel momento di apparente stagnazione tecnica. Chiedere oggi un divieto sulla superintelligenza equivale forse a vietare l’invenzione del teletrasporto, un gesto simbolico, potente sul piano morale, ma scollegato dallo stato reale della ricerca.

I rischi concreti

Il pericolo più concreto non è la nascita di una mente artificiale autonoma, ma la perdita di un pensiero critico capace di governare l’intelligenza che già esiste.
L’AI non è ancora superintelligente, ma è già infrastruttura cognitiva, orienta l’informazione, modella le decisioni, filtra la realtà. Probabilmente il senso profondo dello Statement non è tecnico, ma simbolico: ricordarci che la vera frontiera non è quella di superare l’uomo, ma di capirlo prima che le macchine imparino a farlo meglio di noi.

Che fare: AI come il nucleare

Come afferma un nuovo libro scritto in collaborazione con il ricercatore di intelligenza artificiale Eliezer Yudkowsky: Se qualcuno lo costruisce, tutti muoiono.

La risposta possibile è una regolamentazione internazionale coordinata. Ma una sfida comune sollevata contro tali sforzi, ampiamente accolta nella Silicon Valley e ora a Washington, utilizza una versione della teoria dei giochi: il coordinamento globale sulla sicurezza dell’IA sarebbe inutile perché qualsiasi controllo concordato verrebbe ignorato dalle aziende.

Frenare solo le aziende americane consentirebbe ai rivali cinesi di vincere e quindi un approccio senza restrizioni è essenziale per mantenere il primato tecnologico degli Stati Uniti.

E tuttavia c’è una soluzione. Ce la fornisce la storia. Durante la guerra fredda, gli Stati Uniti e l’Unione Sovietica erano impegnati in una precaria corsa agli armamenti nucleari. La fiducia tra le due parti era molto bassa. Eppure i due paesi hanno stipulato trattati come il Trattato sulla limitazione delle armi strategiche, il Trattato sulla messa al bando dei test nucleari e il Trattato sulle forze nucleari a raggio intermedio.

Come? Impegnandosi in decenni di complessi negoziati.

Anche in quel caso il ruolo degli scienziati fu determinante.

Negli anni ’50, un gruppo di scienziati riconobbe i pericoli della guerra nucleare e formò le Conferenze Pugwash sulla scienza e gli affari mondiali. Tutto iniziò nel 1955 con un manifesto di Albert Einstein e Bertrand Russell, firmato da altri nove eminenti scienziati, la maggior parte dei quali vincitori del Premio Nobel.

Durante tutta la guerra fredda, i membri di entrambe le parti della cortina di ferro continuarono a incontrarsi, anche quando i loro governi erano in una situazione di stallo. È grazie al loro lavoro che è stata redatta la maggior parte dei trattati sopra citati.

I trattati sulle armi nucleari dimostrano che è possibile gestire una corsa geopolitica ad alto rischio con un rivale, anche quando la fiducia è inesistente.

Ci sono critiche all’idea di trattare l’AI come il nucleare. L’intelligenza artificiale è una tecnologia pervasiva, accessibile e applicabile a infiniti contesti, molti dei quali innocui o benefici. Con impatti a tutti i livelli dell’economia e della società, potenzialmente molto positivi. Regole troppo rigide potrebbero soffocare l’innovazione.

La proposta di Gary Marcus

Un’idea concreta viene Gary Marcus, psicologo cognitivo e scienziato dell’intelligenza artificiale. Una delle voci più autorevoli e critiche nei confronti dello sviluppo incontrollato dell’AI. Professore emerito alla New York University e fondatore di diverse startup nel settore, anche Marcus sostiene che l’intelligenza artificiale debba essere trattata con la stessa cautela e responsabilità con cui il mondo ha imparato a gestire il nucleare; la regolamentazione non deve però frenare la ricerca, ma evitare una corsa cieca verso sistemi sempre più potenti e imprevedibili.

“È una tecnologia con effetti globali e potenzialmente irreversibili”, ha spiegato in più occasioni. “Una volta aperta la scatola di Pandora, non possiamo semplicemente richiuderla”. Per questo, secondo Marcus, il mondo deve dotarsi di una governance internazionale dedicata, sul modello dell’Agenzia internazionale per l’energia atomica (IAEA), capace di monitorare, controllare e — se necessario — fermare gli sviluppi più pericolosi dell’intelligenza artificiale.

In pratica, il ricercatore propone una serie di misure concrete: un’agenzia globale dell’IA indipendente dai governi e dalle aziende, regole “a scala” per classificare e controllare i modelli più potenti, procedure di audit e test obbligatori prima del rilascio (“pre-flight checks”), e un sistema di responsabilità legale per i produttori nel caso in cui un sistema causi danni gravi. Marcus invoca inoltre maggiore trasparenza: accesso ai modelli per i ricercatori, dati condivisi sul loro funzionamento interno, e audit indipendenti sulle capacità e sui rischi.

Le sue proposte si inseriscono in un dibattito sempre più acceso. Da un lato, l’AI Act europeo rappresenta il primo tentativo di regolamentazione su scala continentale, basato su un approccio “risk-based”. Dall’altro, Marcus ritiene che serva un passo ulteriore: una struttura globale di controllo capace di gestire i rischi transnazionali, al di sopra delle logiche di mercato e delle rivalità geopolitiche. “Non possiamo lasciare che la sicurezza dell’umanità dipenda dal codice sorgente di poche aziende private”, ha dichiarato in un’intervista al Wall Street Journal.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati