scenari

OpenAI, tre mosse in tredici giorni per diventare potere politico



Indirizzo copiato

Tra il 13 e il 26 aprile 2026, OpenAI ha eseguito un’operazione in tre atti: un documento di policy, un podcast dei fondatori e una nuova carta valoriale. Un trittico calibrato per trasformare l’azienda in attore politico legittimo

Pubblicato il 6 mag 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



regole USA intelligenza artificiale
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La strategia di posizionamento di OpenAI per l’era dell’AGI non si è svolta in un convegno né in un’audizione parlamentare. Si è dispiegata in tredici giorni di aprile 2026, attraverso tre testi coordinati — un documento di politica industriale, un podcast e una nuova carta fondativa — che insieme disegnano un’operazione di legittimazione senza precedenti nella storia delle aziende tecnologiche. Quello che segue è un’analisi congiunta dei tre atti e delle assenze che li accomunano.


Indice degli argomenti

Il podcast di Altman e Brockman: prima apparizione congiunta su un media esterno

Il 21 aprile 2026 Sam Altman e Greg Brockman hanno registrato insieme, per la prima volta, un podcast con un media esterno. Lo hanno fatto su Core Memory, il progetto editoriale di Ashlee Vance, giornalista e autore della biografia di Elon Musk, affiancato dalla giornalista tech Kylie Robison. La conversazione dura un’ora e venti minuti e copre l’intero arco del decennale di OpenAI: la genesi dell’azienda, le crisi interne, la rottura con Musk, la visione dei prodotti, il rapporto con i concorrenti, il futuro economico dell’intelligenza artificiale.

Non si tratta di una conversazione casuale. Il podcast si colloca al centro di un’operazione di posizionamento che si è svolta nell’arco di due settimane. Il 13 aprile OpenAI ha pubblicato Industrial Policy for the Intelligence Age: Ideas to Keep People First, un documento in venti proposte con cui delinea un’agenda di politica industriale per governare la transizione verso la superintelligenza. Il 21 aprile registra il podcast. Il 26 aprile pubblica Our Principles, una riscrittura in cinque punti della carta fondativa del 2018 che ridefinisce la missione dell’azienda. In mezzo, il round da 122 miliardi di dollari chiuso tra febbraio e marzo, il più grande finanziamento privato della storia, e il processo con Elon Musk che si avvicina.

Tre atti in tredici giorni: il trittico con cui OpenAI consolida la sua legittimità politica

Tre atti in tredici giorni, prima la proposta politica formale a Washington, poi la narrazione personale dei fondatori ai media tech, infine la riscrittura del contratto di fondo con il pubblico e i regolatori. La prima apparizione congiunta dei fondatori su un podcast non è un evento isolato ma il secondo atto di un trittico costruito per consolidare la legittimità di OpenAI come attore politico, non solo tecnologico.

Il racconto fondativo: la legittimità attraverso la trincea

Il primo registro del podcast è autobiografico. Altman e Brockman raccontano la genesi della loro partnership a partire da un viaggio in auto nel 2015, dopo una cena in cui l’AGI appariva ancora come un obiettivo remoto. Descrivono la loro relazione con il linguaggio del foxhole bonding, il cameratismo da trincea, una sincronia operativa costruita su brevi chiamate quotidiane, fino a cinque al giorno e su una fiducia radicale maturata attraverso crisi che avrebbero potuto cancellare l’azienda.

La complementarietà meccanica tra i fondatori: visione e ossessione per l’esecuzione

La complementarietà che descrivono è quasi meccanica, Altman come visionario che identifica le connessioni macroscopiche e alza continuamente l’asticella dell’ambizione, Brockman come ossessivo dell’esecuzione che riporta il focus sulla priorità operativa. Le divergenze tra i due, secondo il racconto, hanno funzionato come correttori di rotta: Altman avrebbe forzato la mano sull’espansione infrastrutturale, Brockman avrebbe garantito che l’azienda non si disperdesse in troppi rivoli.

La crisi del board del novembre 2023: resilienza personale senza ricostruzione dei fatti

Altman ha affermato, che in un contesto di caos, drammi e lotte di potere, la relazione con qualcuno che possiede il pieno contesto della situazione sia stata una delle cose più preziose dell’esperienza OpenAI. Il riferimento implicito è alla crisi del board del novembre 2023 e alle turbolenze successive, ma il racconto viene tenuto sul piano della resilienza personale piuttosto che della ricostruzione dei fatti.

La rottura con Musk: il rifiuto del controllo assoluto come scelta di principio

La rottura con Elon Musk occupa una porzione significativa della conversazione. Nel capitolo finale del podcast, intitolato The Elon Musk trial Sam wants to have, Brockman racconta che il punto di rottura decisivo non fu la divergenza sulla mission o sulla struttura profit/non-profit, ma la richiesta di Musk di ottenere il controllo assoluto su OpenAI: la maggioranza dell’equity, la carica di CEO e un’autorità permanente sull’organizzazione. Il rifiuto viene presentato come una scelta di principio: nessuna persona singola dovrebbe controllare il futuro di una tecnologia con questo potenziale di impatto. Altman descrive il processo imminente come un’opportunità per raccontare finalmente la versione di OpenAI.

La domanda che il podcast non si pone: la legittimità della crisi è trasferibile alla politica?

Il sottotesto è che Altman e Brockman hanno attraversato il fuoco, hanno detto no al controllo autocratico, hanno mantenuto la missione originaria nonostante le pressioni. Sono quindi, nella loro narrazione, le persone giuste per guidare la transizione verso l’AGI. La domanda che questo racconto non si pone, e che il resto del podcast non solleva, riguarda se la legittimità acquisita attraverso la sopravvivenza alle crisi sia trasferibile alla definizione di politiche che riguardano intere società.

La visione prescrittiva: come il mondo dovrebbe funzionare secondo OpenAI

Il secondo registro del podcast è programmatico. Altman e Brockman passano dal racconto di chi sono alla descrizione di dove il mondo sta andando e di come dovrebbe essere governato. Questo secondo registro è il tessuto connettivo tra il podcast e il documento di policy industriale pubblicato otto giorni prima.

Il pivot verso gli agenti: dalla Personal AGI al computer work delegato alle macchine

Il pivot verso gli agenti è il primo pilastro. OpenAI starebbe abbandonando l’astrazione del knowledge work per concentrarsi su quello che Brockman chiamerebbe computer work: il lavoro operativo che le persone svolgono davanti allo schermo, con i suoi fogli di calcolo, le presentazioni, la gestione di dati. L’obiettivo dichiarato è eliminare la necessità dell’uomo di adattarsi alla macchina, invertendo la direzione: saranno gli agenti a gestire i dettagli operativi, mentre l’umano agirà come architetto di alto livello. La Personal AGI descritta nel podcast non sarebbe un chatbot evoluto, ma un’infrastruttura agentica che conosce le email, le finanze, i gusti dell’utente e agisce proattivamente per suo conto, ad esempio acquistando biglietti per un concerto quando un artista apprezzato arriva in città.

La frontiera frastagliata: eccellenza matematica e limiti nella scrittura creativa

Il secondo pilastro è la frontiera frastagliata (jagged frontier). Altman e Brockman riconoscerebbero che i modelli attuali vivono in una condizione di asimmetria: eccellenti nella risoluzione di problemi logici e matematici, capaci secondo quanto affermato nel podcast di risolvere il problema di Erdős e di stabilire connessioni inedite tra rami diversi della matematica, ma ancora privi di quella che i fondatori chiamerebbero anima o scintilla nella scrittura creativa. La spiegazione offerta è tecnica: in matematica il segnale di rinforzo è oggettivo e binario (giusto o sbagliato), nella scrittura il criterio di qualità è soggettivo e personale, rendendo l’addestramento molto più difficile.

La visione economica e l’attacco ad Anthropic: la cautela come monopolio mascherato

Il terzo pilastro, e il più rilevante per l’analisi politica, è la visione economica. Altman delinea due scenari possibili. Il primo è un mondo di abbondanza estrema in cui tutti sono significativamente più ricchi, ma dove l’accesso massiccio al compute e agli agenti AI genera i primi trilionari, con una disuguaglianza che esplode ai vertici anche se il pavimento si alza per tutti. Il secondo appare come uno scenario con meno ricchezza totale ma più equità forzata, dove lo sviluppo viene frenato per contenere la disparità.

La soluzione che Altman proporrebbe per gestire questi scenari è rendere l’infrastruttura di calcolo e l’accesso all’AI il più economici e diffusi possibile, affinché chiunque abbia accesso a un computer possa sfruttare queste opportunità. Chi conosce il documento Industrial Policy for the Intelligence Age riconosce immediatamente questa formulazione: è la premessa del Right to AI e del Public Wealth Fund che il paper formalizza come proposte politiche.

Altman, inoltre, critica Anthropic, accusandola di utilizzare una retorica della paura per giustificare il mantenimento del controllo esclusivo sui modelli più avanzati. Nel documento di policy, questa posizione si traduce nella filosofia dell’iterative deployment: rilasciare modelli progressivamente più potenti è presentato come l’unico percorso sicuro verso l’AGI, perché permette alla società di adattarsi gradualmente. La cautela, nel frame di OpenAI, non è prudenza ma monopolio mascherato. Chi dice rallentiamo dice in realtà manteniamo il controllo.

La dimensione geopolitica: robotica, chip proprietari e compute come centro di profitto

La dimensione geopolitica completa il quadro prescrittivo. Altman è esplicito sulla vulnerabilità hardware degli Stati Uniti rispetto alla Cina. La risposta proposta è la robotica generalista: robot capaci di configurare fabbriche e costruire infrastruttura, bypassando lo svantaggio manifatturiero. OpenAI ha annunciato l’intenzione di produrre i propri attuatori per robot e investire in chip proprietari (il Progetto Titan) e data center massivi. Il compute viene descritto non come un centro di costo ma come un centro di profitto: l’azienda acquista gigawatt di energia e infrastrutture per rivendere intelligenza con un margine.

Il terzo atto: la riscrittura dei principi e la cancellazione della promessa

Cinque giorni dopo il podcast, il 26 aprile, OpenAI pubblica Our Principles, una riscrittura della Charter fondativa del 2018. Il documento è breve, descrive la mission dell’azienda intorno a cinque principi: democratizzazione, empowerment, prosperità universale, resilienza, adattabilità. Le formulazioni sono coerenti con quanto espresso precedentemente: resistere alla concentrazione del potere nelle mani di pochi, mettere l’AI nelle mani di quante più persone possibile, costruire infrastrutture massicce per abbattere i costi.

Cosa non dice più la nuova carta: sparisce la promessa di farsi da parte per un rivale più sicuro

Il documento merita attenzione non tanto per quello che dice, quanto per quello che non dice più. La Charter del 2018 menzionava l’AGI dodici volte; il nuovo documento la menziona due volte. Ma la differenza più significativa riguarda un impegno specifico che la Charter del 2018 conteneva e che il documento del 2026 cancella: la promessa che se un’organizzazione rivale, più attenta alla sicurezza, si fosse avvicinata per prima alla costruzione dell’AGI, OpenAI avrebbe smesso di competere e l’avrebbe aiutata. Un impegno insolito e forse irrealistico, ma segnalava una priorità, la sicurezza sopra la competizione. La versione del 2026 lo sostituisce con il riconoscimento che OpenAI è ora una forza molto più grande nel mondo e la promessa di trasparenza su come e perché i principi operativi potranno cambiare. Non è la stessa cosa che promettere di non competere.

Il principio di adattabilità: chi decide quando restringere l’accesso fa la differenza

Il quinto principio, adattabilità, è il più rivelatore. Altman scrive che esistono scenari futuri in cui OpenAI potrebbe dover sacrificare una parte dell’empowerment in favore della resilienza, ovvero restringere l’accesso quando i rischi diventano troppo alti. Una clausola di riserva che contraddice in modo interessante la narrazione del podcast, dove la restrizione dell’accesso viene attribuita ai concorrenti come tattica monopolistica. La differenza è chi decide: quando sono gli altri a restringere, è marketing della paura; quando è OpenAI, è adattabilità responsabile.

Le assenze condivise: cosa non c’è in nessuno dei tre testi

La prima assenza: l’antitrust e la differenza tra governare la concentrazione e spezzarla

La prima assenza è l’antitrust. Altman nel podcast costruisce il rifiuto del controllo autocratico come momento identitario di OpenAI: nessuna persona singola dovrebbe avere il potere assoluto sull’AGI. La formulazione è forte, ma riguarda le persone, non le aziende. Nei nuovi principi, la democratizzazione viene definita come resistenza alla concentrazione del potere nelle mani di pochi e come necessità che le decisioni chiave sull’AI vengano prese attraverso processi democratici e con principi egualitari, non solo dai laboratori di AI. La formulazione è più ambiziosa che nel podcast, ma il meccanismo resta identico a quello del documento di policy: la soluzione alla concentrazione non è spezzarla, è governarla dall’interno, con mission-aligned governance, Public Benefit Corporation, impegni filantropici. Come abbiamo raccontato nell’analisi del documento, OpenAI invoca il parallelo con la Progressive Era e il New Deal, ma il New Deal non fu solo redistribuzione, fu rottura dei monopoli.

La seconda assenza: un’azienda con perdite previste a 14 miliardi propone un nuovo contratto sociale

La seconda assenza è la sostenibilità del proponente. Nel podcast, OpenAI si presenta come l’azienda che ha la visione, il team, la traiettoria tecnologica e ora anche l’agenda politica per guidare la transizione. Nei nuovi principi, Altman scrive che molte delle cose che facciamo e che sembrano strane, acquistare enormi quantità di compute mentre i nostri ricavi sono relativamente piccoli, integrarci verticalmente per abbattere i costi, sono guidate dalla convinzione nella prosperità universale. Una giustificazione dei costi come investimento missionario. Non emerge la domanda su come un’azienda che prevede perdite per 14 miliardi di dollari nel 2026, con una redditività non attesa prima del 2030, possa proporsi come architetto credibile di un nuovo contratto sociale. La quota di mercato enterprise scesa dal 50% al 27% nell’ultimo anno, il 70% delle conversazioni su ChatGPT di natura personale e non lavorativa, sono dati che interrogano la distanza tra l’ambizione della visione e la solidità della base da cui viene proposta.

La terza assenza: se l’AI cancella i ruoli entry-level, dove si formano i lavoratori del futuro?

La terza assenza è la scala spezzata. Il podcast contiene un capitolo intitolato What will my kid actually do?, una domanda che tocca direttamente il nodo intergenerazionale. La risposta dei fondatori resta sul piano dell’opportunità generica: l’AI libererà le persone dal computer work tedioso, restituendo tempo per sfide umane significative. Nei nuovi principi, il secondo punto parla di empowerment come possibilità per ciascuno di perseguire i propri sogni, raggiungere i propri obiettivi, vivere una vita più significativa. Nel documento di policy, le proposte parlano di pathways into human-centered work e di care economy. Sono tutte risposte sincroniche, redistribuiscono nel presente. Non si affronta la domanda strutturale: se l’AI elimina i ruoli entry-level attraverso cui ogni generazione costruiva competenze e traiettoria professionale, dove si formano i lavoratori del futuro? Non è un problema di redistribuzione del reddito, ma l’interruzione di un meccanismo implicito nel modello liberale, la possibilità per ciascuno, con talento e impegno, di salire. Se quei gradini inferiori spariscono perché l’AI li esegue meglio e a costo inferiore, il meccanismo di formazione professionale si interrompe.

Il trittico come strategia: agenda politica, legittimità narrativa, patto rifondato

Le due settimane tra il 13 e il 26 aprile 2026 disegnano un’operazione di posizionamento coerente e calibrata. Il documento di policy stabilisce l’agenda politica: venti proposte indirizzate a governi, imprese e società civile, accompagnate dall’apertura di un workshop a Washington. Il podcast costruisce la legittimità narrativa: la trincea dei fondatori, il rifiuto del controllo autocratico, la visione dell’AGI personale, l’attacco alla cautela interessata dei concorrenti. I nuovi principi ridefiniscono il patto fondativo: eliminano la promessa di farsi da parte, sostituiscono l’AGI come obiettivo dominante con la democratizzazione come principio guida, introducono la clausola di adattabilità che riserva a OpenAI la facoltà di restringere l’accesso quando lo ritenga necessario.

La coerenza della narrazione non è garanzia della sua adeguatezza

La coerenza interna è notevole, ma la coerenza di una narrazione non è la stessa cosa della sua adeguatezza. Quello che emerge dalla lettura congiunta dei tre testi è il ritratto di un’azienda che si propone contemporaneamente come protagonista della concentrazione e come architetto della redistribuzione, come principale beneficiaria della dinamica che descrive e come autrice delle soluzioni per governarla. Propone di ridisegnare il contratto sociale per l’era della superintelligenza, ma non ha ancora un modello di business sostenibile per sé stessa. Invoca il New Deal senza invocare Roosevelt. Chiede alla società di fidarsi del dispiegamento iterativo, ma presenta la cautela altrui come monopolio mascherato. Elimina la promessa di farsi da parte per un rivale più sicuro, ma la cornice viene rinominata adattabilità.

Considerazioni conclusive: per l’Europa conta la sovranità del governo, non del motore

Per l’Europa e per l’Italia, la lettura di questi materiali conferma una posizione che non dipende dall’adesione alla visione di OpenAI né dal suo rifiuto. La sovranità che conta non è costruire il motore: è decidere dove va la macchina e a quali condizioni. Il governo dei dati attraverso l’impianto normativo dal GDPR all’AI Act, l’orientamento dell’adozione con politiche industriali che incentivino l’AI complementare al lavoro, la capacità antitrust di imporre condizioni a chi controlla i foundation model. Non sovranità dell’infrastruttura, ma sovranità del governo.

Il paradosso irriducibile: proposte serie, proponenti interessati, promessa cancellata

Nel frattempo, il paradosso resta irriducibile. Le proposte sono serie. I proponenti sono interessati. La promessa di farsi da parte è stata cancellata. La distanza tra queste cose è lo spazio in cui la politica dovrebbe operare, se ne avrà la forza.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x