il documento

OpenAI vuole una politica industriale per la superintelligenza. Ma chi la paga?



Indirizzo copiato

OpenAI propone venti misure per governare la transizione verso la superintelligenza e distribuire i benefici dell’AI. Il documento alza l’ambizione politica, ma lascia aperti i nodi decisivi: antitrust, geopolitica, sostenibilità economica e frattura intergenerazionale

Pubblicato il 13 apr 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



politica industriale per la superintelligenza
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

OpenAI ha pubblicato un’agenda di politica industriale in venti proposte per governare la transizione verso la superintelligenza: fondo di ricchezza pubblica, diritto universale all’AI, settimana da quattro giorni, reti di sicurezza adattive, portable benefits.

Il documento riconosce esplicitamente il rischio di concentrazione, citando sé stessa tra i beneficiari, ma non propone antitrust, ignora la dimensione geopolitica e non affronta la scala spezzata intergenerazionale.

La sostenibilità del proponente è in questione: 14 miliardi di perdite previste nel 2026, redditività non attesa prima del 2030. Il 70% delle conversazioni su ChatGPT è di natura personale e non lavorativa, su questa base si propone di ridisegnare il contratto sociale per l’era della superintelligenza.

Il documento di OpenAI e la politica industriale per la superintelligenza

OpenAI ha pubblicato Industrial Policy for the Intelligence Age: Ideas to Keep People First, tredici pagine che segnano un cambio di registro nella comunicazione dell’azienda. Non un annuncio di prodotto né un rapporto sulla sicurezza, ma un’agenda di politica industriale articolata in venti proposte, indirizzata a governi, imprese, società civile e comunità. Il documento arriva in un momento specifico.

OpenAI ha chiuso tra febbraio e marzo 2026 un round da 122 miliardi di dollari a una valutazione di 852 miliardi, il più grande finanziamento privato della storia. Anthropic, il suo principale concorrente, ha raccolto 30 miliardi nello stesso periodo. Per accompagnare l’iniziativa, OpenAI annuncia un programma di fellowship e grant di ricerca fino a 100.000 dollari, più fino a un milione in crediti API, per chi sviluppa le idee del documento e l’apertura di un OpenAI Workshop a Washington DC in maggio. Non è solo un paper ma una operazione di posizionamento politico nel cuore della capitale federale.

Cosa contiene la politica industriale per la superintelligenza

Cosa c’è dentro: economia aperta e società resiliente

Il documento si articola in due sezioni. La prima, Building an Open Economy, propone strumenti per condividere i benefici della transizione verso la superintelligenza, termine che OpenAI usa senza riserve, definendola come sistemi AI capaci di superare gli esseri umani più intelligenti anche quando questi sono assistiti dall’AI. La premessa storica è esplicita. Come la Progressive Era e il New Deal modernizzarono il contratto sociale per un mondo trasformato dall’elettricità, dal motore a combustione e dalla produzione di massa, la transizione verso la superintelligenza richiederà una politica industriale ancora più ambiziosa. OpenAI riconosce i rischi con una franchezza insolita per un’azienda del settore: disruption di interi settori, concentrazione di ricchezza e potere, erosione dei valori democratici, sistemi AI che sfuggono al controllo umano. Scrive esplicitamente che esiste il rischio che i guadagni economici si concentrino in un piccolo numero di aziende come OpenAI stessa. Le proposte economiche si concentrano su cinque strumenti principali.

I cinque strumenti centrali del piano

Un Public Wealth Fund, un fondo di ricchezza pubblica che dia a ogni cittadino, inclusi coloro che non sono investiti nei mercati finanziari, una partecipazione diretta alla crescita economica generata dall’AI. Il fondo investirebbe in asset diversificati che catturano la crescita sia delle aziende AI sia dell’economia più ampia, distribuendo i rendimenti direttamente ai cittadini.

Un Right to AI, l’accesso all’intelligenza artificiale trattato come infrastruttura fondamentale, al pari dell’elettricità e di internet. OpenAI propone di rendere ampiamente disponibile una baseline di capacità AI, anche attraverso punti di accesso gratuiti o a basso costo.

Gli efficiency dividends, la conversione dei guadagni di efficienza in benefici per i lavoratori: maggiori contributi pensionistici, copertura sanitaria più ampia, sussidi per l’assistenza familiare. Il documento propone anche pilot di settimana lavorativa da quattro giorni a 32 ore senza riduzione salariale, con l’obiettivo di convertire le ore recuperate in tempo libero permanente.

Le adaptive safety nets, reti di sicurezza che si attivano automaticamente quando indicatori predefiniti, disoccupazione, displacement settoriale, superano determinate soglie. Il sostegno si espande in modo proporzionale alla disruption e si riduce una volta stabilizzata la situazione, evitando un’espansione permanente dei programmi.

I portable benefits, sistemi di benefici non legati a un singolo datore di lavoro, che seguano l’individuo attraverso lavori, settori e periodi di formazione.

Gli strumenti sociali previsti dalla politica industriale per la superintelligenza

Accanto a queste, il documento propone di dare ai lavoratori voce formale nelle decisioni sull’adozione dell’AI in azienda, di sostenere l’imprenditorialità AI-first con microgrant e infrastrutture condivise, di modernizzare la base fiscale spostando il carico dal lavoro al capitale, di investire nei settori della care economy, infanzia, assistenza agli anziani, educazione, sanità, come percorsi occupazionali per i lavoratori spostati dall’automazione. L’ultima proposta della sezione economica è la costruzione di una rete distribuita di laboratori AI-enabled per accelerare la scoperta scientifica, con infrastruttura distribuita tra università, community college, ospedali e hub regionali.

Governance e rischi nella politica industriale per la superintelligenza

La seconda sezione, Building a Resilient Society, si concentra sulla governance e la gestione dei rischi. Propone sistemi di sicurezza per rischi emergenti in ambito cyber e biologico; un AI trust stack per la verifica e la provenienza dei contenuti; regimi di audit per i modelli più avanzati attraverso istituzioni come il CAISI (Center for AI Standards and Innovation); playbook di contenimento per sistemi pericolosi già rilasciati nel mondo; regole chiare sull’uso governativo dell’AI con standard elevati di affidabilità e allineamento; meccanismi strutturati di input pubblico sull’allineamento dei sistemi, affinché le specifiche non siano definite solo da ingegneri e dirigenti a porte chiuse; un sistema di incident reporting modellato sull’aviazione, con segnalazione anche dei near-miss, casi in cui i modelli hanno mostrato comportamenti preoccupanti anche se le salvaguardie hanno funzionato.

Sul fronte della governance aziendale, OpenAI chiede che le aziende AI di frontiera adottino strutture come le Public Benefit Corporation, con impegni espliciti alla condivisione dei benefici e alla filantropia. Va notato che OpenAI stessa si è convertita in PBC nell’ottobre 2025, il che rende questa proposta in parte una validazione retroattiva della propria scelta strutturale.

L’ultimo pilastro è internazionale, una rete globale di AI Institute che collaborino su protocolli condivisi per la valutazione, lo scambio di informazioni e la mitigazione coordinata dei rischi, con la possibilità di evolversi in un framework multilaterale analogo alle istituzioni internazionali di sicurezza e standard.

L’analisi critica della politica industriale per la superintelligenza

Il documento merita attenzione per la serietà dell’impianto e per la sincerità parziale della diagnosi. Ma prima di discutere le proposte, conviene misurare la distanza tra l’ambizione dichiarata e la concretezza offerta. Perché quella distanza è considerevole.

Le venti proposte di OpenAI condividono una caratteristica, dicono cosa ma non dicono come. Il Public Wealth Fund propone che aziende AI e governi collaborino per alimentare il fondo, ma non specifica con quanti soldi, da quali fonti, con quale governance, con quale orizzonte temporale. Il Right to AI chiede di espandere l’accesso ai modelli fondamentali, ma non indica chi paga l’infrastruttura, chi garantisce l’accesso, con quale modello economico. Gli efficiency dividends propongono di incentivare le aziende a convertire i guadagni di produttività in benefici per i lavoratori, ma non definiscono gli strumenti fiscali, l’enforcement, le soglie. Le adaptive safety nets prevedono un’attivazione automatica al superamento di soglie predefinite, ma quelle soglie non sono definite, né lo sono le fonti di finanziamento o la durata dei programmi. Il documento stesso lo riconosce: “We don’t have all, or even most of the answers.” Una formulazione onesta che trasforma il documento da policy paper a lista di desideri, principi generosi senza meccanismi di implementazione.

Il divario tra visione e uso reale di ChatGPT

La distanza tra intenzione e realtà non riguarda solo l’architettura delle proposte. Riguarda il prodotto su cui la visione si fonda. Lo studio più ampio mai condotto sull’uso effettivo di ChatGPT, un working paper NBER firmato dal team di ricerca economica di OpenAI stessa e dall’economista di Harvard David Deming, basato su 1,5 milioni di conversazioni, ha rilevato una crescita costante dei messaggi legati al lavoro ma una crescita ancora più rapida di quelli non lavorativi, passati dal 53% a oltre il 70% di tutto l’utilizzo. Solo il 27-30% delle conversazioni supporta lavoro, studio e produttività.

Tre quarti delle conversazioni si concentrano su guida pratica, ricerca di informazioni e scrittura, con il coding e l’autoespressione che restano attività di nicchia.

Un’analisi indipendente del Washington Post su 47.000 conversazioni rese pubbliche dagli stessi utenti ha trovato che gli utenti condividono con ChatGPT informazioni profondamente personali, inclusi dettagli che generalmente non verrebbero digitati in un motore di ricerca convenzionale: consigli sulla depilazione, analisi di conversazioni col fidanzato, domande sul tasso di sopravvivenza a un’overdose di paracetamolo. Non c’è nulla di sbagliato in questo. Un prodotto che aiuta le persone nella vita quotidiana è un prodotto utile. Ma c’è una distanza considerevole tra un assistente personale usato nel 70% dei casi per domande non lavorative e lo strumento che dovrebbe giustificare una riscrittura del contratto sociale delle democrazie occidentali in vista della superintelligenza.

La sostenibilità economica del proponente

La distanza diventa voragine quando si guarda alla sostenibilità di chi propone. OpenAI prevede perdite per 14 miliardi di dollari nel solo 2026, con un cash burn proiettato a 17 miliardi. La redditività non è attesa prima del 2030 https://sacra.com/c/openai/. Secondo Deutsche Bank, il flusso di cassa libero cumulativo negativo tra il 2024 e il 2029 raggiungerà circa 143 miliardi di dollari: nessuna startup nella storia ha operato con perdite di questa scala, in crescita vertiginosa, ma i costi di inferenza sono proiettati a 14,1 miliardi nel 2026, con margini lordi intorno al 33%. Novecentodieci milioni di utenti settimanali, ma solo il 5% circa paga. La quota di mercato enterprise di OpenAI è scesa dal 50% al 27% nell’ultimo anno, mentre quella di Anthropic è salita al 40%. A differenza di Google, Meta o Amazon, OpenAI non dispone di flussi di ricavo diversificati per compensare i costi dell’AI. L’azienda che propone al mondo un nuovo contratto sociale per la superintelligenza non ha ancora un modello di business sostenibile per sé stessa. Propone di ridisegnare reti di sicurezza, regimi fiscali, governance democratica, mentre la propria esistenza dipende dalla disponibilità continua di investitori a finanziare perdite cumulative nell’ordine delle centinaia di miliardi.

Progettare il futuro del lavoro è un compito impegnativo. Farlo mentre non si è ancora trovato il modo di rendere profittevole il proprio lo è ancora di più. Questo non invalida le proposte ma impone di leggerle per quello che sono: non il programma operativo di un’azienda che ha trovato le risposte, ma il posizionamento strategico di un’azienda che ha bisogno di mantenere la fiducia degli investitori e la benevolenza dei regolatori per sopravvivere fino al momento in cui la superintelligenza, se arriverà, giustificherà la scommessa.

Cosa manca alla politica industriale per la superintelligenza

Il New Deal senza Roosevelt: cosa manca dal documento

Messe le proporzioni a fuoco, le assenze diventano più leggibili. La prima è l’antitrust. OpenAI invoca esplicitamente il parallelo con la Progressive Era e il New Deal. Ma il New Deal non fu solo redistribuzione, fu rottura dei monopoli. Theodore Roosevelt, prima di Franklin, lanciò le crociate antitrust contro i trust dell’età dorata che concentravano potere fino a trasformare una repubblica democratica in un’oligarchia imprenditoriale.

Nel documento OpenAI la parola antitrust non compare mai. La parola monopoly non compare mai. La soluzione proposta alla concentrazione non è spezzarla, è governarla dall’interno: mission-aligned corporate governance, Public Benefit Corporation, impegni filantropici. Si tratta della differenza tra Roosevelt e l’autoregolazione illuminata. La ragione non è difficile da individuare, OpenAI è parte del problema che descrive.

La geopolitica assente nella politica industriale per la superintelligenza

La seconda assenza è geopolitica. Il documento è dichiaratamente US-focused e non affronta la dimensione della concentrazione infrastrutturale globale, del divario tra chi possiede la capacità di calcolo e chi ne dipende. Come abbiamo documentato su queste pagine, il 75% degli investimenti AI globali va negli Stati Uniti; l’intero progetto Cassava per l’Africa prevede 12.000 GPU quando OpenAI ne ha oltre un milione; dove l’Occidente non arriva, la Cina riempie il vuoto con modelli gratuiti come DeepSeek. Per il 95% dei paesi del mondo, le proposte del documento, fondi sovrani, crediti fiscali, piloti della settimana corta, presuppongono un’economia AI nazionale che non esiste e che non è realistico costruire.

La scala spezzata e il nodo intergenerazionale

La terza assenza è quella che abbiamo chiamato la scala spezzata. OpenAI propone pathways into human-centered work e parla di care economy, formazione, transizioni occupazionali. Sono risposte sincroniche, redistribuiscono nel presente. Non affrontano la domanda strutturale: se l’AI elimina i ruoli entry-level attraverso cui ogni generazione costruiva competenze e traiettoria professionale, dove si formano i lavoratori del futuro?

Non è un problema di redistribuzione del reddito, è l’interruzione di un meccanismo intergenerazionale implicito nel modello liberale, ciascuno, con talento e impegno, poteva salire. Se i gradini inferiori vengono rimossi, il nuovo contratto sociale che OpenAI propone manca di fondamenta.

Redistribuire i frutti nella politica industriale per la superintelligenza

La diagnosi di OpenAI conferma, con la forza di un’ammissione diretta, ciò che fonti indipendenti documentavano già, la concentrazione è strutturale, non un effetto collaterale della transizione ma la sua dinamica dominante. Lo stesso quadro che emerge dall’inchiesta di Rest of World sui dati OCSE e Crunchbase, dallo studio Massenkoff-McCrory commissionato dalla stessa Anthropic, dal paper di Stanford sulle posizioni entry-level nel tech. Ma la differenza tra le proposte OpenAI e le alternative disponibili è sostanziale e illumina i limiti del documento. OpenAI propone di redistribuire i frutti della concentrazione: Public Wealth Fund, efficiency dividends, adaptive safety nets. Sono strumenti compensativi, prendono i guadagni generati dall’AI e li distribuiscono più ampiamente. Una logica welfarista applicata all’economia dell’intelligenza artificiale. La proposta di Daron Acemoglu, David Autor e Simon Johnson è diversa nel meccanismo, non redistribuire i frutti, ma cambiare l’albero. La direzione dello sviluppo tecnologico non è un dato naturale, è una scelta. L’AI può essere progettata per sostituire il lavoro umano, concentrando i benefici nei proprietari del capitale, oppure per integrarlo, generando nuovi compiti in cui la combinazione uomo-macchina produce valore che nessuno dei due potrebbe creare da solo. La prima traiettoria è quella che il mercato, lasciato a sé stesso, tende a seguire. La seconda richiede un intervento deliberato.

L’alternativa antitrust e pro-worker

Adrian Wooldridge, nel suo recente Centrists of the World Unite!, arriva allo stesso punto per una via diversa. La sua ricostruzione del liberalismo come tradizione vivente, dai New Liberals di inizio Novecento al modello rooseveltiano dell’antitrust, propone esattamente ciò che il documento OpenAI evita: spezzare la concentrazione di potere che rende impossibile orientare la traiettoria tecnologica nell’interesse collettivo. Non è un rifiuto del progresso ma la condizione perché il progresso sia governabile. La combinazione delle due proposte, orientamento pro-worker della tecnologia e antitrust sui monopoli che la controllano, configura ciò che abbiamo chiamato il New Liberalism del XXI secolo. Il documento OpenAI ne condivide la premessa ma non ne trae la conclusione. Significativo che lo stesso parallelo storico, il New Deal, la Progressive Era, venga invocato sia da OpenAI sia da Wooldridge, ma con letture opposte. Per OpenAI, il parallelo è con il governo che accompagna l’industria, che crea reti di sicurezza e ridistribuisce i benefici. Per Wooldridge, è con il governo che spezza i monopoli e ridefinisce le regole del gioco. Stesso periodo storico, due conclusioni antitetiche. La scelta tra le due definisce la portata reale della politica industriale per l’era dell’AI.

La questione dei ruoli entry-level

Quanto alla scala spezzata, la dimensione intergenerazionale che né OpenAI né Acemoglu affrontano pienamente, il problema resta aperto. I dati convergono: lo Stanford “Canaries in the Coal Mine” paper documenta come l’AI stia già eliminando posizioni entry-level nel tech; lo studio Massenkoff-McCrory conferma la tendenza su scala più ampia; l’Harvard Youth Poll registra un’erosione di fiducia dei giovani nelle istituzioni e nel futuro economico. Se quei ruoli di ingresso spariscono perché l’AI li esegue meglio e a costo inferiore, il meccanismo di formazione professionale si interrompe. Il liberalismo rinnovato di Wooldridge, fondato sulla Bildung, sullo sviluppo integrale dell’individuo, presuppone che quegli individui abbiano i gradini per formarsi. Il documento OpenAI non si pone la domanda.

La sovranità europea davanti alla superintelligenza

La risposta, per l’Europa, non è rifiutare le proposte di OpenAI. Alcune meritano di entrare nel dibattito politico reale, il Public Wealth Fund, i portable benefits, le adaptive safety nets sono strumenti che troverebbero terreno fertile anche nel modello sociale europeo. La risposta non è nemmeno accettarle come cornice sufficiente. La sovranità che conta, per l’Europa e per l’Italia, non è costruire il motore, è decidere dove va la macchina e a quali condizioni. Il governo dei dati, attraverso l’impianto normativo dal GDPR all’AI Act. L’orientamento dell’adozione, con politiche industriali come la Transizione 5.0 che incentivino l’AI complementare al lavoro piuttosto che sostitutiva. La capacità antitrust, perché se cinque aziende controllano i foundation model, l’infrastruttura di calcolo e i canali di distribuzione, qualsiasi politica pro-worker resta lettera morta senza la forza di imporla. Il programma rooseveltiano che Wooldridge propone, tradotto nell’economia dell’AI. Non sovranità dell’infrastruttura, ma sovranità del governo. Non costruire il motore, ma stabilire le regole della strada.

Il paradosso finale del documento OpenAI

Nel frattempo, il paradosso resta irriducibile. Il documento più ambizioso sulla redistribuzione dei benefici dell’AI viene dall’azienda che più di ogni altra incarna la concentrazione. Propone di salvare il mondo dal problema che essa stessa genera. Invoca il New Deal senza invocare Roosevelt. Chiede ai governi di ridisegnare le reti di sicurezza sociale mentre la propria rete di sicurezza è un flusso continuo di capitali da investitori disposti a finanziare centinaia di miliardi di perdite nella scommessa che la superintelligenza, quando arriverà, giustificherà tutto. Intanto, il 70% degli utenti usa il prodotto per chiedere consigli personali. Le proposte sono serie. Il proponente è interessato. La distanza tra le due cose è lo spazio in cui la politica dovrebbe operare, se ne ha la forza.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x