Il processo americano tra Elon Musk e OpenAI sta confermando alcuni tratti caratteriali ambigui e controversi del suo ceo Sam Altman.
Merita analizzarli, vista la rilevanza che questa figura ha per il destino dell’AI e riguardo ai mega investimenti correlati, molti dei quali attirati dallo stesso Altman, forse considerabile il più grande venditore della storia.
Il ritratto che emerge dalle testimonianze, dalle ricostruzioni giornalistiche e dagli atti societari è quello di una figura che concentra tre leve rare nello stesso profilo: visione tecnologica, capacità di raccolta di capitali e influenza crescente nella definizione dell’infrastruttura politica e industriale dell’AI.
È questo il punto che rende la vicenda più ampia di uno scontro tra soci o di un regolamento di conti della Silicon Valley (c’è anche questo, tra Altman e Musk; ma non solo).
Se davvero una parte così rilevante del futuro dell’AI dipende dal giudizio, dallo stile di comando e dalle priorità di un leader come Altman, allora la questione riguarda imprese, amministrazioni pubbliche, lavoratori e cittadini ben oltre OpenAI.
Indice degli argomenti
Il Sam Altman che emerge dal processo
Dalle deposizioni e dalle testimonianze filtrate nelle ultime settimane esce un profilo ambivalente. Da un lato c’è il costruttore di scala: l’uomo che ha trasformato OpenAI da laboratorio nato come non profit in un soggetto capace di raccogliere nel marzo 2025 40 miliardi di dollari a una valutazione post-money di 300 miliardi, e di presentarsi nel gennaio 2025 come partner operativo di Stargate, il progetto che punta a investire 500 miliardi di dollari in quattro anni in infrastrutture AI negli Stati Uniti.
Dall’altro lato emerge un manager descritto da ex dirigenti come accentratore, opaco e incline a gestire persone e decisioni con versioni diverse a seconda degli interlocutori. L’ex cto Mira Murati, nella testimonianza richiamata durante il processo, ha parlato di impossibilità di fidarsi delle sue parole, caos organizzativo e sua tendenza ad alimentare conflitti.
Shivon Zilis, ex membro del board, ha invece ricordato che il consiglio espresse forte preoccupazione per la scelta di Altman di lanciare ChatGPT nel 2022 senza adeguata comunicazione interna.
Il licenziamento di Altman
Le deposizioni attuali stanno riaprendo la domanda che nel novembre 2023 sembrava irrisolta: perché il board arrivò davvero a licenziare Altman?
All’epoca il consiglio di OpenAI motivò la rimozione con una formula molto vaga: Altman non era stato “costantemente sincero” (“not consistently candid”) nei rapporti con il board. Il problema è che quella frase non fu mai spiegata davvero. Mancavano fatti pubblici concreti, e nel giro di pochi giorni la rivolta interna dei dipendenti e il sostegno di Microsoft portarono al ritorno di Altman.
Oggi, però, le testimonianze di Murati, Zilis e altri danno retrospettivamente più contesto a quel passaggio.
Il processo Musk-OpenAI: punti chiave
Il procedimento in corso a Oakland, California, nasce dalla causa con cui Elon Musk contesta la trasformazione di OpenAI da organizzazione nata con finalità non profit a gruppo sempre più orientato al mercato e sostenuto da grandi partner industriali, a partire da Microsoft. In sostanza, Musk sostiene che la missione originaria dell’organizzazione sia stata tradita: OpenAI, secondo la sua tesi, avrebbe abbandonato l’impegno a sviluppare AI “a beneficio dell’umanità” per diventare una struttura chiusa, commercialmente aggressiva e guidata da interessi privati.
Al processo sono rimaste in piedi soprattutto alcune accuse centrali, tra cui arricchimento ingiusto, frode, frode costruttiva e violazione del vincolo fiduciario legato alla missione benefica. Una parte di altre contestazioni iniziali è stata invece esclusa prima del dibattimento.
Che cosa chiede Musk, in concreto? Sul piano politico e simbolico, chiede che venga riconosciuto che OpenAI ha deviato dalla propria missione originaria. Sul piano pratico, secondo gli atti depositati in tribunale, Musk punta a modifiche nella leadership di OpenAI e a un maxi risarcimento quantificato in 150 miliardi di dollari contro OpenAI e Microsoft.
Negli atti pre-processuali è emersa anche una battaglia sulle “remedies”, cioè sui rimedi richiesti: OpenAI sostiene che Musk abbia cambiato in corsa il tipo di rimedio domandato, passando da una richiesta di restituzione dei profitti contestati a richieste più ampie di carattere strutturale e di governance.
Il processo prova quindi a stabilire se una società nata come presidio di interesse generale possa trasformarsi in una macchina da investimenti e alleanze industriali senza violare il patto originario con i suoi fondatori e con il pubblico.
Tanto potere AI in una persona sola
Il punto però non è ridurre tutto a un profilo psicologico. In gioco c’è una domanda di governance: quanto può essere concentrato il potere decisionale su una tecnologia con effetti sistemici?
OpenAI oggi occupa uno snodo decisivo. I suoi modelli entrano in scuole, imprese, software professionali e amministrazioni. La società influenza i ritmi della competizione globale, orienta la domanda di data center, semiconduttori ed energia, e contribuisce a spostare il baricentro delle politiche industriali. Se al centro di questo sistema c’è una leadership contestata per trasparenza interna o per gestione delle procedure di sicurezza, il tema non è più soltanto societario: diventa istituzionale.
Le stesse pagine ufficiali di OpenAI raccontano questa trasformazione. La struttura aggiornata annunciata il 28 ottobre 2025 prevede una OpenAI Foundation che mantiene il controllo della public benefit corporation operativa. Ma la razionalità della riforma è esplicita: servono una governance e una capitalizzazione adeguate per raccogliere fondi, trattenere talenti e sostenere la corsa verso l’AGI. In altre parole, missione pubblica dichiarata e scala privata del capitale vengono saldate in un unico dispositivo.
L’influenza di Altman passa dai capitali prima ancora che dai modelli
Per capire quanto pesi Altman bisogna guardare meno alla retorica sull’AGI e più alla sua capacità di allineare investitori, hyperscaler, fornitori di chip e decisori politici. Il suo vero vantaggio competitivo non è solo avere modelli forti: è riuscire a convincere il mercato che l’AI richieda investimenti di dimensione quasi statale e che OpenAI debba stare al centro di quel flusso.
Stargate è l’esempio più chiaro. Non si tratta di un semplice annuncio industriale, ma della formalizzazione di un’idea di potere: chi controlla il calcolo, l’energia, i siti, le partnership e i capitali necessari all’AI controlla anche buona parte della traiettoria futura del settore. E Altman, su questo terreno, si è dimostrato un mediatore molto più forte di quasi tutti i suoi concorrenti.
Altman che emerge dal processo: perché riguarda anche noi in Europa e in Italia
possiamo permetterci che l’infrastruttura cognitiva su cui si appoggeranno servizi, imprese e decisioni pubbliche dipenda da equilibri così concentrati e così poco contendibili?
Le implicazioni sono almeno quattro. La prima è industriale: se i grandi modelli richiedono capitali e compute di questa scala, l’Europa rischia di restare cliente di filiere decise altrove. La seconda è regolatoria: norme come l’AI Act incidono sugli usi, ma molto meno sulla concentrazione di potere a monte, dove si decidono accesso al calcolo, sicurezza e tempi di rilascio. La terza è democratica: quando pochi attori privati trattano direttamente con governi e grandi investitori la costruzione dell’infrastruttura AI, la capacità pubblica di indirizzo arriva spesso dopo. La quarta è sociale: lavoro, produttività, istruzione e servizi digitali finiscono sempre più dentro piattaforme il cui governo reale resta opaco.
Il processo con Altman dice anche questo: l’AI è sempre più politica personale
Il processo Musk-OpenAI probabilmente non darà una risposta definitiva sulla figura di Altman. Ma sta già producendo un effetto rilevante: mostra in modo chiaro che la partita dell’AI non si gioca soltanto nei laboratori o nei benchmark, bensì nei rapporti tra governance, finanza, sicurezza e potere politico.
Il ritratto che ne esce è quello di un leader capace di tenere insieme missione e mercato, narrazione pubblica e raccolta di capitali, urgenza tecnologica e costruzione di alleanze. Proprio per questo la questione non è se Altman sia indispensabile. La questione è se sia sano, per tutti noi, che una tecnologia destinata a incidere su così tanti piani venga guidata da assetti in cui il controllo pubblico, il pluralismo industriale e la trasparenza restano molto più deboli della velocità del capitale.
Se questo processo ci lascia una lezione, è che dobbiamo smettere di parlare solo di prodotti AI. E sempre più indagare chi decide sul futuro dell’AI. Con quali contrappesi, con quali incentivi e nell’interesse di chi.
Fonti principali usate:
Karen Hao, ricostruzione su OpenAI e Altman: https://www.theatlantic.com/technology/archive/2025/05/karen-hao-empire-of-ai-excerpt/682798/
Documento utente: 01-openai.docx
OpenAI, “Our structure”: https://openai.com/our-structure/
OpenAI, “New funding to build towards AGI”, 31 marzo 2025: https://openai.com/index/march-funding-updates/
OpenAI, “Announcing The Stargate Project”, 21 gennaio 2025: https://openai.com/index/announcing-the-stargate-project/
Reuters, copertura del 6 maggio 2026 sulla testimonianza di Mira Murati: https://www.investing.com/news/stock-market-news/in-openai-trial-former-technology-chief-says-altman-sowed-chaos-distrust-among-top-executives-4664964












