intelligenza artificiale

OpenAI si allontana da Microsoft e va su Amazon: ecco i nuovi assetti AI



Indirizzo copiato

Tra il 27 e il 28 aprile 2026 OpenAI ha chiuso l’esclusiva con Microsoft e portato i propri modelli su Amazon Bedrock. La mossa riapre il gioco tra AWS e Azure, sposta la competizione su silicio e integrazione verticale e cambia procurement, governance e strategie multi-cloud per le imprese

Pubblicato il 30 apr 2026

Fabio Lalli

ceo ICONICO | Innovation & Digital Transformation



aws-openai-microsoft-names-only
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Tra il 27 e il 28 aprile 2026, in ventiquattr’ore, l’asse cloud-AI ha cambiato geometria: Microsoft perde l’esclusiva sui modelli OpenAI, Amazon Bedrock li ospita insieme ad Anthropic. Per le aziende che comprano AI il vincolo del provider unico cade, e la competizione si sposta su silicio, integrazione verticale e capacità di legare a sé i model maker.

OpenAI, Microsoft e Amazon Bedrock: cosa cambia

Per quattro anni qualsiasi azienda Fortune 500 che volesse usare i modelli OpenAI passava obbligatoriamente da Azure. Quel vincolo, fino a ieri implicito nelle architetture enterprise, è caduto in poco più di ventiquattr’ore con due annunci consecutivi: Microsoft e OpenAI hanno emendato l’accordo del 2019 cancellando l’esclusiva sulla licenza dei modelli, AWS è arrivata su Bedrock con GPT-5.5, Codex e Managed Agents in limited preview.

Sembra una sequenza commerciale, è una riconfigurazione del potere infrastrutturale dell’AI enterprise. Microsoft non è più il gatekeeper, Amazon prova a diventare il campo neutro su cui passano tutti i frontier model contemporaneamente, e per le aziende che comprano AI il vincolo del fornitore unico oggi diventa una scelta esplicita da rinegoziare. Il tempismo, ventiquattr’ore esatte tra le due dichiarazioni del 27 e 28 aprile 2026, racconta più dei comunicati: c’erano integrazioni pronte da mesi, in attesa che cadesse l’unica condizione contrattuale che le bloccava.

L’accordo del 2019 e la fine dell’esclusiva

L’accordo originale tra Microsoft e OpenAI risaliva al 2019 e, nelle sue iterazioni successive fino al 2025, conteneva un meccanismo molto preciso: Microsoft era licenziataria esclusiva dei modelli e dei prodotti OpenAI, in cambio di una quota di revenue share e di un investimento azionario diventato negli anni la posta più importante della relazione. Le ultime stime disponibili valutano la partecipazione di Microsoft in OpenAI Group PBC intorno ai 135 miliardi di dollari, circa il 27% su base diluita. La nuova versione dell’accordo, firmata il 27 aprile 2026, tiene la licenza fino al 2032 ma la rende non esclusiva, cancella la revenue share da Microsoft a OpenAI, mantiene quella inversa con un cap totale, e lascia a OpenAI la libertà di servire i propri prodotti su qualsiasi cloud. Sam Altman, sul proprio account X, ha sintetizzato il punto in modo asciutto: “now able to make our products and services available across all clouds“.

Il debutto su AWS in limited preview

Il 28 aprile AWS ha tagliato il nastro. Tre prodotti in limited preview: i modelli OpenAI (incluso GPT-5.5) accessibili via le stesse API di Bedrock già usate per Anthropic, Meta, Mistral e gli altri model maker; Codex, l’agente di coding di OpenAI, integrato come provider Bedrock e fatturabile sui commitment AWS preesistenti, accessibile via Codex CLI, app desktop e estensione VS Code; e Bedrock Managed Agents powered by OpenAI, l’evoluzione produttiva dello “Stateful Runtime Environment” annunciato a febbraio nella prima fase della collaborazione AWS-OpenAI. Matt Garman, CEO di AWS, lo ha detto al lancio di San Francisco con una franchezza inusuale per un keynote: “Their production applications run in AWS. Their data is in AWS. They trust the security of AWS, and we’ve forced them for the last couple of years, to get great OpenAI models, to go to other places“.

Una traduzione possibile: il cliente che paga AWS, fino a ieri, era costretto ad andare altrove per usare i modelli più richiesti del mercato.

OpenAI, cosa Microsoft perde e cosa guadagna

La narrazione semplice è che Microsoft abbia perso il monopolio. La narrazione corretta è più articolata, perché Microsoft scambia un’esclusiva contrattuale con due asset che valgono diversamente nei prossimi cinque anni. Quello che perde è il vantaggio di canale unico verso il cliente enterprise: per quattro anni qualsiasi azienda Fortune 500 che volesse i modelli OpenAI passava obbligatoriamente da Azure, e questa frizione ha dopato i numeri della divisione cloud nel periodo in cui l’AI è diventata voce di spesa centrale dei budget IT. Quello che guadagna è un riposizionamento finanziario meno performante in termini di crescita ma più solido sul lungo periodo: la quota azionaria resta, i pagamenti di revenue share da OpenAI a Microsoft continuano fino al 2030 con un cap totale, e Microsoft non deve più gestire il problema di stabilire una risposta nel caso OpenAI raggiunga AGI, una clausola che tutti gli analisti consideravano impraticabile in pratica.

L’autonomia modellistica di Redmond

Sul piano strategico la conseguenza è che Microsoft, libera dell’esclusiva, accelera il proprio percorso di indipendenza modellistica. Copilot ha già da mesi un’opzione per scegliere tra modelli Anthropic, OpenAI e MAI (i modelli proprietari Microsoft annunciati nel 2025), e la nuova architettura della partnership rende meno costoso, anche reputazionalmente, costruire prodotti che non dipendano in via primaria da OpenAI. Per Redmond la sfida si è spostata: non più trattenere OpenAI a tutti i costi, ma dimostrare che il proprio stack applicativo (Copilot, Foundry, GitHub) abbia un valore indipendente dalla provenienza del modello. Una sfida tecnicamente fattibile, commercialmente complicata, perché l’asset di marca “Copilot powered by OpenAI” è stato un argomento di vendita decisivo per anni e va sostituito con qualcosa di equivalente.

OpenAI su Amazon Bedrock e la scommessa Amazon

La posizione di Amazon, in questa nuova geometria, è la più interessante da leggere e probabilmente la più rischiosa da costruire. AWS sta investendo in parallelo, con cifre senza precedenti, su entrambe le superpotenze dei modelli linguistici occidentali: 50 miliardi di dollari investiti in OpenAI nella partnership di febbraio 2026, espansione del commitment cloud preesistente di OpenAI da 38 a oltre 100 miliardi su otto anni, in parallelo a un investimento fino a 25 miliardi in Anthropic e a un commitment cloud da oltre 100 miliardi anch’esso annunciato ad aprile.

Sommando le due relazioni, AWS ha legato a sé i due provider che dominano il mercato dei frontier model occidentali, riservandosi un posto nel pozzo dei dati e nei carichi di compute di entrambi.

Il peso di Trainium e Graviton

Andy Jassy, nella lettera annuale agli azionisti, ha quantificato un dato che spiega la scommessa sottostante: il business del custom silicon AWS, basato sui chip Trainium e Graviton, genera oltre 20 miliardi di dollari all’anno. È il punto di leva che differenzia la posizione di Amazon da quella di Google e Microsoft: AWS può offrire ai model maker non solo capacità di compute generica, ma silicio specializzato a costo marginale inferiore rispetto alle GPU Nvidia. Sia OpenAI sia Anthropic hanno accettato di far girare carichi inferenziali su Trainium, e Meta ha firmato un accordo multimiliardario su Graviton per i propri agentic workload. La dichiarazione implicita è che Amazon offra al modello maker una struttura economica difficile da pareggiare, e in cambio si tenga la posizione di ospite fiduciario di tutto il mercato.

Funziona se nessuno dei due grandi provider, OpenAI e Anthropic, percepisce un disallineamento competitivo. È una posizione di equilibrio che Amazon deve gestire con la stessa attenzione con cui un broker neutrale gestisce le commissioni di entrambi i lati di una piazza finanziaria.

Il custom silicon come moneta di scambio

Il vero asset che distingue Amazon nella nuova fase non è la quota di mercato del cloud, dove pure è prima, è la capacità di chiudere il cerchio tra silicio, infrastruttura e modello. La ragione per cui AWS ha potuto offrire a OpenAI un commitment così aggressivo è che il margine di manovra economica di Amazon su un modello eseguito su Trainium è strutturalmente diverso da quello di Google su TPU o di Microsoft su GPU acquistate da Nvidia. La dipendenza generale del settore dai chip Nvidia, che ha dominato il 2024 e il 2025 portando il margine GPU a pesare in modo significativo sulle bolette inferenziali di tutti i cloud provider, sta cominciando a essere ridiscussa proprio attraverso accordi come questo. AWS non promette ai propri clienti il prezzo migliore in assoluto, promette un’integrazione verticale tra silicio, infrastruttura di rete e orchestrazione che riduce nel tempo il costo unitario del token inferenziato.

Per le aziende che acquistano AI, questo significa una cosa precisa: il prezzo dell’accesso ai frontier model passa da costo fisso a variabile negoziabile in funzione del cloud su cui scegli di farli girare. Una piattaforma costruita su AWS che chiama Bedrock per inference su GPT-5.5 paga un costo unitario diverso da una piattaforma identica costruita su Azure che chiama Foundry per lo stesso modello. La differenza, su volumi enterprise di centinaia di milioni di token al mese, si misura in cifre che giustificano scelte architetturali significative.

OpenAI su Amazon Bedrock tra procurement e governance

Per le aziende italiane ed europee che stanno costruendo applicazioni con AI generativa, le implicazioni concrete si possono leggere su tre piani. Sul piano contrattuale, il vincolo di provider unico per accedere a un modello specifico è sostanzialmente caduto: GPT-5.5 e i modelli di OpenAI sono ora accessibili sia su Azure sia su Bedrock, con SLA, garanzie di sicurezza e logging conformi alle policy enterprise di entrambi i cloud. Questo libera lo spazio per strategie multi-cloud che fino a ieri richiedevano workaround complessi. La domanda da porsi nei prossimi mesi cambia di natura: non più “quale cloud”, ma “su quale cloud vale la pena fissare la nostra spesa AI”, visto che i commitment pluriennali su Bedrock o Foundry condizionano per anni la struttura dei costi.

Data governance e sicurezza enterprise

Sul piano della data governance la novità è ancora più rilevante. I modelli OpenAI su Bedrock ereditano automaticamente i controlli enterprise di AWS: IAM, PrivateLink, guardrail, encryption at rest e in transit, logging via CloudTrail.

Per chi opera in settori regolati come finance, sanità e pubblica amministrazione, questo elimina la necessità di costruire un secondo perimetro di sicurezza per gli ambienti Azure quando l’infrastruttura primaria è già su AWS. Il punto pratico è che molte aziende italiane hanno scelto AWS per ragioni storiche e oggi possono finalmente usare GPT-5.5 senza dover replicare le proprie identity policy in un secondo cloud.

Il nodo procurement

Sul piano della procurement, infine, la possibilità di applicare il consumo OpenAI ai commitment AWS preesistenti cambia il calcolo del business case. I budget di trasformazione digitale già allocati su AWS diventano spendibili anche per la quota AI senza nuove gare, nuove negoziazioni, nuovi processi di approvazione. Una semplificazione non banale per le funzioni acquisti delle grandi imprese.

Una geometria nuova, non una sostituzione di leader

La lettura sbagliata di queste ventiquattr’ore è che Amazon abbia “vinto” e Microsoft “perso”. La lettura corretta è che il mercato è uscito da una fase in cui un unico cloud provider deteneva privilegi contrattuali sui modelli più richiesti, ed è entrato in una fase in cui i frontier model sono multi-cloud per design, e la competizione si sposta su layer più bassi (silicio, energia, networking) e su layer più alti (agenti gestiti, orchestrazione, integrazioni verticali). Le posizioni dei tre giganti diventano leggibili in modo nuovo: Microsoft è il distributore enterprise con la migliore base installata di software produttivo (Office, GitHub, Dynamics) e una nuova autonomia modellistica; Amazon è l’host neutrale con il silicio proprietario e la capacità di legare i model maker a sé via investimenti e infrastruttura; Google è il terzo polo, ancora forte sul versante TPU e ricerca, ma meno integrato nei flussi di acquisto enterprise occidentali.

Il vantaggio strategico per OpenAI

Per OpenAI il vantaggio è strategico nella misura in cui i prossimi cinque anni dipendono dalla capacità di non avere un singolo collo di bottiglia infrastrutturale. Avere Microsoft come azionista di lungo periodo, Amazon come fornitore di compute e azionista esposto, e la libertà di servire qualsiasi cliente da qualsiasi cloud, è la condizione che mancava per scalare l’offerta enterprise oltre i limiti che la stessa Denise Dresser, CRO di OpenAI, ha riconosciuto in una nota interna trapelata: la relazione esclusiva con Microsoft “has also limited our ability to meet enterprises where they are, for many that’s Bedrock“.

Senza dubbio la domanda che a valle di una lettura di questo tipo ci si pone non è quale cloud provider stia vincendo, è un’altra: quanta della concorrenza tra Microsoft e Amazon resterà concorrenza commerciale di superficie, e quanta diventerà vera competizione strutturale, sui chip, sui modelli proprietari, sull’integrazione verticale dei dati industriali? La risposta dei prossimi diciotto mesi dirà se questa è stata la fine di un’esclusiva o l’inizio di una battaglia molto più seria.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x