intelligenza artificiale

Gpu Nvidia, il monopolio s’è rotto. E ora?



Indirizzo copiato

Google prova a scalfire il dominio di Nvidia nei chip per l’AI con le nuove TPU Ironwood e le CPU Axion, mentre Meta valuta di spostare miliardi di investimenti sui suoi acceleratori. Un segnale che il monopolio di fatto delle GPU non è più intoccabile

Pubblicato il 2 dic 2025

Giovanni Masi

Computer Science Engineer



gpu nvidia monopolio

Per due anni Nvidia è stata il simbolo materiale della corsa all’intelligenza artificiale generativa. Ogni nuova ondata di modelli si è tradotta in un’ulteriore domanda di GPU per data center, fino a portare il mercato globale degli acceleratori grafici a circa 125 miliardi di dollari nel 2024, con Nvidia ancorata a una quota vicino al 92 per cento secondo le stime di IoT Analytics. In questo contesto, la notizia che Google sta convincendo grandi clienti come Anthropic e, soprattutto, che è in trattativa con Meta per fornire Tensor Processing Unit (TPU) direttamente ai loro data center ha avuto un impatto che va ben oltre il dato tecnico.

https://www.agendadigitale.eu/infrastrutture/tpu-di-google-contro-gpu-di-nvidia-la-nuova-guerra-dei-chip-ai/

Google vs Nvidia nella corsa agli acceleratori AI

Dal monopolio di fatto al multipolarismo degli acceleratori: i numeri fotografano uno strapotere senza precedenti. Nel 2024 Nvidia ha generato oltre 115 miliardi di dollari di ricavi dal segmento data center, trainato da architetture come Hopper e dalla nuova famiglia Blackwell, mentre i concorrenti diretti – AMD con MI300, Huawei con Ascend, startup come Cerebras e Groq – si dividono una quota minoritaria del mercato.

La combinazione di prestazioni pure, disponibilità (per quanto limitata) e soprattutto di un ecosistema software costruito in quasi due decenni intorno a CUDA ha reso le GPU Nvidia lo standard de facto per addestrare e mettere in produzione i grandi modelli.

Proprio l’ecosistema è il vero “fossato” competitivo. Milioni di sviluppatori, librerie come cuDNN e TensorRT, integrazioni profonde con PyTorch e gli strumenti MLOps fanno sì che spostare un workload da Nvidia ad altro hardware non sia un semplice cambio di istanza cloud, ma un progetto di migrazione complesso che tocca codice, toolchain, processi di osservabilità e persino le competenze dei team.

Google si muove in questo scenario con una strategia diversa. Da un lato continua a essere uno dei maggiori acquirenti di GPU Nvidia per i propri servizi cloud. Dall’altro, da oltre dieci anni investe in chip su misura, le TPU, inizialmente pensate per consumare meno energia nei primi servizi di machine learning interni, poi evolute fino a diventare l’ossatura dell’infrastruttura che alimenta i modelli Gemini, Veo, Imagen e una parte crescente di carichi di lavoro di terze parti.

Google vs Nvidia e la strategia dei chip Ironwood e Axion

L’annuncio di novembre 2025 porta questa strategia a un nuovo livello. Con Ironwood, settima generazione di TPU, Google introduce un acceleratore progettato per coprire l’intero ciclo di vita dei modelli, dal training su larga scala all’inferenza a bassa latenza.

Secondo i dati ufficiali, Ironwood offre oltre quattro volte le prestazioni per chip, sia in training sia in inferenza, rispetto alla generazione precedente Trillium (TPU v6e), e può scalare fino a 9.216 chip in un unico superpod collegato da una rete Inter-Chip Interconnect da 9,6 Tb/s, con 192 GB di HBM per chip e un pool complessivo di memoria nell’ordine dei petabyte.

Non è solo una corsa ai teraFLOPS. Ironwood è integrato nell’architettura AI Hypercomputer di Google, che combina acceleratori, rete ottica riconfigurabile, storage e uno strato software co-progettato per ottenere efficienza di sistema. È questa integrazione stretta tra progettazione del modello, compilatore XLA, runtime di cluster e dataplane di rete a consentire a clienti come Anthropic di pianificare l’uso di fino a un milione di TPU per addestrare e servire le nuove generazioni di Claude, con promesse di riduzioni significative del costo per token inferito.

Accanto a Ironwood, Google sta espandendo la famiglia Axion, CPU basate su Arm Neoverse pensate per i carichi generali, dai microservizi ai database, dagli ETL alla preparazione dei dati che alimentano i modelli. Le nuove istanze N4A e C4A metal puntano a offrire fino al doppio del rapporto prezzo-prestazioni rispetto alle VM x86 equivalenti, sfruttando efficienza energetica e densità di core.

L’idea è chiara: affiancare acceleratori specializzati per AI a una base di calcolo general purpose ottimizzata, riducendo il TCO complessivo dei data center orientati all’AI. Dal punto di vista tecnologico, quindi, Google non propone semplicemente “un altro chip”, ma un pacchetto completo che va dal silicio al data center, fino ai servizi gestiti su Vertex AI.

È questo che, agli occhi degli analisti, rende credibile la possibilità di spostare volumi non marginali di spesa dai rack Nvidia verso infrastrutture basate su TPU.

Google vs Nvidia, Meta e la fine dell’invulnerabilità

Il punto di svolta nella percezione del mercato è stato l’emergere delle trattative tra Meta e Google. Secondo Reuters, il social network sta valutando di spendere decine di miliardi di dollari per utilizzare chip TPU nei propri data center a partire dal 2027, con una fase iniziale in cui le risorse verrebbero affittate tramite Google Cloud.

Alcuni dirigenti di Google Cloud avrebbero stimato che, se l’operazione andasse in porto su larga scala, il nuovo business potrebbe equivalere fino al dieci per cento dei ricavi annui attuali di Nvidia nel segmento data center.

L’impatto sulla narrativa è immediato. Meta è uno dei clienti più importanti di Nvidia, con piani di investimento in GPU stimati nell’ordine di decine di miliardi di dollari all’anno. Il solo fatto che stia negoziando una strategia alternativa basata su TPU suggerisce che il monopolio di fatto di Nvidia non è più percepito come inevitabile.

Non sorprende che la notizia sia stata accompagnata da una correzione significativa del titolo Nvidia e da un rialzo delle azioni Alphabet, avvicinate per la prima volta a una valutazione di Borsa nell’ordine dei 4.000 miliardi di dollari.

È in questo contesto che l’Economist parla di “aura di invulnerabilità” incrinata. Dopo anni in cui ogni grande annuncio nel campo dell’AI finiva per rafforzare la posizione di Nvidia, il mercato prende atto che gli hyperscaler dispongono ormai di alternative credibili su vasta scala, siano esse le TPU di Google, i chip Trainium e Inferentia di AWS o i progetti Maia e Cobalt di Microsoft.

Le barriere all’adozione dei chip Google

Se passiamo però dall’analisi di Borsa alla realtà dei data center delle imprese, il quadro si fa più sfumato. Lo sottolineano diverse analisi specialistiche, tra cui quella di Tom’s Hardware: TPUs e, più in generale, i chip personalizzati di Google sono un’alternativa sempre più attraente per i grandi attori disposti a ripensare profondamente la propria infrastruttura, ma rappresentano ancora una minaccia limitata all’egemonia di Nvidia nell’insieme del mercato.

Lo stack software e l’ecosistema CUDA

Il primo ostacolo è lo stack software. Le TPU sono programmate attraverso XLA e integrate in modo nativo con TensorFlow, JAX e un set crescente di tool per PyTorch e per framework come vLLM. Sebbene Google stia lavorando a rendere più trasparente la portabilità, in pratica ottenere le massime prestazioni richiede di adattare il modello ai pattern di compilazione e alle primitive di TPU, spesso con interventi non banali su codice e pipeline.

Per chi ha anni di sviluppo stratificato su CUDA, passare a un paradigma diverso implica costi di re-engineering e rischio progettuale che solo i player con enormi volumi – come Meta o Anthropic – possono giustificare.

Disponibilità limitata e lock-in di Google Cloud

Il secondo vincolo è la distribuzione. Oggi i chip di Google sono disponibili quasi esclusivamente attraverso Google Cloud e, in prospettiva, tramite accordi su misura con pochi hyperscaler o grandi clienti che installano pod di TPU all’interno dei propri data center.

Questo limita la “fungibilità” dell’hardware: un workload costruito su GPU Nvidia può girare nei tre grandi cloud, on-prem, in cluster dedicati o persino su workstation locali, mentre un workload ottimizzato per TPU è sostanzialmente legato all’ecosistema Google.

Proprio la versatilità è l’argomento chiave con cui Nvidia ha risposto pubblicamente alle notizie su Meta. L’azienda insiste sul fatto di essere l’unica piattaforma in grado di far girare tutti i principali modelli AI, in ambienti che vanno dal cloud all’edge.

Dal suo punto di vista, gli ASIC come le TPU sono estremamente efficienti, ma legati a framework e casi d’uso specifici, meno adatti a chi vuole mantenere flessibilità massima in uno scenario di modelli e tecniche in rapida evoluzione.

Incentivi commerciali e modelli di business

C’è poi una questione di incentivi commerciali. Google ha tutto l’interesse a usare le TPU come leva per attrarre e trattenere clienti sul proprio cloud, mantenendo il controllo dell’offerta e dei margini.

Non è ovvio che voglia trasformarsi in un fornitore “orizzontale” di chip da vendere a chiunque, alle stesse condizioni con cui oggi Nvidia rifornisce l’intero settore. Le indiscrezioni su Meta indicano una disponibilità a installare hardware Google in data center di terzi, ma sempre in un quadro di partnership strategica e non di prodotto di massa.

Tipologie di carichi di lavoro

Infine, va considerato il profilo tecnico dei carichi di lavoro. Le TPU eccellono nelle grandi pipeline di inferenza e in alcuni scenari di training ben strutturati, dove la forma del modello è relativamente stabile e il problema principale è ridurre il costo per token.

Le GPU restano spesso preferite per la ricerca di frontiera, per gli esperimenti rapidi, per i workload ibridi che combinano simulazioni tradizionali e deep learning, o per i casi d’uso in cui si vuole poter migrare facilmente tra cloud diversi senza riscrivere l’intera infrastruttura.

Che cosa cambia per il mercato dei chip AI

Se si mettono insieme questi elementi, il quadro che emerge è meno quello di un sorpasso imminente e più quello di un riequilibrio strutturale. Gli hyperscaler non vogliono dipendere da un solo fornitore di acceleratori; allo stesso tempo, nessuno è nelle condizioni di ricostruire dall’oggi al domani un ecosistema paragonabile a CUDA.

Ne nasce un mondo eterogeneo, in cui coesistono GPU Nvidia, chip specializzati di Google, soluzioni interne dei cloud provider, acceleratori di AMD, Intel e di una costellazione di startup.

Per Nvidia, la sfida è duplice. Sul piano tecnico deve continuare a spingere l’asticella con architetture come Grace Blackwell, che integrano strettamente CPU e GPU e puntano a ridurre i colli di bottiglia di memoria e comunicazione nei “factory data center” dell’AI.

Sul piano strategico deve dimostrare che la propria piattaforma resta centrale anche in un mondo in cui Google, AWS, Microsoft e altri dispongono di silicio proprietario e di enormi budget capex per spingere le proprie soluzioni.

Per Google, il tema è la scalabilità dell’adozione. Oggi le TPU sono ben posizionate come seconda fonte per un numero limitato di grandi clienti, in particolare per l’inferenza su vasta scala e per quei modelli che nascono già nell’ecosistema Google.

Trasformarle in una piattaforma di riferimento più ampia richiederà una maturazione ulteriore di strumenti, SDK e percorsi di migrazione da CUDA, oltre a una maggiore disponibilità multi-ambiente, che riduca la percezione di lock-in.

Per le imprese e i team tecnici, il messaggio più pragmatico è che la scelta dell’hardware AI non è più una scommessa binaria tra “Nvidia sì o no”, ma una decisione di portafoglio. In molti casi il percorso più efficiente consisterà nel continuare a usare GPU Nvidia per il training sperimentale e per i prototipi, spostando su TPU o su altri acceleratori specializzati i carichi stabili di inferenza, o adottando CPU come Axion per ridurre i costi della parte di elaborazione general purpose che circonda i modelli.

In questo senso, Google ha effettivamente incrinato l’idea che l’AI avanzata coincida automaticamente con Nvidia, ma non ha ancora rovesciato la gerarchia di potere del settore. L’aura di invulnerabilità si è trasformata in un vantaggio ancora enorme ma contestabile, in cui il valore non è più nel singolo chip, bensì nella capacità di orchestrare in modo intelligente uno zoo di acceleratori diversi, contenendo al tempo stesso consumi energetici e costi per unità di “intelligenza” erogata.

Chi progetta infrastrutture AI nei prossimi anni dovrà quindi pensare meno in termini di tifoserie e più in termini di architetture ibride e strategie di lungo periodo, consapevole che l’unica costante sarà il cambiamento continuo del silicio sottostante.

Bibliografia

The Economist, “Google has pierced Nvidia’s aura of invulnerability”, 25 novembre 2025.

Reuters, “Meta in talks to spend billions on Google’s chips, The Information reports”, 25 novembre 2025. https://www.reuters.com/business/meta-talks-spend-billions-googles-chips-information-reports-2025-11-25/

Google Cloud Blog, “Announcing Ironwood TPUs General Availability and new Axion VMs to power the age of inference”, 6 novembre 2025. https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads

Tom’s Hardware, “Google TPUs garner attention as AI chip alternative, but are only a minor threat to Nvidia’s dominance”, 26 novembre 2025. https://www.tomshardware.com/tech-industry/semiconductors/nvidia-responds-as-meta-explores-switch-to-google-tpus

IoT Analytics, “The leading generative AI companies”, 4 marzo 2025. https://iot-analytics.com/leading-generative-ai-companies/

Agenda Digitale, “TPU di Google contro GPU di Nvidia: la nuova guerra dei chip AI”, 2025. https://www.agendadigitale.eu/infrastrutture/tpu-di-google-contro-gpu-di-nvidia-la-nuova-guerra-dei-chip-ai/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati