Per dieci anni Nvidia ha dominato il mercato dei chip per l’intelligenza artificiale con una posizione quasi monopolistica. Ora Google, Amazon, AMD, Broadcom, Qualcomm, Meta, Microsoft e perfino OpenAI stanno costruendo alternative credibili. Un cambiamento che ridisegna la geografia della competizione, influisce sulla disponibilità di potenza di calcolo e apre nuovi scenari per Europa e Italia: dai costi dell’AI al tema cruciale della compute sovereignty.
Indice degli argomenti
Chip AI, fine del quasi monopolio Nvidia
Per anni parlare di AI ha significato, di fatto, parlare di GPU Nvidia. Non era solo una questione di prestazioni, ma di ecosistema: l’ampiezza della suite CUDA ha creato un lock-in di fatto per migliaia di sviluppatori, mentre la dipendenza da TSMC, produttrice del 90% dei chip AI avanzati globali, ha consolidato il vantaggio competitivo del gruppo guidato da Jensen Huang.
Oggi quello stesso modello mostra crepe evidenti. Il mercato non è più un monologo, ma un’arena in cui la competizione arriva da ogni direzione. La domanda di potenza di calcolo cresce più velocemente della capacità produttiva, i costi dell’AI diventano un fattore strategico e le aziende cercano alternative per evitare dipendenze strutturali. Chi controlla la compute controlla l’innovazione.
Il 2025 segna un punto di svolta: i concorrenti arrivano da ogni fronte, dagli hyperscaler alle aziende che consumano più calcolo al mondo, fino ai designer specializzati. Il risultato è un mercato dei chip AI che entra in una nuova fase, meno concentrata e molto più strategica per Stati e imprese.
I Big del cloud nella nuova corsa ai chip AI
I Big del cloud, Google e Amazon in testa, non sono più solo fornitori di infrastrutture ma attori diretti nella progettazione dei chip AI. Google ha iniziato a rendere commerciali le sue TPU, per anni riservate all’uso interno. Colossi come Meta, Anthropic e Apple stanno già utilizzandole o valutando di farlo per addestrare e far funzionare i loro modelli. Per la prima volta si delinea un’alternativa credibile alle GPU Nvidia.
Google e l’apertura delle TPU ai grandi modelli
Google sta trasformando le proprie TPU in una piattaforma aperta per chi sviluppa intelligenza artificiale avanzata. Mettere a disposizione all’esterno ciò che prima era solo un vantaggio interno significa cercare di spostare parte del potere di mercato delle GPU Nvidia verso un’infrastruttura più integrata con i servizi cloud di Mountain View. Per aziende e laboratori diventa una leva per diversificare la compute e ridurre il lock-in tecnologico.
AWS, Trainium e il salto a produttore di hardware AI
Amazon Web Services sta ampliando un cluster dedicato ad Anthropic che arriverà a ospitare oltre un milione di chip Trainium. Inoltre, ha annunciato una nuova generazione di acceleratori più efficienti e meno energivori rispetto alle soluzioni Nvidia. In questo modo AWS usa i propri chip AI per differenziare l’offerta cloud e offrire un controllo maggiore su costi e consumi energetici. AWS non è più soltanto un hyperscaler: è un produttore di hardware AI a tutti gli effetti.
I designer puri tra AMD, Broadcom e Qualcomm
Accanto ai Big del cloud si muovono i designer puri di semiconduttori. AMD rappresenta la sfida più seria. Con la strategia “AI-first” voluta da Lisa Su, la capitalizzazione dell’azienda è quadruplicata e i nuovi chip hanno attirato contratti con OpenAI e Oracle. Le sue architetture stanno avvicinando la capacità computazionale Nvidia, aumentando le opzioni a disposizione di chi costruisce data center per l’AI.
Broadcom, cresciuta tramite importanti acquisizioni, si sta imponendo con chip personalizzati ottimizzati per carichi specifici (XPU) e con hardware di rete che collega enormi rack di server. In parallelo, Qualcomm, tradizionalmente focalizzata sul mobile, ha visto un forte rialzo del titolo dopo l’annuncio dei nuovi acceleratori AI200 e AI250, progettati per combinare memoria elevata ed efficienza energetica. Questi player aggiungono ulteriore competizione su prestazioni, consumi e specializzazione.
Quando i clienti si costruiscono i propri chip AI
La tendenza più significativa è l’internalizzazione dell’hardware da parte delle aziende che consumano più calcolo al mondo. OpenAI ha avviato con Broadcom una partnership da miliardi di dollari per progettare ASIC dedicati a ChatGPT. Meta ha acquisito Rivos per accelerare lo sviluppo di chip interni. Microsoft sta aumentando l’adozione di acceleratori personalizzati nei suoi data center.
La xAI di Elon Musk sta assumendo progettisti per sviluppare nuove architetture hardware. Il vantaggio competitivo si sposta: non bastano più i modelli migliori. Conta chi può addestrarli più velocemente, con maggiore autonomia e a costi sostenibili. La capacità di controllare la propria catena hardware–software diventa un elemento centrale della strategia AI dei grandi gruppi tecnologici.
OpenAI, Big Tech e il controllo diretto della compute
In questo scenario, i grandi consumatori di potenza di calcolo cercano di ridurre la dipendenza da fornitori esterni. Progettare chip AI interni significa avere maggiore certezza sulla disponibilità di compute, capacità di ottimizzare hardware e modelli e possibilità di negoziare in modo diverso con attori come Nvidia. È un passaggio che ridefinisce il rapporto tra fornitori di tecnologia e grandi piattaforme digitali.
Geopolitica e sovranità tecnologica dei chip AI
Nvidia resta il leader indiscusso. Le vendite dei chip Blackwell, la potenza dell’ecosistema CUDA e la rapidità con cui l’azienda introduce nuove architetture non hanno equivalenti. Ma il contesto cambia su più dimensioni. Le alternative aumentano ed evolvono rapidamente. La domanda cresce a un ritmo tale che nessun attore può soddisfarla da solo. Il riequilibrio geopolitico pesa, la Cina, mercato chiave, è di fatto preclusa.
Su quest’ultimo punto Jensen Huang è sempre stato chiaro, la Cina ospita circa metà degli sviluppatori di intelligenza artificiale del pianeta. Un dato che raramente emerge nel dibattito occidentale, ma che dà la misura della sfida. L’impossibilità di vendere nel mercato che concentra una parte significativa di talento, ricerca applicata e innovazione industriale non limita solo la crescita di Nvidia, accelera la formazione di un ecosistema autonomo di chip domestici, destinato a prosperare indipendentemente dall’hardware americano.
Nel medio periodo potrebbe consolidarsi una separazione strutturale, un mercato occidentale e uno cinese dell’AI, con stack hardware e software progressivamente divergenti. Una frattura che non riguarda solo Nvidia, ma la governance globale dell’intelligenza artificiale. In questo quadro, la posizione di Europa e Italia dipende dalla capacità di garantirsi accesso stabile e competitivo alla compute.
Europa, Italia e la sfida della compute sovereignty
La competizione sui chip AI è una questione industriale, economica e geopolitica. Determina il costo dell’AI per imprese e pubbliche amministrazioni, la capacità dei Paesi di sostenere innovazione e produttività, la dipendenza strategica da attori non europei e la resilienza delle infrastrutture digitali.
L’Europa discute da anni di sovranità tecnologica, ma investe poco nell’area dove l’AI si gioca davvero, la compute. Lo evidenzia anche lo studio AI Compute Sovereignty dell’Università di Oxford, secondo cui senza un accesso indipendente e garantito alla potenza di calcolo ogni ambizione sull’AI resta incompiuta.
Per l’Italia la questione è altrettanto critica. Più concorrenza globale significa minori costi di accesso e maggiore disponibilità di soluzioni. Ma serve una strategia nazionale per sostenere data center, efficienza energetica e partnership pubblico-private. Senza un approccio coordinato, il Paese rischia di restare un semplice utilizzatore di tecnologie sviluppate altrove.
La nuova guerra industriale dell’intelligenza artificiale
Il mercato dei chip AI vale oggi migliaia di miliardi di dollari e continuerà a crescere. La prossima ondata, sistemi agentici, modelli autonomi, architetture multimodali generaliste, richiederà ordini di grandezza superiori di potenza di calcolo. In un contesto in cui gli hyperscaler progettano chip proprietari, i laboratori AI internalizzano l’hardware e nuovi player competono su efficienza e prestazioni, l’egemonia Nvidia entra in una fase nuova.
Non è la fine del suo dominio, ma la fine dell’idea che Nvidia sia l’unico attore rilevante. Il nuovo scenario è un oligopolio fluido, globale e strategico. Dalla sua evoluzione dipenderanno competitività, ricerca e capacità dei Paesi di restare nella partita dell’intelligenza artificiale. Per aziende e governi, la scelta delle infrastrutture di calcolo diventa una decisione di politica industriale, non solo tecnologica.











