L’intelligenza artificiale è in fase di maturazione: i valori di capitalizzazione sono legati più alle prospettive di un mercato nascente e promettente che alle prestazioni di un mercato maturo, ma alcune dinamiche stanno creando un contesto competitivo più ampio, con nuovi protagonisti sia nello sviluppo dei modelli, sia nella produzione dell’hardware necessario all’allenamento e all’inferenza.
Indice degli argomenti
Onde dell’innovazione e bolla dell’AI
La quotazione di Nvidia, anche se non sta brillando da qualche settimana, è comunque ancorata a un moltiplicatore price/earning (P/E) significativamente più elevato della già elevata media di big tech, come si vede dalla figura 1[1].

Il premio della quotazione di Nvidia dipende da diversi fattori: crescita del fatturato e degli utili, margini elevati (margine netto superiore al 50%), posizione quasi monopolistica nella produzione dei chip per l’intelligenza artificiale (AI), ecosistema CUDA.
Quest’ultimo asset di Nvidia è quello più difficilmente attaccabile dalla concorrenza, che pure comincia a manifestarsi sull’hardware. Il lock-in tecnologico che CUDA produce per Nvidia si basa sul fatto che migliaia di librerie software sono scritte per CUDA dagli sviluppatori AI che hanno investito anni nell’ecosistema CUDA, pur non essendo CUDA un software open source. Vi è quindi un costo enorme a uscire da CUDA, poiché occorrerebbe riscrivere tutto il software per poter accedere a piattaforme concorrenti (come AMD ROCm, Intel oneAPI).
Chat GPT e gli altri modelli che l’hanno seguita, secondo Authers, uno degli analisti più acuti di Bloomberg, hanno premiato fino ad ora le magnifiche 7 e soprattutto Nvidia, come si vede dalla figura 2. Un impatto sul resto delle imprese, quelle che utilizzano l’intelligenza artificiale, non si è ancora manifestato.
Gli investitori continuano quindi a scommettere sul futuro, ma si tratta di una scommessa ragionevole perché, da un lato, i modelli AI stanno migliorando vistosamente e, dall’altro, coloro che maggiormente investono hanno le spalle robuste. È molto difficile che la bolla si sgonfi con una esplosione improvvisa.
Ma alcuni dei protagonisti si stanno attrezzando per ridurre la dipendenza, e quindi i prezzi, che devono riconoscere a Nvidia. L’esplosione di ChatGPT alla fine del 2022 ha aperto un nuovo mercato, di cui ChatGPT ha solo in parte beneficiato, tanto che ora OpenAI sta diversificando i suoi investimenti per rafforzare la propria capacità di produrre ricavi, in vista della probabile quotazione in borsa.

Figura 2. Impatto di ChatGPT sulla quotazione delle aziende impegnate in AI (novembre 2022 =100)[2]
Il ruolo di Nvidia nei chip per l’intelligenza artificiale
La fortuna di Nvidia è dovuta alla sua tecnologia e all’importanza dei suoi clienti: tutte le maggiori aziende tecnologiche, praticamente tutte le big tech, usano i suoi processori e sviluppano modelli e applicazioni nell’ambito di CUDA.
Questa fortuna potrà rivelarsi anche il punto debole di Nvidia, poiché quei clienti hanno risorse e competenze tali da sostenere investimenti in grado di porre fine alla posizione di monopolio di Nvidia. Possono anche modificare l’approccio di mercato all’intelligenza artificiale, puntando su modelli e soluzioni meno generali, specializzate nelle diverse aree applicative.
Possono, e lo stanno facendo, avviare progetti alternativi per rompere il monopolio di Nvidia; esistono infatti tentativi di rompere il monopolio CUDA.

Nvidia intelligenza artificiale: i progetti open source che sfidano CUDA
- Triton (di OpenAI) è il tentativo più serio di aggirare CUDA. Si tratta di un linguaggio di programmazione open source per GPU, avviato nel 2021, in grado di compilare codice che gira su diverse piattaforme: Nvidia, AMD, Intel. Non è ancora ottimizzato né ha raggiunto performance pari a CUDA, ma ha dietro di sé OpenAI e quindi Microsoft e anche per questo costituisce un’alternativa potenziale a CUDA.
- ZLUDA è forse il più sovversivo dei progetti in corso: ha un layer di compatibilità che permette di eseguire codice CUDA su hardware AMD, è open source (licenza MIT) ed è stato sviluppato inizialmente da AMD, poi proseguito da sviluppatori indipendenti. Tuttavia AMD ha sospeso il supporto finanziario dal 2024, probabilmente per timore di azioni legali da parte di Nvidia.
I diretti competitori operano nel tradizionale settore dei microchip (AMD e Intel) o, come OpenAI, nell’intelligenza artificiale. Ed è in quest’ultimo settore che stanno creandosi le condizioni per rompere, entro un lasso di tempo non troppo lungo, il monopolio di Nvidia, sia in ambito software sia in ambito hardware[3].
Clienti big tech e dipendenza da Nvidia nell’intelligenza artificiale
A maggio 2024 è stato annunciato Ultra Accelerator Link (UALink): Google, Meta, Microsoft, Amazon, Intel, AMD, Broadcom intendono creare uno standard aperto per collegare i chip AI e rompere il monopolio di NVLink (tecnologia proprietaria di Nvidia) permettendo a chip diversi di lavorare insieme[4].
Standard aperti e alleanze industriali
AMD e OpenAI hanno stretto una partnership strategica in base alla quale OpenAI implementerà 6 gigawatt di chip AMD, a partire da 1 gigawatt nel 2026. In cambio, AMD ha concesso a OpenAI warrant per l’acquisto di un massimo di 160 milioni di azioni AMD a un prezzo nominale, che potrebbe conferire a OpenAI una quota di circa il 10% se verranno raggiunti determinati obiettivi in termini di prestazioni e prezzo delle azioni.
Questo accordo è finalizzato a garantire la fornitura di hardware AI per OpenAI, diversificare i suoi fornitori e incrementare significativamente il business delle GPU per i data center di AMD[5].
La spesa attuale di big tech nei data center dedicati all’intelligenza artificiale rappresenta, da un lato, il motore che sospinge profitti e quotazioni di Nvidia, dall’altro lato, costituisce la maggiore minaccia al permanere della sua posizione di monopolio[6].
OpenAI tra dipendenza e ricerca di capitale
OpenAI, d’altro canto, recentemente valutato a 500 miliardi di dollari ma tuttora in perdita, punta a un accordo per l’acquisto dei chip Nvidia in cambio di un investimento nel capitale di OpenAI. Essa non ha molti gradi di libertà: da un lato ha promesso il 49% dei suoi profitti a Microsoft dopo un investimento di 13 miliardi di dollari effettuato nel 2023; dall’altro lato OpenAI è nel mezzo di un lungo e controverso processo per la sua conversione in un’entità a scopo di lucro.
Altman ha affermato in passato che la sua azienda è stata limitata dalla potenza di calcolo a cui può accedere, spesso misurata in base al numero di unità di elaborazione grafica, o GPU, che consentono ai prodotti di intelligenza artificiale di rispondere alle domande degli utenti. L’obiettivo è di finalizzare i dettagli della partnership nelle prossime settimane, con la prima fase di distribuzione prevista per la seconda metà del 2026.
Nella tabella seguente viene riportata la spesa per i data center delle maggiori protagoniste dell’AI, mettendo in evidenza la quota destinata ai processori Nvidia. In media, intorno al 60% della spesa per i data center va ad acquistare i processori di Nvidia: la convenienza a liberarsi dalla dipendenza è enorme e la battaglia, ancora agli inizi, sui fronti economico, tecnologico e finanziario, è una delle più importanti di questo primo quarto di secolo[7].

La quota di Nvidia, per effetto di questa pressione concorrenziale, sta decrescendo negli anni recenti, pur mantenendosi a livelli eccezionalmente elevati, come si vede dalla figura 3.
Google, Amazon, Meta: i chip custom
Google ha aperto la strada alla competizione sul versante delle aziende che utilizzano i processori. Dal 2016 produce Tensor Processing Units (TPU), chip custom progettati internamente, ottimizzati per TensorFlow ed usati nei data center di Google, ma disponibili su Google Cloud anche per clienti esterni[8].
Questa strategia consente a Google di ridurre la dipendenza da Nvidia del 40-50%, dal momento che TPU v5 (2023) è competitivo con H100. Il risparmio per Google è gigantesco, stimato intorno al 50% rispetto all’acquisto da Nvidia, pur dovendo scontare una minore ampiezza dell’ecosistema applicativo e una qualche resistenza dei clienti a uscire da CUDA.
Amazon ha lanciato due chip custom.
- AWS Trainium per il training AI nel 2022, con aggiornamento Trainium2 nel 2024 e ora Trainium3[9]. Si tratta di un chip del 40% più economico di GPU Nvidia equivalenti, ottimizzato per il training di modelli grandi, usato da Anthropic (Claude) e da Stability AI.
- Il secondo chip custom è dedicato all’inferenza, AWS Inferentia, per il deployment di modelli in produzione. Esso risulta del 70% più economico di Nvidia per inferenza e viene usato dalla stessa Amazon (Alexa, raccomandazioni). In questo modo Amazon ha spostato il 30-40% del workload AI su chip propri ma continua a comprare massivamente GPU Nvidia perché i clienti AWS le richiedono per poter continuare a utilizzare l’ecosistema CUDA.
Meta ha adottato, nello stile di Zuckerberg, una strategia più aggressiva, producendo un hardware custom, MTIA (Meta Training and Inference Accelerator), Generazione 1 (2023), Generazione 2 (2024), che vengono usati internamente per Llama, Instagram, Facebook.
Dall’altro lato Meta sta attaccando CUDA con PyTorch 2.0+, puntando a un framework più popolare per AI (open source) e migliorando il supporto per hardware non-Nvidia, con l’obiettivo di rendere facile l’uso di AMD, Intel e chip custom. In questo modo Meta ha ridotto gli acquisti Nvidia del 25-30%, ma per il training di Llama ha ancora una forte dipendenza da Nvidia.
D’altra parte Meta non fornisce servizi cloud e quindi non è influenzata dalla richiesta dei clienti di avere disponibile un ambiente CUDA; in altre parole, l’uso interno dei chip custom rende Meta più indipendente da Nvidia.
Microsoft e Apple: due strade diverse
Microsoft, invece, è il maggior cliente di Nvidia (20-25 miliardi/anno), poiché Azure offre più GPU Nvidia di qualunque competitor. Si tratta quindi di una partnership strategica che non impedisce a Microsoft di sviluppare propri chip custom: Maia 100 (2023) e Maia 200 (attualmente in fase di sviluppo) destinati ad Azure e a Copilot[10]. Si tratta di una strategia meno determinata ad abbattere il monopolio Nvidia, pur senza rinunciare alla pressione sui costi di Nvidia determinata dal possibile ricorso alla produzione custom.
Apple rappresenta una strategia di totale indipendenza da Nvidia, poiché non offre servizi cloud, è interessata all’AI solo per dotare i propri devices di Neural Engine per il quale ha avviato la produzione dei processori Apple Silicon (M-series, A-series). Questo isolamento pone Apple in una posizione di controllo esclusivo del proprio mercato, ma al contempo le inibisce lo sviluppo (training e inferenza) di modelli larghi.

Nonostante la presenza di competitor come Claude e Gemini, le quote di Chat GPT sono ancora dominanti, come si vede dalla figura seguente[11].
Superintelligenza, concorrenza e paure nella corsa all’AI
La meta è vicina? In OpenAI, i cui uffici Sam Altman ha voluto più somiglianti a una casa di campagna che a un’azienda tecnologica, l’ambiente è comunque molto competitivo. Sia all’interno dell’azienda, sia verso le aziende concorrenti.
La sfida è giornaliera: “OpenAI ha lanciato lo shopping con pagamento istantaneo tramite ChatGPT, Anthropic ha lanciato un’intelligenza artificiale in grado di scrivere codice in modo autonomo per 30 ore per creare software completamente nuovi, e Meta ha lanciato uno strumento, Vibes, per consentire agli utenti di riempire i feed dei social media con video generati dall’intelligenza artificiale, a cui OpenAI ha risposto con la sua versione, Sora.”[12]
Anche i leader di due protagonisti della gara, OpenAI e Anthropic, si lasciano andare a considerazioni apocalittiche e, pur continuando a promettere il vaso di Pandora, allo stesso tempo lanciano l’allarme: Amodei, fondatore di Anthropic, ha detto che AI potrà eliminare metà dei nuovi colletti bianchi, mentre Altman ha confessato che molti giovani lavorano sull’intelligenza artificiale con lo stesso animo degli scienziati sul Progetto Manhattan.
La meta sembra sfuggire, ma è – secondo i protagonisti – ormai dietro l’angolo. La superintelligenza o intelligenza artificiale generale, come viene definita, ma “Nessuno sa cosa succederà dopo. È come se dovessimo trovare una soluzione. È una cosa strana e inattesa.” – parola di Altman.
Note
[1]) https://www.financecharts.com/stocks/NVDA/value/pe-ratio#google_vignette
[2]) John Authers, ChatGPT Is Three. Don’t Crack the Bubbly Just Yet, Bloomberg, Opinion, Points of Return, 1/12/2025.
[3]) Laura Bratton, Nvidia’s Big Tech customers might also be its biggest competitive threat, Yahoo!finance. October 20, 2025.
[4]) AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise, Intel, Meta and Microsoft Form Ultra Accelerator Link (UALink) Promoter Group to Drive Data Center AI Connectivity, Businesswire, May 30, 2024.
[5]) The Guardian, OpenAI signs multibillion-dollar chip deal with AMD, October 6, 2025.
[6]) Dough Eadline, Everyone Except Nvidia Forms Ultra Accelerator Link (UALink) Consortium, HPCwire, May 30, 2024.
[7]) Katie Tarasov, Nvidia sales are ‘off the charts,’ but Google, Amazon and others now make their own custom AI chips, CNBC, nov 21, 2025.
[8]) https://www.bebooja.com/en/blog/market/2025-bigtech-custom-chips-2025-part1
[9]) https://finance.yahoo.com/news/explainer-amazon-unveil-diy-ai-163453407.html
[10]) Rani Borkar, Andrew Wall, Prasanth Pulavarthi, Yuan Yu, Azure Maia for the era of AI: From silicon to software to systems, Microsoft, Blog home/AI+machine learning, Apr. 3, 2024.
[11]) Fonte: Statcounter.
[12]) Robert Booth, ‘It’s going much too fast’: the inside story of the race to create the ultimate AI, The Guardian, 1 Dec. 2025.












