intelligenza artificiale

Oltre Nvidia: la nuova geografia del potere nei chip per l’IA



Indirizzo copiato

La partnership tra OpenAI e Broadcom accende una nuova corsa ai chip AI. Tra fame di energia, limiti del silicio e ricerca di efficienza, Big Tech, startup e potenze geopolitiche si contendono il controllo dell’hardware che rende possibile l’intelligenza artificiale

Pubblicato il 12 dic 2025

Riccardo Petricca

Esperto Industria 4.0 Innovation Manager



nvidia AI iper-densa guerra USA-Cina sui chip sovereignty by design

Quella che oggi è la partnership tra i creatori di ChatGPT e Broadcom per lo sviluppo di chip personalizzati non è altro che la punta dell’iceberg di una trasformazione molto più profonda.
Se da un lato Nvidia domina la fase di addestramento dei modelli, tutta l’industria tech si sente interrogata su come rendere l’intelligenza artificiale non solo spettacolare, ma anche sostenibile e accessibile. La soluzione potrebbe passare per semiconduttori custom, una rivoluzione che, silenziosamente, può ridefinire i confini tra hardware e software.

C’è un paradosso al centro della rivoluzione dell’intelligenza artificiale. Più i modelli diventano sofisticati, capaci di conversare, ragionare, creare, più divorano energia. E silicio. Montagne di silicio.
Sam Altman, l’uomo che guida OpenAI, lo sa bene. Non a caso ha ipotizzato – con quella mescolanza di visionarietà e spregiudicatezza che lo contraddistingue – di costruire un giorno una sfera di Dyson attorno al Sole per alimentare le AI del futuro. Fantascienza, certo.
Ma il problema energetico è dannatamente reale, tangibile come le bollette dei data center che ospitano ChatGPT e i suoi fratelli digitali.

La nuova corsa globale ai chip dell’intelligenza artificiale

Come accennato, la recente mossa di OpenAI, che stringe accordi con Broadcom e Nvidia per lo sviluppo di chip su misura, racconta molto di più che una semplice strategia aziendale. Descrive un’industria che ha capito una verità scomoda: l’intelligenza artificiale, come l’abbiamo conosciuta finora, non è sostenibile.

Questa instabilità si manifesta su più fronti, da quello economico a quello energetico, perché si continuano a utilizzare strumenti hardware pensati per altre epoche e altri scopi. L’AI di oggi gira spesso su infrastrutture nate per il gaming o per il calcolo generico, non per i carichi specifici dei modelli generativi.

Altman lo ha detto chiaro: per ogni utente che utilizzerà i servizi di OpenAI servirà almeno un chip dedicato all’AI. Fate due conti. Miliardi di persone. Miliardi di chip. Un’infrastruttura paragonabile, per dimensioni, all’intera rete di microprocessori che attualmente tiene in piedi l’economia digitale globale.
Ali Farhadi, che dirige l’Allen Institute for AI, conferma questa prospettiva vertiginosa. Se l’intelligenza artificiale deve davvero sostituirsi agli esseri umani in tutti i compiti che le abbiamo promesso – dalla diagnosi medica alla guida autonoma, dalla scrittura creativa all’analisi finanziaria – il fabbisogno di semiconduttori esploderà.

Chip per l’intelligenza artificiale tra addestramento e inferenza

Ma qui comincia la storia vera, quella che va oltre i comunicati stampa e le dichiarazioni d’intenti. Il mondo dei chip per l’AI si sta dividendo in due universi paralleli, complementari ma distinti.

Da una parte c’è il regno di Nvidia, incontrastata sovrana dell’addestramento dei modelli. I suoi processori grafici, nati per i videogiochi e poi riadattati al machine learning, sono diventati la materia prima dell’intelligenza artificiale. Ogni grande modello linguistico, ogni sistema di riconoscimento immagini, ogni rete neurale che si rispetti è stata addestrata su cluster di GPU Nvidia.
Un monopolio de facto che ha fatto schizzare in alto le quotazioni dell’azienda di Jensen Huang e creato liste d’attesa lunghe mesi per accaparrarsi i suoi chip più potenti.

Dall’altra parte, però, sta emergendo un territorio nuovo: quello dell’inferenza. Un termine tecnico che nasconde un concetto semplice. Addestrare un’AI richiede potenza bruta, calcolo parallelo massiccio, mesi di elaborazione.
Ma una volta che il modello è pronto, farlo funzionare per gli utenti finali – rispondere alle loro domande, generare un’immagine, tradurre un testo – è un’operazione diversa. Meno vorace, più ripetitiva, potenzialmente ottimizzabile. Ed è qui che entrano in gioco i chip custom, i semiconduttori disegnati su misura per compiti specifici.

Dal modello Apple ai progetti custom delle Big Tech

L’idea che sta alla base non è del tutto nuova. Apple lo ha capito più di 15 anni fa, quando ha iniziato a progettare i propri processori invece di affidarsi a quelli realizzati da Intel. Questo approccio ha trasformato l’iPhone in un concentrato di potenza ed efficienza energetica che tutti conosciamo.

Quando software e hardware sono coesi e disegnati insieme, nascono sinergie non raggiungibili altrimenti. Ora questa logica, passata anche tra le mani di Amazon e Google, si sta estendendo all’intelligenza artificiale.

I colossi del cloud nella corsa ai chip AI

I colossi del cloud non si sono fermati. Amazon ha presentato i suoi chip Trainium per l’addestramento e Inferentia per l’inferenza. Google ha i suoi TPU, Tensor Processing Unit, ormai alla quinta generazione.
Meta, il gigante dei social network, sta lavorando ai propri acceleratori per l’AI. Microsoft, storico partner di OpenAI, ha iniziato a progettare semiconduttori custom per ridurre la dipendenza da fornitori esterni. Persino Tesla, con il suo chip per la guida autonoma, partecipa a questa corsa.

A legare tutti questi sforzi c’è un filo rosso che porta non solo a un risparmio di denaro, seppur non marginale, ma a un controllo che permette di non dipendere dai fornitori, di non essere ostaggi delle loro scelte strategiche, dei tempi di consegna e dei prezzi.
Si tratta, in sostanza, di una forma di sovranità tecnologica.

Startup e nuovi attori nei chip per l’intelligenza artificiale

Il panorama dei chip per l’AI si sta diversificando a velocità impressionante. Ci sono i progetti delle grandi corporation, ma anche quelli delle startup. Questa pluralità di attori contribuisce a ridisegnare la mappa del potere nel settore dei semiconduttori.

Cerebras, Graphcore, SambaNova, Groq: le scommesse radicali

Cerebras Systems ha costruito chip delle dimensioni di un piatto da portata, con centinaia di migliaia di core dedicati all’AI. Graphcore ha sviluppato un’architettura completamente nuova, l’IPU, pensata per gestire i grafi che stanno alla base delle reti neurali.
SambaNova punta sulla riconfigurabilità, con chip che possono adattarsi a modelli diversi senza perdere efficienza. Groq ha scommesso su un approccio deterministico, eliminando l’incertezza temporale dei sistemi tradizionali.

E poi ci sono i giganti asiatici. TSMC, il produttore taiwanese che fabbrica chip per mezzo mondo, sta investendo massicciamente nelle tecnologie di processo più avanzate, quelle a 3 e 2 nanometri che rendono possibili densità di transistor impensabili fino a pochi anni fa.
Samsung compete su quel fronte. La Cina, nonostante le sanzioni occidentali, sta cercando di costruire una filiera autonoma, con aziende come Huawei che sviluppano chip AI nonostante le limitazioni all’accesso alle tecnologie più avanzate.

Impatto ambientale dei chip per l’intelligenza artificiale

Ma c’è un aspetto che spesso sfugge nel dibattito pubblico. La diversificazione dei chip non è solo una questione tecnica o economica. È anche una questione ambientale.
I data center consumano già circa l’uno per cento dell’elettricità mondiale. Con l’esplosione dell’AI, questa percentuale è destinata a crescere. Chip più efficienti significano meno energia sprecata, meno calore da dissipare, meno acqua necessaria per il raffreddamento. In un’epoca di crisi climatica, non è un dettaglio.

Eppure, paradossalmente, la ricerca di efficienza potrebbe accelerare la diffusione dell’AI stessa. Chip più economici ed efficienti renderanno possibile portare l’intelligenza artificiale ovunque: negli smartphone, nelle auto, negli elettrodomestici, nei dispositivi indossabili.
Quello che oggi richiede un data center potrebbe domani girare sul vostro orologio. È la logica dell’edge computinghttps://www.agendadigitale.eu/infrastrutture/data-center-la-seconda-vita-delledge-computing-nellera-delliot/, del calcolo distribuito. Non tutto deve passare per i server di OpenAI o Google. Parte dell’elaborazione può avvenire localmente, sul dispositivo, con guadagni in termini di privacy, velocità e resilienza.

Sistemi ibridi e algoritmi efficienti per l’AI

Il confine tra chip per l’addestramento e chip per l’inferenza, poi, non è così netto come potrebbe sembrare. Nvidia stessa sta investendo in soluzioni per l’inferenza. Broadcom, tradizionalmente focalizzata su applicazioni specifiche, sta esplorando territori nuovi.
C’è chi sostiene che in futuro avremo chip ibridi, capaci di adattarsi dinamicamente a compiti diversi. C’è chi invece prevede una specializzazione ancora maggiore, con architetture ottimizzate per specifiche famiglie di modelli o addirittura per singole applicazioni.

La partita si gioca anche sul fronte degli algoritmi. I modelli linguistici stanno diventando più efficienti. Tecniche come la quantizzazione – che riduce la precisione numerica senza perdere troppa accuratezza – o il pruning – che elimina connessioni superflue nelle reti neurali – permettono di far girare AI complesse su hardware meno potente.
È un circolo virtuoso: software più snello richiede meno hardware, hardware più efficiente abilita software più ambizioso.

Geopolitica dei chip e nuove catene globali del valore

E poi c’è la dimensione geopolitica, che sarebbe ingenuo ignorare. I chip sono il petrolio del ventunesimo secolo. Chi li controlla, controlla il futuro dell’economia digitale.
Gli Stati Uniti lo hanno capito, limitando le esportazioni di semiconduttori avanzati verso la Cina. L’Europa sta cercando di non rimanere schiacciata tra i due blocchi, con piani industriali miliardari per riportare la produzione di chip sul territorio comunitario.
Taiwan è diventata improvvisamente l’isola più strategica del pianeta. Non per caso, ma perché ospita TSMC, l’azienda senza la quale l’intelligenza artificiale moderna semplicemente non esisterebbe.

Scenari futuri dei chip per l’intelligenza artificiale

Il processo che vede la realizzazione di chip custom per l’intelligenza artificiale può essere considerato come una delle trasformazioni chiave del nostro tempo, una corsa verso nuove frontiere computazionali e la sostenibilità, in un periodo di tensioni geopolitiche e di ordine mondiale in ridefinizione.

Quando Sam Altman parla di miliardi di chip, non sta semplicemente facendo una previsione di mercato. Sta descrivendo un futuro in cui l’intelligenza artificiale è ubiqua, invisibile, incorporata nel tessuto della vita quotidiana.
Un futuro in cui ogni oggetto che ci circonda ha un frammento di intelligenza artificiale al suo interno. Un futuro che richiederà non solo nuovi algoritmi e nuovi software, ma anche una reinvenzione completa dell’hardware su cui tutto questo girerà.

La domanda non è più se avremo bisogno di questi miliardi di chip. La domanda è: sapremo progettarli abbastanza efficienti da rendere sostenibile quel futuro? Sapremo distribuirli equamente, o l’intelligenza artificiale rimarrà privilegio di pochi? Sapremo proteggerli dalle vulnerabilità che ogni sistema complesso inevitabilmente nasconde?

Sono interrogativi che travalicano la dimensione puramente tecnica e chiamano in causa scelte politiche, etiche, sociali.
OpenAI e Broadcom hanno stretto un accordo. Nvidia continua a dominare. Amazon e Google corrono in parallelo. Ma la vera partita è appena cominciata.
E si giocherà su un campo dove convergono fisica quantistica e architettura dei computer, geopolitica e sostenibilità ambientale, economia e filosofia.
Perché alla fine, quando parliamo di chip per l’intelligenza artificiale, stiamo parlando di nient’altro che del substrato materiale del pensiero stesso. O almeno, di quella sua approssimazione sintetica che stiamo imparando a costruire, un transistor alla volta.

Bibliografia

OpenAI, “OpenAI and Broadcom announce strategic collaboration to deploy 10 gigawatts of OpenAI-designed AI accelerators”, comunicato stampa, 13 ottobre 2025. Disponibile su: https://openai.com/index/openai-and-broadcom-announce-strategic-collaboration/

Broadcom Inc., “OpenAI and Broadcom announce strategic collaboration to deploy 10 gigawatts of OpenAI-designed AI accelerators”, comunicato stampa, 13 ottobre 2025. Disponibile su: https://investors.broadcom.com/news-releases/news-release-details/openai-and-broadcom-announce-strategic-collaboration-deploy-10

Bass, D. e Ghaffary, S., “Open AI, Broadcom Sign Multiyear, 10-Gigawatt Chip Pact”, Bloomberg, 13 ottobre 2025. Disponibile su: https://www.bloomberg.com/news/articles/2025-10-13/openai-broadcom-sign-10-gigawatt-pact-for-chips-networking

CNBC, “Broadcom stock pops 9% on OpenAI custom chip deal, adding to Nvidia and AMD agreements”, 13 ottobre 2025. Disponibile su: https://www.cnbc.com/2025/10/13/openai-partners-with-broadcom-custom-ai-chips-alongside-nvidia-amd.html

Dillet, R., “OpenAI’s latest deals show an aggressive pivot to control every part of its business”, CNBC, 14 ottobre 2025. Disponibile su: https://www.cnbc.com/2025/10/14/open-ai-hyperscaler-broadcom-chips.html

CNN Business, “Sora 2 and ChatGPT are consuming so much power that OpenAI just did another 10 gigawatt deal”, 13 ottobre 2025. Disponibile su: https://www.cnn.com/2025/10/13/tech/openai-broadcom-power

Markets and Markets, “AI Inference Market Size, Share & Growth, 2025 To 2030”. Disponibile su: https://www.marketsandmarkets.com/Market-Reports/ai-inference-market-189921964.html

Shilov, A., “Nvidia to consume 77% of wafers used for AI processors in 2025: Report”, Tom’s Hardware, 19 febbraio 2025. Disponibile su: https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidia-to-consume-77-percent-of-wafers-used-for-ai-processors-in-2025-report

CNBC, “Nvidia dominates the AI chip market, but there’s more competition than ever”, 2 giugno 2024. Disponibile su: https://www.cnbc.com/2024/06/02/nvidia-dominates-the-ai-chip-market-but-theres-rising-competition-.html

SQ Magazine, “AI Chip Statistics 2025: Funding, Startups & Industry Giants”, 7 ottobre 2025. Disponibile su: https://sqmagazine.co.uk/ai-chip-statistics/

GM Insights, “AI Hardware Market Size & Share, Statistics Report 2025-2034”, 1 luglio 2025. Disponibile su: https://www.gminsights.com/industry-analysis/ai-hardware-market

CNBC, “Google’s decade-long bet on custom chips is turning into company’s secret weapon in AI race”, 7 novembre 2025. Disponibile su: https://www.cnbc.com/2025/11/07/googles-decade-long-bet-on-tpus-companys-secret-weapon-in-ai-race.html

The Street, “Google just shook up the AI hardware race in a big way”, 7 novembre 2025. Disponibile su: https://www.thestreet.com/technology/google-just-shook-up-the-ai-hardware-race-in-a-big-way

CNBC, “How Google makes custom chips used to train Apple AI models and its own chatbot, Gemini”, 23 agosto 2024. Disponibile su: https://www.cnbc.com/2024/08/23/how-google-makes-custom-cloud-chips-that-power-apple-ai-and-gemini.html

eWeek, “4X More Powerful: Amazon’s New AI Chip ‘Trainium 2’ Challenges $100 Billion Nvidia Market”, 25 novembre 2024. Disponibile su: https://www.eweek.com/news/amazon-ai-chip-trainium-2-rivals-nvidia/

CNBC, “How Amazon is racing to catch Microsoft and Google in generative A.I. with custom AWS chips”, 21 agosto 2023. Disponibile su: https://www.cnbc.com/2023/08/12/amazon-is-racing-to-catch-up-in-generative-ai-with-custom-aws-chips.html

IBM, “Custom chips drive AI’s future”, 18 aprile 2025. Disponibile su: https://www.ibm.com/think/news/custom-chips-ai-future

Aranca, “The Rise of Custom AI Chips: How Big Tech is Challenging NVIDIA’s Dominance”, 28 aprile 2025. Disponibile su: https://www.aranca.com/knowledge-library/articles/investment-research/the-rise-of-custom-ai-chips-how-big-tech-is-challenging-nvidias-dominance

Markets and Markets, “AI Chip Market Size, Share & Industry Trends Growth Analysis Report”, agosto 2024. Disponibile su: https://www.marketsandmarkets.com/Market-Reports/artificial-intelligence-chipset-market-237558655.html

TS2 Tech, “NVIDIA 2025: Dominating the AI Boom – Company Overview, Key Segments, Competition, and Future Outlook”, 27 giugno 2025. Disponibile su: https://ts2.tech/en/nvidia-2025-dominating-the-ai-boom-company-overview-key-segments-competition-and-future-outlook/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati