La Microsoft AI Superfactory non è un semplice progetto di espansione cloud, ma il tentativo di trasformare i data center in vere fabbriche dell’intelligenza artificiale.
Fairwater, il campus che Satya Nadella cita sempre più spesso, è il primo laboratorio industriale di questa nuova scala.
Indice degli argomenti
La visione di Microsoft: dall’infrastruttura alla fabbrica dell’IA
Quando Satya Nadella, CEO di Microsoft, parla di Fairwater, non parla di un data center come gli altri. Parla di una vera e propria fabbrica dell’IA: un luogo dove i modelli non solo vengono eseguiti, ma vengono costruiti.
Fairwater 2, ad Atlanta, è il primo sito operativo di questa nuova architettura e rappresenta oggi la più potente infrastruttura dedicata all’AI in funzione. Entrato in attività nell’ottobre 2025, segna l’avvio di quella che Microsoft ha battezzato AI Superfactory.
Dietro questa definizione c’è un’idea precisa. Fairwater non è un singolo edificio, ma un ecosistema di campus connessi – dalla Georgia al Wisconsin – che operano come un unico supercomputer distribuito, collegato da una rete privata da 1 petabit al secondo. È la spina dorsale fisica su cui si addestrano e si eseguono i modelli che alimentano Copilot, Azure OpenAI e, più in generale, l’intero ecosistema di intelligenza artificiale Microsoft. Ogni sito può passare in pochi minuti dall’addestramento alla generazione di dati o all’inferenza, riconfigurando dinamicamente le risorse.
Obiettivi e numeri della superfabbrica di Atlanta
L’obiettivo dichiarato è ambizioso: moltiplicare per dieci la capacità di training ogni 18-24 mesi, mantenendo un equilibrio fra efficienza energetica, densità e costi.
Le dimensioni raccontano meglio di qualunque slogan la portata dell’impresa.
Fairwater 2 occupa oltre 140 000 m² – più di venti campi da calcio coperti – e ospita centinaia di migliaia di GPU collegate da cinque milioni di connessioni ottiche. Ogni rack consuma fino a 140 kW, circa dieci volte un rack cloud tradizionale, e ogni fila supera 1,3 MW.
Raffreddamento a liquido e rete globale: l’infrastruttura che connette
L’impianto è a due piani, per ridurre la distanza fisica fra GPU e switch ottici, con un sistema di raffreddamento a liquido chiuso che riutilizza la stessa acqua, sostituendola solo quando necessario. Il consumo idrico iniziale equivale a quello annuo di una ventina di abitazioni, e da allora l’acqua circola in un ciclo continuo.
Le connessioni tra i siti – ad esempio tra Atlanta e Fairwater 4, in Wisconsin – sono gestite da una rete AI WAN che consente di far lavorare region diverse come un unico cluster globale. Quando un carico di training termina o rallenta, la capacità viene riassegnata alla generazione di dati o all’inferenza: nessuna GPU rimane inattiva e il tasso di utilizzo sfiora il 100 %.
Progettare per durare: flessibilità oltre le generazioni di chip
Il principio guida è chiaro: non costruire per una singola generazione, ma per durare nel tempo.
Il rischio più grande, altrimenti, potrebbe essere quello di rimanere bloccati su uno standard.
Oggi la piattaforma si basa sulle GPU Nvidia GB200, ma le prossime versioni – GB300 e Vera Rubin Ultra – porteranno densità di potenza e requisiti di raffreddamento completamente nuovi.
L’idea di base è quella di essere in grado di scalare nel tempo e non fare un’unica scala e restarci intrappolati.
Dietro questa visione c’è la convinzione che il valore dell’IA non risieda solo nei modelli, ma anche – e forse soprattutto – negli strati che li collegano al mondo reale: dati, strumenti e processi. È ciò che Nadella definisce scaffolding.
Excel agent e github agent hq: gli assistenti diventano collaboratori
Proviamo a fare un esempio pratico e comprensibile a tutti.
Excel Agent è una nuova generazione di assistente che non si limita a scrivere formule, ma comprende la struttura del foglio, interpreta i dati e usa nativamente le funzioni dell’applicativo Excel – come fosse un nostro collega esperto – per controllare, correggere e automatizzare. In pratica, non è più un semplice copilota ma un collaboratore digitale che sa usare gli stessi strumenti degli utenti.
La stessa logica guida lo sviluppo di GitHub Agent HQ, la piattaforma che Microsoft sta realizzando per coordinare e osservare il lavoro di più agenti AI contemporaneamente. L’obiettivo è creare un vero e proprio mission control dell’IA: monitorare chi ha generato quale codice, gestire conflitti, revisionare modifiche, fondere contributi di modelli diversi in un unico flusso di sviluppo.
In questo scenario nascono nuove figure professionali: persone in grado di orchestrare e supervisionare sistemi autonomi, con un approccio vicino a quello degli ingegneri di affidabilità dei servizi cloud (Site Reliability Engineer), ma applicato all’intelligenza artificiale.
Il nuovo modello economico: dall’abbonamento al consumo di potenza
Anche il modello economico cambia. L’AI non segue la logica del software tradizionale, dove il costo marginale tende a zero. Addestramento e inferenza sono processi costosi e l’economia dei servizi AI deve tenere conto del consumo di calcolo, memoria ed energia.
Si può parlare di “subscription come diritto di consumo“: un abbonamento non garantisce solo l’accesso, ma una quantità definita di potenza elaborativa, con livelli e priorità diversi. È il passaggio dal SaaS (Software as a Service) a qualcosa che potremmo chiamare IAaaS (Artificial Intelligence as a Service).
Strategia multi-modello: Openai, Microsoft AI e Azure Foundry
Sul fronte dei modelli, Microsoft segue una strategia a piattaforma con due direttrici.
Da un lato utilizza e valorizza i modelli di OpenAI, con esclusiva per le API stateless rivolte a terze parti; dall’altro sviluppa modelli propri con il team Microsoft AI (MAI), guidato da Mustafa Suleyman, co-fondatore di DeepMind, per coprire esigenze specifiche (multimodale, latenze/costi mirati, domini verticali).
Nessuno ha l’idea di voler duplicare il lavoro di OpenAI, quanto usarlo al massimo e investire dove è possibile aggiungere valore.
In parallelo, Azure AI Foundry si comporta come un catalogo e runtime enterprise multi-modello: oggi più di 11.000 modelli (Microsoft, partner e open source) che ciascuna organizzazione può scegliere, combinare e governare nello stesso perimetro di sicurezza, compliance e osservabilità.
Alla fine, il messaggio che si vuole trasmettere è semplice: Microsoft è una società di piattaforma e ciascun cliente può decidere di usare “il meglio disponibile” sul mercato — inclusi modelli non Microsoft — senza uscire dal proprio perimetro enterprise.
Piattaforma aperta e sovranità dei dati: la risposta europea
In questo modo la piattaforma è aperta: si possono usare modelli proprietari, partner, oppure open source, e integrarli con infrastruttura, dati, governance e cicli di vista enterprise.
Anche sul piano infrastrutturale la strategia è la stessa: non crescere per inerzia ma per flessibilità. Microsoft ha temporaneamente rallentato l’espansione di alcune regioni per evitare di diventare un semplice fornitore di capacità per pochi laboratori, mantenendo equilibrio tra training, generazione e inferenza distribuita nel mondo.
Un’altra direttrice di investimento riguarda la sovranità dei dati. Dopo l’introduzione dell’EU Data Boundary, che garantisce che i dati europei restino fisicamente nell’Unione, Microsoft sta realizzando servizi sovereign-by-design con controllo delle chiavi, crittografia confidenziale anche su GPU e cloud nazionali in Francia e Germania. È una risposta alle richieste di fiducia di governi e imprese, ma anche alla consapevolezza che l’AI non può più vivere in un unico perimetro geografico.
Ecosistemi contro modelli: la nuova competizione dell’IA
Quello che viene disegnato è un quadro molto chiaro: la nuova competizione non è tra modelli, ma tra ecosistemi completi. Tra chi sa addestrare, distribuire, integrare e governare.
Sarebbe profondamente sbagliato costruire un’infrastruttura ottimizzata per un solo modello, questo venisse fatto e domani cambiasse l’architettura, il capitale andrebbe chiaramente sprecato.
Il futuro dell’IA non sarà una corsa al modello più grande, ma la capacità di costruire piattaforme che restano utili quando il modello cambia.
Manifattura digitale: conoscenza come vantaggio competitivo
Dietro Fairwater non c’è solo un progetto di ingegneria. C’è una visione industriale: l’intelligenza artificiale come nuova manifattura, con catene di fornitura, standard e regole proprie. Una rivoluzione che, come quella industriale, richiederà anni per diffondersi pienamente, ma che si muove a una velocità mai vista.
Il CEO di Microsoft sintetizza così la trasformazione dell’organizzazione: oggi è un’azienda capital-intensive e knowledge-intensive allo stesso tempo.
Richiede investimenti industriali enormi – data center, chip, reti, energia – ma il vantaggio competitivo non sta solo nelle infrastrutture: sta nella conoscenza che le governa.
In altre parole, non basta costruire potenza computazionale: bisogna saperla orchestrare, misurarla e farla evolvere come un sistema vivo.
Conclusione: costruire sistemi destinati a durare
L’AI Superfactory, a mio avviso, non è marketing: è la nuova manifattura digitale, dove non si forgia acciaio ma si forgia conoscenza. La materia prima non è l’elettricità o il silicio, ma la capacità di integrare modelli, infrastrutture, dati e – anche – fiducia.
In un mondo che insegue la novità del modello successivo, forse è interessante riportare l’attenzione su ciò che davvero conta: costruire sistemi destinati a durare anche quando tutto cambia.
E forse è questo, più di ogni annuncio, il segno del tempo che stiamo vivendo.
Ref: Infinite scale: The architecture behind the Azure AI superfactory
https://blogs.microsoft.com/blog/2025/11/12/infinite-scale-the-architecture-behind-the-azure-ai-superfactory/












