intelligenza artificiale

La sfida dei data center: alimentare l’AI senza distruggere il pianeta



Indirizzo copiato

Le Big Tech investono miliardi in data center e infrastrutture energetiche per alimentare l’intelligenza artificiale. Una corsa che solleva interrogativi sulla sostenibilità ambientale e sociale, tra consumi elettrici, risorse idriche e impatti sulle comunità locali e sugli equilibri geopolitici

Pubblicato il 26 set 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



green data center AI e sostenibilità; impatto ambientale data center; fornitori data center; on premise cloud data center data center sostenibili; data center nucleare

L’intelligenza artificiale sta ridefinendo non solo il futuro digitale, ma anche quello energetico e ambientale. La costruzione di data center sempre più grandi e affamati di risorse rende evidente come la tecnologia sia ormai al centro di equilibri globali delicati.

La nuova corsa globale ai data center

Quest’anno verrà probabilmente ricordato come il “punto di non ritorno” nella storia della digitalizzazione globale.

Mai prima d’oggi la società umana si è trovata a investire così tanto, così rapidamente e con obiettivi tanto ambiziosi nell’infrastruttura tecnologica (ed energetica) necessaria a sostenere l’ascesa incontrollabile dell’Intelligenza Artificiale.

Il motivo di questa accelerazione è semplice nella forma ma dirompente nella sostanza: la convinzione dei grandi attori tecnologici che “intelligenza” significhi, sempre più letteralmente, “potenza computazionale su scala”, ovvero enormi quantità di dati processati e modelli resi possibili da data center mastodontici e asset energetici dedicati.

Quella che inizialmente era percepita come una “bolla” nel settore dell’Intelligenza Artificiale, con Wall Street all’inizio del 2025 in allarme per il rischio che l’efficienza di nuovi modelli cinesi come DeepSeek potesse rendere obsoleti gli investimenti nelle costose GPU Nvidia[1], si è rapidamente dissolta. Oggi, quando siamo nel vivo della seconda metà dell’anno, la “frenesia dell’Intelligenza Artificiale” è più intensa che mai, e la competizione globale ha appena iniziato a farsi serrata.

Gli investimenti record delle big tech

Secondo le più recenti stime di Gartner, società a stelle e strisce che si occupa di consulenza strategica, ricerca di mercato e analisi nel campo della tecnologia dell’informazione, nel 2025 saranno investiti, solo in nuove infrastrutture data center, circa 475 miliardi di dollari, ossia più del 42% rispetto all’anno scorso. I piani annunciati da Microsoft, Alphabet (Google), Amazon e Meta spingono oltre ogni precedente, con uno scenario di oltre 300 miliardi dollari di investimenti solo per questi colossi Big Tech. La statunitense McKinsey & Company, società di consulenza strategica, ha previsto ad aprile scorso che saranno necessari fino a 5.200 miliardi di dollari di investimenti da qui al 2030 per mantenere il passo della domanda stimata, mentre il ritmo attuale sembra persino destinato ad accelerare.

Basti pensare che Meta ha dichiarato di voler destinare “centinaia di miliardi di dollari” solo alla ricerca e allo sviluppo di “super-intelligenze”, ragionando esclusivamente in termini di colossali data center in grado di coprire l’area di intere città. Uno dei nuovi campus Meta, in fase di progettazione, avrà dimensioni paragonabili al quartiere di Manhattan (New York, USA)[2]. Elon Musk, con la sua società xAI, e Sam Altman per OpenAI, stanno impostando progetti da vari gigawatt ciascuno, e Amazon non è da meno con le proprie partnership strategiche.

GPU e architettura dei nuovi data center

Non è solo una questione di scala, ma anche di trasformazione qualitativa. Il cuore dell’infrastruttura non è più la CPU ma la GPU, ovvero schede grafiche iper-evolute come quelle prodotte da Nvidia: la loro capacità di elaborare calcoli in parallelo le rende oggi indispensabili per addestrare modelli di deep learning e per i processi di inferenza, ossia l’applicazione pratica dei modelli di Intelligenza Artificiale su nuove informazioni).

Le strutture fisiche, all’interno di un data center, dove vengono impilati e alloggiati server specializzati dotati di GPU di ultima generazione, richiede almeno dieci volte la potenza rispetto a quelli utilizzati per il web tradizionale; addirittura, l’architettura degli edifici sta cambiando: oggi il settanta percento dello spazio di un data center viene “rubato” dalle apparecchiature di alimentazione e raffreddamento, riducendo la percentuale riservata ai server veri e propri. Questa trasformazione ha portato i principali provider cloud (come Microsoft, Amazon AWS e Google Cloud) a sviluppare dei cluster giganti di data center (insieme di data center interconnessi) in grado di ospitare centinaia di migliaia di GPU, lavorando in sinergia per addestrare i modelli più avanzati. Luoghi statunitensi come la Virginia (la famosa “Data Center Alley”), il Texas, la Georgia o l’Arizona sono diventati veri e propri snodi globali del calcolo di Intelligenza Artificiale grazie a politiche di incentivi e accesso facilitato a energia, terra e connettività transoceanica.

Energia e acqua: i veri colli di bottiglia

Mai come oggi il vero collo di bottiglia della rivoluzione dell’Intelligenza Artificiale e, in parte, anche la sua minaccia sistemica, è la disponibilità energetica.

Stime recenti indicano che i data center statunitensi potrebbero assorbire tra il 7% e il 12% di tutta l’energia prodotta nel paese entro il 2028, rispetto al 3% circa attuale. A livello globale, secondo l’International Energy Agency, si passerà da circa 415 TWh nel 2024 a oltre 945 TWh annuali nel 2030 – un consumo comparabile a quello del Giappone o molti altri Stati industrializzati. Nessuna delle grandi compagnie tecnologiche intende affidarsi esclusivamente al mercato spot dell’energia: Microsoft, ad esempio, sta collaborando con Constellation Energy per riattivare la centrale nucleare Three Mile Island in Pennsylvania[3], mentre Meta e Amazon siglano accordi diretti pluriennali con fornitori di rinnovabili e nucleare. In alcuni casi sono state avviate anche partnership per piccole centrali modulari nucleari, e in aree dove necessità e urgenza lo impongono non si è esitato a ricorrere perfino a generatori a gas temporanei, con ovvi impatti ambientali locali.

L’altro grande “convitato di pietra” è il consumo idrico, diretto e indiretto. Nel 2023, i data center americani hanno consumato circa 55 miliardi di litri d’acqua per il raffreddamento diretto degli impianti, cui si aggiungono altri 800 miliardi di litri di “acqua virtuale” necessaria a produrre l’energia consumata. Quella che era considerata un’attività “astratta” e immateriale come l’informatica, è oggi una delle principali cause di pressione su risorse come acqua e suolo, tanto che le proteste locali stanno aumentando: in stati aridi come Arizona o Texas, ma anche in aree della Georgia, le comunità locali lamentano esaurimento delle falde, danni ai pozzi e crescita dei costi idrici a livello di contea, con ipotesi di razionamento già ventilate dagli amministratori locali.

Le aziende stanno rispondendo in parte con innovazioni tecnologiche: molte stanno adottando sistemi di raffreddamento a circuito chiuso (“chillers” che riciclano l’acqua invece di disperderla come nelle torri evaporative), altri impiegano l’acqua di mare (come il centro Start Campus in Portogallo[4]), mentre l’ultimo trend riguarda il cosiddetto “direct-to-chip cooling”, in cui il liquido refrigerante attraversa direttamente piastre metalliche applicate a ciascun chip, ottimizzando la dissipazione termica ma rendendo l’infrastruttura progettualmente ancora più complessa e costosa[5].

Una competizione geopolitica senza confini

Se gli Stati Uniti restano i grandi protagonisti nei cluster computazionali, la competizione si è fatta globale e, soprattutto, politica. La Cina, negli ultimi anni, ha promosso la costruzione di grandi data center perfino nelle regioni più remote (Xinjiang, Mongolia Interna), favorendo il nascere di nuovi hub anche nel Sudest asiatico, come in Malesia. Il tutto spinto dalla volontà strategica di non dipendere da fornitori e standard occidentali, benché le restrizioni all’export verso la Cina delle GPU più avanzate costituiscano ancora un freno importante sulla crescita locale delle prestazioni dell’Intelligenza Artificiale.

Anche il Medio Oriente, con Emirati e Arabia Saudita, ha avviato investimenti miliardari per creare “AI Factories” di nuova generazione, spesso alimentate da idrocarburi (che non mancano) e risorse nucleari locali.

Nel Vecchio Continente, invece, l’Unione Europea ha annunciato 200 miliardi di euro di fondi per costruire cinque “gigafactory” dell’Intelligenza Artificiale, nel tentativo di non rimanere ai margini di una partita globale che appare ogni giorno più decisiva per il futuro economico e strategico del continente.

I limiti dello scaling e il futuro incerto

Tutta questa frenesia solleva domande non banali sull’effettiva sostenibilità – economica, ambientale e sociale – di una crescita che sembra non conoscere pause: Nvidia ha annunciato che tra due anni il suo “Rubin Ultra” porterà oltre 500 GPU in un solo rack da 600kW (una potenza sufficiente ad alimentare un piccolo quartiere), e OpenAI sogna infrastrutture da oltre 10GW – cifre enormi anche rispetto a molte reti regionali.

Gli analisti più cauti avvertono che la legge dello scaling (più dati e più potenza = più intelligenza) potrebbe non essere infinita: l’Intelligenza Artificiale potrebbe incontrare limiti pratici e tecnici, o essere superata da nuove strategie a minore impatto. Intanto, la pressione sulle reti elettriche locali rischia blackout o squilibri sistemici, mentre il fabbisogno idrico e i rischi ecologici restano ancora non pienamente quantificati. C’è chi, come Sasha Luccioni (ricercatrice presso Hugging Face), parla di una “allucinazione collettiva”: un’intera industria lanciata in una corsa a costruire data center sempre più grandi, senza fermarsi a domandarsi veramente perché, e se sia la strada migliore per massimizzare beneficio sociale e innovazione.

In definitiva, quella che oggi si combatte nel mondo tecnologico non è solo la battaglia per il predominio dell’Intelligenza Artificiale, ma soprattutto quella per il controllo delle risorse energetiche e della capacità di orchestrare infra­strutture che, per la prima volta nella storia della rete, hanno implicazioni materiali e geopolitiche enormi. Le Big Tech si comportano sempre più come aziende di un settore industriale pesante, non come “servizio” immateriale: il futuro del calcolo sarà anche il futuro dell’energia, dell’acqua, dell’ambiente. La sfida sarà riuscire a bilanciare la promessa di super-intelligenza e progresso con la necessità di restare entro limiti planetari gestibili, senza produrre nuove diseguaglianze o tensioni su risorse già a rischio. Le risposte devono venire non solo dalla tecnologia, ma anche da governance pubblica, nuove regole e, forse, una rinnovata cultura del limite e della misura. Quello che accadrà nei prossimi cinque anni potrebbe definire non solo il destino del settore dell’Intelligenza Artificiale, ma una nuova architettura materiale (e spirituale) del mondo digitale e del pianeta stesso.[6][7][8]

Note


[1] La cinese DeepSeek spaventa le big tech americane: Nvidia crolla in pre-market. Forbes. https://forbes.it/2025/01/27/l-ascesa-della-cinese-deepseek-spaventa-i-mercati-nvidia-crolla

[2] Meta to spend hundreds of billions to build AI data centres. BBC. https://www.bbc.com/news/articles/c1e02vx55wpo

[3] Constellation to Launch Crane Clean Energy Center, Restoring Jobs and Carbon-Free Power to The Grid. Constellation. https://www.constellationenergy.com/newsroom/2024/Constellation-to-Launch-Crane-Clean-Energy-Center-Restoring-Jobs-and-Carbon-Free-Power-to-The-Grid.html

[4] How Sustainable is Portugal’s Largest Data Centre? Sustainability Magazine. https://sustainabilitymag.com/articles/about-sin01-start-campus-new-ai-and-hpc-ready-data-centre

[5] Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling. Vertiv. https://www.vertiv.com/en-us/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/

[6] How big tech plans to feed AI’s voracious appetite for power. The Economist. https://www.economist.com/business/2025/07/28/how-big-tech-plans-to-feed-ais-voracious-appetite-for-power

[7] Inside the relentless race for AI capacity. Financial Times. https://ig.ft.com/ai-data-centres/

[8] 2025 Global Data Center Outlook. JLL. https://www.jll.com/en-us/insights/market-outlook/data-center-outlook

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati