gli studi

AI sostenibile? I numeri reali di energia e acqua consumati



Indirizzo copiato

Due nuovi studi misurano l’impatto ambientale dell’intelligenza artificiale. Dai server americani ai singoli prompt, emergono dati concreti su energia, acqua e CO₂, e una sfida: rendere l’AI efficiente senza aumentare il consumo globale

Pubblicato il 14 nov 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



impatto ambientale dell’AI; dogana digitale; sovranità digitale

L’impatto ambientale dell’intelligenza artificiale è diventato un tema centrale del dibattito globale. Quanta energia consuma un modello come ChatGPT o Gemini? Quanta acqua serve per raffreddare i data center che alimentano la nuova economia dell’AI?

Due studi recenti offrono finalmente dati e prospettive concrete: uno pubblicato su Nature Sustainability e l’altro firmato da Google. Le loro conclusioni raccontano due realtà apparentemente lontane: l’impatto complessivo del settore AI potrebbe diventare colossale, ma il consumo per singolo prompt oggi è sorprendentemente basso.

Lo studio di Nature Sustainability: il peso dell’infrastruttura

Il paper pubblicato su Nature Sustainability (Environmental impact and net-zero pathways for sustainable artificial intelligence servers in the USA, Xiao et al., 2025) affronta il tema su scala sistemica. Analizza la crescita dei server AI negli Stati Uniti tra il 2024 e il 2030, stimando il consumo di energia, acqua e le emissioni di CO₂ legate ai data center e proponendo percorsi verso la neutralità climatica.

I risultati mostrano numeri imponenti:

  • 147–245 terawattora di energia all’anno;
  • 731–1.125 milioni di metri cubi d’acqua;
  • 24–44 milioni di tonnellate di CO emesse entro il 2030.

Anche nello scenario più ottimistico, l’impatto ambientale resta elevato. Gli autori calcolano che, adottando tecnologie di raffreddamento avanzate, migliorando l’efficienza energetica e localizzando i data center in stati con minore stress idrico (Texas, Montana, Nebraska, South Dakota), si potrebbero ridurre le emissioni fino al 73% e il consumo d’acqua dell’86%. La conclusione è chiara, la sostenibilità dell’AI dipende non solo dalla tecnologia, ma da scelte infrastrutturali e territoriali.

Il report di Google: quanto consuma davvero un prompt

Il report Measuring the Environmental Impact of Delivering AI at Google Scale (Elsworth et al., 2025) segna una svolta. Per la prima volta una Big Tech pubblica dati diretti sull’impatto ambientale dei propri modelli in produzione, nello specifico Gemini Apps, l’assistente AI integrato nei servizi Google.

Il dato chiave è sorprendente:

  • 0,24 Wh di energia per prompt testuale;
  • 0,03 grammi di CO;
  • 0,26 millilitri d’acqua (circa cinque gocce).

Jeff Dean, Chief Scientist di Google, spiega che si tratta di una misurazione full stack: include i chip TPU (58% del consumo), CPU e memoria (25%), server inattivi per garantire affidabilità (10%) e il raffreddamento dei data center (8%). Google afferma inoltre di aver ridotto di 33 volte il consumo energetico per prompt tra maggio 2024 e maggio 2025 grazie a miglioramenti architetturali (Mixture of Experts), ottimizzazioni software e data center alimentati da energia rinnovabile con PUE medio di 1,09. In altre parole, secondo Google, generare testo con Gemini consuma quanto un secondo di microonde.

La questione della trasparenza dei dati

Il MIT Technology Review, che ha pubblicato in esclusiva i commenti di Jeff Dean, ha definito il report “la stima più trasparente mai fornita da una grande azienda tecnologica”. Ma la rivista sottolinea anche un limite cruciale: Google decide cosa mostrare e cosa no. Mancano infatti dati fondamentali come il numero complessivo di query giornaliere, che permetterebbero di calcolare l’impatto totale. Inoltre, Google utilizza un calcolo market-based (che considera i crediti per energia rinnovabile) invece di un approccio location-based fondato sul mix reale delle reti elettriche. Secondo Mosharaf Chowdhury, docente all’Università del Michigan, questo resta comunque un passo importante: solo le aziende, con accesso diretto alle proprie infrastrutture, possono fornire misurazioni affidabili. Tuttavia, Sasha Luccioni (Hugging Face) ricorda che serve un AI Energy Score, uno standard pubblico che renda comparabili i dati tra operatori, come le etichette energetiche per gli elettrodomestici.

Due visioni complementari: efficienza e paradosso di Jevons

I due studi non si contraddicono: guardano lo stesso fenomeno da prospettive opposte.

  • Nature fotografa l’impatto complessivo del sistema industriale e infrastrutturale dell’AI.
  • Google misura il gesto quotidiano dell’utente, mostrando che l’unità di consumo è minima.

Ma se moltiplichiamo quei millesimi di wattora per miliardi di prompt, l’effetto cumulativo torna significativo. L’efficienza per unità non garantisce sostenibilità complessiva, se l’utilizzo cresce più rapidamente dei progressi tecnologici. È il cosiddetto paradosso di Jevons, più un sistema diventa efficiente, più tende a essere usato. Il paradosso di Jevons, formulato dall’economista inglese William Stanley Jevons nel 1865, descrive questo fenomeno: migliorare l’efficienza di una tecnologia non riduce necessariamente il suo consumo complessivo, anzi spesso lo aumenta. Jevons osservò che, con l’introduzione di macchine a vapore più efficienti, il consumo di carbone in Inghilterra non diminuiva, ma cresceva. La ragione era semplice, l’efficienza rendeva l’uso del carbone più economico e conveniente, favorendo una maggiore adozione della tecnologia.

Applicato all’intelligenza artificiale, il paradosso suggerisce che rendere i modelli AI più efficienti o “green” potrebbe incentivare un uso ancora più esteso della tecnologia, moltiplicando il numero di richieste, applicazioni e data center. In altre parole, l’efficienza per unità non garantisce sostenibilità complessiva: serve anche una governance dell’uso e una pianificazione delle infrastrutture per evitare che il risparmio energetico per singola operazione si traduca in un consumo globale più elevato.

Verso una governance della sostenibilità AI

Il confronto tra i due studi evidenzia una verità semplice ma cruciale, la sostenibilità dell’AI non è solo questione di modelli efficienti, ma di governance dell’infrastruttura e trasparenza dei dati. Le istituzioni dovranno promuovere standard comuni e indicatori verificabili, per evitare che ogni azienda scelga metriche proprie. La localizzazione dei data center, le fonti energetiche, l’efficienza dei sistemi di raffreddamento e la gestione delle acque diventeranno scelte strategiche tanto quanto la potenza di calcolo. L’AI non è intrinsecamente “pulita” o “sporca”. È un moltiplicatore: amplifica le scelte di chi la progetta, la regola e la utilizza. Solo unendo le due prospettive, quella macro dello studio accademico e quella micro del dato operativo, possiamo capire quanto davvero costi, in energia e risorse, questa rivoluzione.

Box di sintesi

AspettoStudio Nature (Xiao et al.)Studio Google (Elsworth et al.)
ScalaInfrastruttura nazionale USASingolo prompt Gemini Apps
Energia147–245 TWh/anno entro 20300,24 Wh per prompt
CO24–44 Mt/anno entro 20300,03 g per prompt
Acqua731–1.125 mln m³/anno0,26 mL per prompt
Riduzioni possibiliFino a -73% CO₂, -86% acqua33x efficienza energetica (2024–2025)
MetodoProiezione scenariale e localizzazioneMisurazione diretta full stack
CriticitàBasato su simulazioni e ipotesiDati parziali, metriche aziendali

Sostenibilità dell’AI, una questione (anche) politica

La convergenza di queste analisi ci dice che la sfida ambientale dell’AI non è solo tecnica, ma politica. Efficienza e crescita devono coesistere con trasparenza e governance. In un futuro di miliardi di interazioni al secondo, capire quanto pesa davvero un prompt è il primo passo per rendere sostenibile la prossima rivoluzione industriale digitale. In attesa della prossima architettura, della Quantum AI e dei nuovi modelli che potrebbero definire uno scenario diverso.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x