L’impatto ambientale dell’intelligenza artificiale è diventato un tema centrale del dibattito globale. Quanta energia consuma un modello come ChatGPT o Gemini? Quanta acqua serve per raffreddare i data center che alimentano la nuova economia dell’AI?
Due studi recenti offrono finalmente dati e prospettive concrete: uno pubblicato su Nature Sustainability e l’altro firmato da Google. Le loro conclusioni raccontano due realtà apparentemente lontane: l’impatto complessivo del settore AI potrebbe diventare colossale, ma il consumo per singolo prompt oggi è sorprendentemente basso.
Indice degli argomenti
Lo studio di Nature Sustainability: il peso dell’infrastruttura
Il paper pubblicato su Nature Sustainability (Environmental impact and net-zero pathways for sustainable artificial intelligence servers in the USA, Xiao et al., 2025) affronta il tema su scala sistemica. Analizza la crescita dei server AI negli Stati Uniti tra il 2024 e il 2030, stimando il consumo di energia, acqua e le emissioni di CO₂ legate ai data center e proponendo percorsi verso la neutralità climatica.
I risultati mostrano numeri imponenti:
- 147–245 terawattora di energia all’anno;
- 731–1.125 milioni di metri cubi d’acqua;
- 24–44 milioni di tonnellate di CO₂ emesse entro il 2030.
Anche nello scenario più ottimistico, l’impatto ambientale resta elevato. Gli autori calcolano che, adottando tecnologie di raffreddamento avanzate, migliorando l’efficienza energetica e localizzando i data center in stati con minore stress idrico (Texas, Montana, Nebraska, South Dakota), si potrebbero ridurre le emissioni fino al 73% e il consumo d’acqua dell’86%. La conclusione è chiara, la sostenibilità dell’AI dipende non solo dalla tecnologia, ma da scelte infrastrutturali e territoriali.
Il report di Google: quanto consuma davvero un prompt
Il report Measuring the Environmental Impact of Delivering AI at Google Scale (Elsworth et al., 2025) segna una svolta. Per la prima volta una Big Tech pubblica dati diretti sull’impatto ambientale dei propri modelli in produzione, nello specifico Gemini Apps, l’assistente AI integrato nei servizi Google.
Il dato chiave è sorprendente:
- 0,24 Wh di energia per prompt testuale;
- 0,03 grammi di CO₂;
- 0,26 millilitri d’acqua (circa cinque gocce).
Jeff Dean, Chief Scientist di Google, spiega che si tratta di una misurazione full stack: include i chip TPU (58% del consumo), CPU e memoria (25%), server inattivi per garantire affidabilità (10%) e il raffreddamento dei data center (8%). Google afferma inoltre di aver ridotto di 33 volte il consumo energetico per prompt tra maggio 2024 e maggio 2025 grazie a miglioramenti architetturali (Mixture of Experts), ottimizzazioni software e data center alimentati da energia rinnovabile con PUE medio di 1,09. In altre parole, secondo Google, generare testo con Gemini consuma quanto un secondo di microonde.
La questione della trasparenza dei dati
Il MIT Technology Review, che ha pubblicato in esclusiva i commenti di Jeff Dean, ha definito il report “la stima più trasparente mai fornita da una grande azienda tecnologica”. Ma la rivista sottolinea anche un limite cruciale: Google decide cosa mostrare e cosa no. Mancano infatti dati fondamentali come il numero complessivo di query giornaliere, che permetterebbero di calcolare l’impatto totale. Inoltre, Google utilizza un calcolo market-based (che considera i crediti per energia rinnovabile) invece di un approccio location-based fondato sul mix reale delle reti elettriche. Secondo Mosharaf Chowdhury, docente all’Università del Michigan, questo resta comunque un passo importante: solo le aziende, con accesso diretto alle proprie infrastrutture, possono fornire misurazioni affidabili. Tuttavia, Sasha Luccioni (Hugging Face) ricorda che serve un AI Energy Score, uno standard pubblico che renda comparabili i dati tra operatori, come le etichette energetiche per gli elettrodomestici.
Due visioni complementari: efficienza e paradosso di Jevons
I due studi non si contraddicono: guardano lo stesso fenomeno da prospettive opposte.
- Nature fotografa l’impatto complessivo del sistema industriale e infrastrutturale dell’AI.
- Google misura il gesto quotidiano dell’utente, mostrando che l’unità di consumo è minima.
Ma se moltiplichiamo quei millesimi di wattora per miliardi di prompt, l’effetto cumulativo torna significativo. L’efficienza per unità non garantisce sostenibilità complessiva, se l’utilizzo cresce più rapidamente dei progressi tecnologici. È il cosiddetto paradosso di Jevons, più un sistema diventa efficiente, più tende a essere usato. Il paradosso di Jevons, formulato dall’economista inglese William Stanley Jevons nel 1865, descrive questo fenomeno: migliorare l’efficienza di una tecnologia non riduce necessariamente il suo consumo complessivo, anzi spesso lo aumenta. Jevons osservò che, con l’introduzione di macchine a vapore più efficienti, il consumo di carbone in Inghilterra non diminuiva, ma cresceva. La ragione era semplice, l’efficienza rendeva l’uso del carbone più economico e conveniente, favorendo una maggiore adozione della tecnologia.
Applicato all’intelligenza artificiale, il paradosso suggerisce che rendere i modelli AI più efficienti o “green” potrebbe incentivare un uso ancora più esteso della tecnologia, moltiplicando il numero di richieste, applicazioni e data center. In altre parole, l’efficienza per unità non garantisce sostenibilità complessiva: serve anche una governance dell’uso e una pianificazione delle infrastrutture per evitare che il risparmio energetico per singola operazione si traduca in un consumo globale più elevato.
Verso una governance della sostenibilità AI
Il confronto tra i due studi evidenzia una verità semplice ma cruciale, la sostenibilità dell’AI non è solo questione di modelli efficienti, ma di governance dell’infrastruttura e trasparenza dei dati. Le istituzioni dovranno promuovere standard comuni e indicatori verificabili, per evitare che ogni azienda scelga metriche proprie. La localizzazione dei data center, le fonti energetiche, l’efficienza dei sistemi di raffreddamento e la gestione delle acque diventeranno scelte strategiche tanto quanto la potenza di calcolo. L’AI non è intrinsecamente “pulita” o “sporca”. È un moltiplicatore: amplifica le scelte di chi la progetta, la regola e la utilizza. Solo unendo le due prospettive, quella macro dello studio accademico e quella micro del dato operativo, possiamo capire quanto davvero costi, in energia e risorse, questa rivoluzione.
Box di sintesi
| Aspetto | Studio Nature (Xiao et al.) | Studio Google (Elsworth et al.) |
| Scala | Infrastruttura nazionale USA | Singolo prompt Gemini Apps |
| Energia | 147–245 TWh/anno entro 2030 | 0,24 Wh per prompt |
| CO₂ | 24–44 Mt/anno entro 2030 | 0,03 g per prompt |
| Acqua | 731–1.125 mln m³/anno | 0,26 mL per prompt |
| Riduzioni possibili | Fino a -73% CO₂, -86% acqua | 33x efficienza energetica (2024–2025) |
| Metodo | Proiezione scenariale e localizzazione | Misurazione diretta full stack |
| Criticità | Basato su simulazioni e ipotesi | Dati parziali, metriche aziendali |
Sostenibilità dell’AI, una questione (anche) politica
La convergenza di queste analisi ci dice che la sfida ambientale dell’AI non è solo tecnica, ma politica. Efficienza e crescita devono coesistere con trasparenza e governance. In un futuro di miliardi di interazioni al secondo, capire quanto pesa davvero un prompt è il primo passo per rendere sostenibile la prossima rivoluzione industriale digitale. In attesa della prossima architettura, della Quantum AI e dei nuovi modelli che potrebbero definire uno scenario diverso.












