l’analisi

L’AI consuma il pianeta: la guerra nascosta per energia e potere digitale



Indirizzo copiato

Dietro l’apparente immaterialità dell’AI si nasconde una complessa infrastruttura logistica ed energetica. L’addestramento e l’uso dei modelli linguistici consumano enormi quantità di elettricità, acqua e risorse, rendendo il potere computazionale un elemento critico delle economie avanzate

Pubblicato il 2 set 2025

Luca Baraldi

European Digital SME Alliance

Robert Hassan

Senior partner Alé Comunicazione



tecnologie spaziali ue IA e consumo energetico infrastrutture critiche

L’intelligenza artificiale viene spesso rappresentata come un’intuizione intangibile, un motore computazionale disincarnato, sospeso in maniera imprecisata nella rarefatta astrazione della “nuvola”.

Il lavoro di Marina Otero Verzier, recentemente pubblicato nel libro En las profundidades de las nubes, evidenzia con chiarezza come questa scelta lessicale rappresenti, implicitamente, uno snaturamento della percezione delle infrastrutture dell’economia digitale.

In realtà sarebbe fondamentale promuovere una nuova consapevolezza su quanto ogni algoritmo si appoggi a un’infrastruttura pesante, ogni modello generativo sia un condensato di elettricità, minerali, acqua e uso delle risorse del territorio.

L’ideologia dell’immateriale, in qualche modo, ha contribuito a creare un’illusione strategica: quella di una tecnologia senza attriti, senza implicazioni deteriori, senza vincoli di geografia. Al di là dell’apparente immaterialità, dietro ogni flusso di dati si muove un’intera catena logistica, dietro ogni output generato si accende un impianto, si attiva un sistema di raffreddamento, si trasforma l’equilibrio di una falda acquifera. L’energia che alimenta la trasformazione digitale continua ad essere, oggi, uno dei vettori meno considerati e al contempo più determinanti nella ridefinizione della geopolitica contemporanea.

Confronto tra modelli AI – Consumo per richiesta

ModelloEnergia (Wh)CO₂ stimataAcquaFonte
Gemini~0,24 Wh~0,03 g~0,26 mL (~5 gocce)Dati ufficiali di Google. Riduzioni recenti: –33× (energia), –44× (CO₂).
ChatGPT~0,34 Whn/d (minimi)~0,000085 gal (~1/15 di cucchiaino)Dati condivisi da Sam Altman.
ChatGPT (altre stime)~0,3 Wh~0,15 gFonti indipendenti stimano circa 0,3–0,4 Wh e ~0,15 g CO₂ per query.
ClaudeNessuna informazione disponibile al momento.

Il peso materiale della rivoluzione digitale

Per comprendere la posta in gioco non è più sufficiente semplicemente osservare la crescita esponenziale della data economy, ma bisogna misurarne il peso. Uno studio di Alex de Vries pubblicato su Joule (2023), The growing energy footprint of artificial intelligence, ha stimato che l’addestramento di GPT-3 ha richiesto circa 1.287 MWh, mentre per GPT-4 e i successivi modelli multimodali, questi numeri rischiano di diventare proporzionalmente irrilevanti.

La International Energy Agency ha evidenziato, in uno studio del 2024, come il consumo globale dei data center sia destinato a superare i 1.000 TWh nel 2026, oltrepassando il fabbisogno energetico del Giappone intero. Com’è facile comprendere, questo non è semplicemente un trend tecnologico, ma una mutazione strutturale del metabolismo stesso delle società avanzate. La capacità computazionale si è progressivamente trasformata in una risorsa critica. Come tutte le risorse critiche, è destinata a produrre attriti, ad alimentare conflitti, a generare squilibri.

Possiamo quindi facilmente comprendere come la nuova infrastruttura del potere non sia più solamente la base militare, o l’hub finanziario, ma l’ecosistema nodale dell’infrastruttura computazionale. Dove sono localizzati i grandi cluster GPU? A quale rete elettrica sono collegati? Quale stabilità idrica può garantire la continuità operativa dei data center, anche in aree desertiche, come Arizona o Qatar? A queste domande non possono rispondere i manifesti o le strategie narrative dell’innovazione, ma gli strumenti dell’intelligence e della pianificazione strategica.

Il calcolo come nuova forma di potere geopolitico

Nella nuova cartografia del potere e della competizione geopolitica globale, appare sempre più evidente come il dominio non si eserciti solamente attraverso il possesso delle informazioni, ma attraverso una capacità in evoluzione di processarle, proteggerle e alimentarle costantemente. In questo scenario di centralità strategica del potere computazionale, l’accesso a fonti energetiche affidabili diventa una condizione pregiudiziale per ogni ambizione tecnologica. In maniera tendenzialmente poco evidente, l’asimmetria che si sta configurando è profonda.

Gli Stati che hanno l’ambizione di perseguire una strategia ampia di sovranità digitale dovranno, contestualmente, garantire una condizione di sovranità energetica. In caso contrario, il rischio sarà quello di creare strategie apparenti, incapaci di sostenere realisticamente, nel lungo termine, l’autonomia infrastrutturale e decisionale. Le grandi potenze tech – USA e Cina in testa – hanno già compreso in maniera molto chiara questa logica: l’infrastruttura alla base dell’AI non si costruisce quindi solamente con capitale e talento, ma con un accesso garantito, stabile, continuativo all’energia. E a risorse minerarie e idriche in quantità sempre più rare e complesse da gestire.

Nell’articolo Il peso invisibile del marzo 2025, su Atlantis Magazine, un’intervista a Otero Verzier fa affiorare con evidenza questa condizione: l’equilibrio computazionale globale sarà determinato non soltanto dal volume dei dati, ma da quella che potremmo definire come condizione di sostenibilità termodinamica. Dovremmo quindi imparare ad analizzare con occhi diversi una competizione silenziosa per il controllo delle rotte digitali-energetiche.

La digitalizzazione è divenuta, in breve tempo, una estensione della competizione strategica tra macro-aree di influenza: ciò che ieri potevano rappresentare gli oleodotti, oggi lo rappresentano i data center scalabili.

Scenari strategici e simulazioni per la sostenibilità dell’AI

Proprio sull’interdipendenza tra politiche energetiche, politiche digitali e competizione globale, nel febbraio 2025 FP Analytics e World Governments Summit hanno condotto, a Dubai, un esercizio di simulazione strategica, con diplomatici, militari, manager, NGOs e rappresentanti di governi e organizzazioni sovranazionali. Delineando contesti ipotetici, proiettati negli anni 2027, 2029 e 2032, hanno tentato di configurare scenari critici, per pianificare in maniera equilibrata, sostenibile e governabile le esigenze di crescita dell’AI con condizioni di sicurezza energetica e di sostenibilità sistemica.

La simulazione ha fatto emergere, con drammatica chiarezza, che qualsiasi piano strategico che ignori fattori imprevisti – come ritardi nel funzionamento e nell’implementazione delle infrastrutture di rete, crisi idriche, tensioni sociali locali, attacchi informatici o tensioni geopolitiche – sarà destinato a fallire. Anche scenari plausibili e più facilmente prevedibili (ad esempio “cosa succederebbe se la metà dei cluster cadesse per un blackout?”) generano effetti a cascata di impatto sistemico: dall’accettazione di sistemi di dipendenza imprudente, a collassi regionali, fino a più ampi processi di escalation diplomatica.

Il messaggio è quindi molto chiaro: non è più sufficiente pianificare su scenari lineari o su variabili ordinarie (più facilmente prevedibili), ma serve abilitare ed introdurre un’intelligence strategica che sappia tracciare, elaborare e stressare modelli complessi, capaci di includere variabili “fuori dalla curva”, allargando lo sguardo al contesto ampio, considerando variabili di tipo energetico, geopolitico, climatico. L’approccio previsionale deve quindi uscire dalla nicchia e diventare vero e proprio prerequisito decisionale, perché la competizione basata sull’interdipendenza AI-energia non tollererà negligenze.

Una strategia sistemica tra digitale, energia e sostenibilità

La dicotomia apparente tra innovazione digitale e transizione energetica è da considerarsi ormai insostenibile, mentre occorrerebbe imparare a considerare questi due mondi come facce di un’unica sfida geopolitica. Lo segnala chiaramente il Strategic Foresight Report della Commissione Europea, che già nel 2023 definisce essenziale il riconoscimento del legame tra digitalizzazione ed eco-transizione, per salvaguardare condizioni di competitività, resilienza e autonomia strategica («together with its twin, the digital transition, the green transition requires pivotal changes and trade-offs», p. 5).

Il World Economic Forum, che da anni promuove una riflessione approfondita sul tema, ha pubblicato, nel gennaio 2025, il white paper Artificial Intelligence’s Energy Paradox: Balancing Challenges and Opportunities, redatto in collaborazione con Accenture. Tra i tanti temi emergenti, il report consolida e in qualche modo riorganizza tante delle sfaccettature del rapporto tra economia digitale e politiche energetiche, cercando una strategia sostenibile e realisticamente implementabile:

  1. Pianificazione integrata (e predittiva): le roadmap digitali devono essere disegnate ed implementate in sinergia con gli scenari energetico-climatici e con le politiche di settore, considerando la variabilità delle infrastrutture e dei contesti (dal water stress ai cambiamenti climatici nelle diverse aree geografiche).
  2. Ottimizzazione bidirezionale AI-energia: l’AI, se opportunamente adottata ed implementata, potrebbe ridurre i consumi elettrici in percentuali variabili dal 10 al 60% in settori strategici – dalla smart energy al manufacturing – se indirizzata da policy intelligenti e accompagnata da un’azione politica estesa di literacy strategica.
  3. Design sostenibile e integrato delle infrastrutture ICT: occorre ripensare le strategie di innovazione digitale in maniera fortemente correlata alle prospettive di pianificazione territoriale, di implementazione infrastrutturale e di uso intelligente delle risorse. Le raccomandazioni del white paper includono acceleratori hardware low-power, la creazione di data center nelle aree a clima freddo e con accesso diretto a rinnovabili. In generale, il design sostenibile deve diventare parte integrante – imprescindibile – della strategia sistemica.
  4. Ecosistemi collaborativi multi-stakeholder: occorre favorire una nuova riflessione partecipativa, multi-stakeholder e multi-livello, per identificare i trade-off reali e per definire benchmark condivisi su una visione integrata e sostenibile di interdipendenza tra AI (data economy in generale) ed energia.

Queste indicazioni richiedono strategie di implementazione concrete, scandite da misure azionabili, nei diversi settori coinvolti, in maniera diretta, misurabile e governabile: dalla produzione di roadmap nazionali connesse (i piani di AI devono essere sviluppati congiuntamente alle strategie di sostenibilità elettrica) alla localizzazione strategica dei data center, dall’implementazione di una normativa green AI vincolante a modelli di finanza strategica sovrana, i meccanismi attivabili sono potenzialmente tanti, ma richiedono un’armonizzazione tra le diverse concezioni di sovranità, autonomia strategica e competitività.

Infine, soprattutto, occorre affrontare la sfida con un radicale cambio culturale: occorre accogliere e favorire l’adozione di una mentalità da co-infrastruttura strategica. Imprese e governi devono definire uno spazio di dialogo che permetta di adottare una intelligence aziendale sostenibile, ossia di integrare nei KPI tradizionalmente considerati non solo fatturato e tassi di adoption e utilizzo dell’AI, ma anche consumo energetico, footprint idrico e resilienza alle eventuali fragilità critiche di natura ambientale o instabilità strategiche di natura geopolitica. In questo modo si può davvero trasformare il digitale, da condizione sistemica di vulnerabilità latente in leva pervasiva di autonomia strategica e di accelerazione competitiva; a condizione, però, di saperne prevedere, progettare ed implementare la stabilità, la sostenibilità e l’adattabilità a sistemi in costante evoluzione, e di avere la lungimiranza di pianificare non solo per i bit, ma per l’intero ecosistema che li alimenta.

Il mito dell’AI come unica causa della crisi energetica

Riteniamo tuttavia fondamentale evidenziare, come spesso succede, una semplificazione progressiva del tema negli spazi del dibattito pubblico: si parla dell’AI come se fosse il principale responsabile – se non addirittura l’unico rilevante – della pressione crescente sull’ambiente. Si demonizzano in maniera generalizzata i modelli linguistici, i data center di ultima generazione, le GPU che bruciano megawatt, collegandoli esclusivamente alla filiera dell’AI. Se la analizziamo con attenzione, appare evidente come questa mitologia serva più a deresponsabilizzare un intero sistema che a comprenderne davvero le dinamiche.

Il vero nodo strategico non è semplicemente la sostenibilità dell’AI, ma quella dell’intera infrastruttura digitale globale. La logica di corrispondenza tra data-driven e value-enablement (“più dati = più valore”), il ciclo infinito e necessario di aggiornamenti software, la moltiplicazione e la ridondanza dell’informazione online, l’iperproduzione di contenuti digitali, sono tutti fattori che contribuiscono a costruire un metabolismo energetico fuori scala, in accelerazione costante. Secondo le analisi del report Lean ICT: Towards Digital Sobriety (2019), pubblicato da The Shift Project, think tank francese specializzato nell’evoluzione delle politiche energetiche, tra 2010 e 2019 il tasso di crescita dell’intensità energetica nel settore ICT corrispondeva al 4% annuo, a fronte di un’evoluzione media negli altri settori dell’1,8%. Com’è facile capire, ben prima dell’aumento esponenziale d’implementazione ed uso dell’AI, il digitale portava con sé problematiche raramente considerate.

Potremmo affermare che l’isolamento dell’IA come unico colpevole è una vera e propria strategia di distrazione. I sistemi di assistenza vocale, gli algoritmi pubblicitari, le piattaforme di streaming, i social media con formati di auto-play infinito, le riunioni video sempre accese: tutto contribuisce ad alimentare una forma di bulimia computazionale, spesso giustificata come il fisiologico costo del “normale progresso”. In questa cornice, tuttavia, la domanda più scomoda diventa quindi inevitabile, a livello sociale, economico e strategico: quali usi del digitale vogliamo davvero sostenere nel lungo periodo? Siamo in grado di riconoscere, monitorare, comprendere e indirizzare gli eventuali costi occulti?

Anche gli investimenti nei settori dell’AI considerata “green” rischiano di diventare semplice greenwashing, se non accompagnati da una comprensione chiara delle filiere e da un ridimensionamento critico della domanda complessiva. A cosa serve un LLM più efficiente, se viene interrogato milioni di volte in maniera inefficace – potremmo dire, addirittura, distratta – per generare contenuti inaccurati o non essenziali, o per replicare funzioni o contenuti già esistenti?

Per quanto possa suonare difficile, le strategie digitali sovrane, per poter risultare credibili, dovrebbero assumere una postura “adulta” e sistemica, uscendo da una logica adrenalinica di implementazione inconsapevole, di adoption non strategica, di accelerazione acritica. Non è possibile progettare un’architettura dell’intelligenza artificiale sostenibile senza mettere in discussione le fondamenta stesse – tecnologiche, culturali e comportamentali – su cui la sua diffusione si poggia: l’economia dell’attenzione, la logica estrattiva del dato, la crescita esponenziale dei flussi di informazione digitale.

L’IA non è la crisi, ma lo specchio. E ciò che riflette è una macchina più ampia, a cui abbiamo permesso di funzionare in maniera sempre più diffusa e totalizzante, senza mai chiederci realmente a quale prezzo.

Verso un uso responsabile e tracciabile dell’AI

In generale, l’AI non può più essere pensata semplicemente come una tecnologia di servizio, o un elemento di tradizionale evoluzione digitale. È diventata, a tutti gli effetti, un fattore di trasformazione del contesto sistemico. E ogni contesto sistemico trasformato da una tecnologia richiede, necessariamente, un ripensamento di una cultura dell’uso. Non basta più, quindi, semplicemente cercare di ottimizzare l’efficienza tecnica. Serve riflettere e ripensare una nuova responsabilità strategica. Tra i tanti accorgimenti, se ne segnalano alcuni, in parte di cambiamento strutturale (di politica o di policy organizzativa) e in parte di scelta comportamentale:

  • trasparenza energetica: ogni richiesta computazionale dovrebbe essere tracciabile. I principali modelli di AI dovrebbero pubblicare metriche di consumo trasparenti e monitorabili (energia, acqua, emissioni), legate a ogni ciclo di training e ogni processo di inferenza. Esistono già strumenti, come ML CO2 Impact, che potrebbero favorire una maggiore consapevolezza sull’impatto dell’uso, ma sarebbe necessario introdurre un’abitudine ad una maggiore maturità di interazione (ad esempio, con i sistemi di AI generativa).
  • Proporzionalità d’uso: l’uso della potenza di calcolo dovrebbe essere subordinato a criteri di valore reale. Occorrerebbe introdurre logiche di priorità strategica, differenziando tra usi critici e usi accessori. In questo, ad esempio, l’esperienza della gestione energetica in ambito militare potrebbe offrire modelli scalabili e facilmente traducibili.
  • Efficienza e manutenzione: i modelli di aggiornamento continuo e di retraining sistematico sono sostanzialmente incompatibili con un’economia energetica di lungo periodo. Occorrerebbe incentivare pratiche di “intelligenza sufficiente”, trasferendo la responsabilità del valore generativo alla maggiore consapevolezza d’uso, anziché all’accelerazione tecnologica costante, estendendo il ciclo di vita degli algoritmi e promuovendo ottimizzazioni intelligenti (quantizzazione, pruning, retraining incrementale).
  • Responsabilità collettiva e formazione mirata: i policy maker, i decisori pubblici, i manager, gli sviluppatori dovrebbero essere formati all’intersezione e all’interdipendenza tra tecnologia, energia e strategia. Servono nuove competenze, capaci di ibridare cultura ingegneristica, visione geopolitica, trasformazione sociale e sostenibilità.
  • Strategia adattiva e scenarizzazione: ogni decisione relativa all’adozione di AI dovrebbe essere sottoposta a stress test strategici e simulazione di scenari futuri. Quale sarà la pressione energetica tra cinque anni? Quali potranno essere – e come potranno cambiare – le rotte di approvvigionamento disponibili? Quali sono e quali saranno le vulnerabilità in caso di crisi climatica o di cyber-attacco infrastrutturale?

La necessità di una governance sovrana dell’intelligenza artificiale

La convergenza sempre più marcata ed interconnessa tra potenza computazionale e disponibilità energetica rappresenta la nuova linea di potenziale frattura strategica del XXI secolo. L’AI, nel suo stato attuale, non può più essere solo considerata come una tecnologia, ma come un’infrastruttura critica, un moltiplicatore di potere, un potenziale acceleratore di sistemi di dipendenza. Evidentemente, come tutte le infrastrutture critiche, dovrebbe esigere una gestione sovrana e lungimirante.

La crescente dipendenza dei modelli di AI da sistemi energetici ad alta densità e risorse idriche ha già iniziato a influenzare, in maniera ancora scarsamente visibile, le scelte strategiche dei grandi attori geopolitici. La Cina, ad esempio, ha inserito nel suo Piano Quinquennale un’esplicita integrazione tra sviluppo dell’AI e obiettivi di efficienza energetica, con un focus su smart grids, calcolo sostenibile e sostenibilità strategica. Negli Stati Uniti, come evidenziato in un report del Dipartimento dell’Energia del 2024, il fabbisogno energetico generato dalla data economy sta modificando la morfologia della competitività federale, alimentando una vera e propria corsa tra Stati, nel perseguimento di strategie di sostenibilità e competitività energetica, con lo scopo di attrarre investimenti e poli tecnologici. Anche l’India, attraverso la strategia multisettoriale e multicanale Digital India, sta vincolando lo sviluppo di data center a nuovi standard ambientali e logiche di interdipendenza territoriale, favorendo, soprattutto, l’adozione dell’AI come motore di efficientamento energetico e di rafforzamento dell’autonomia strategica territoriale.

L’Europa, dal lato suo, pur con iniziative lungimiranti ma apparentemente disorganiche, come l’AI Act e il Green Deal, non ha ancora identificato veri assi di sviluppo programmatico per articolare una visione integrata di settore, capace di collegare AI, sicurezza energetica, autonomia strategica e resilienza sistemica. Mai come oggi serve una dottrina europea della computazione sostenibile, che esprima davvero una strategia di lungo respiro, in grado di tenere insieme sicurezza, autonomia industriale, competitività economica e giustizia ambientale.

Alcune suggestioni per stimolare la riflessione:

  • la possibilità di inserire l’AI, in maniera sempre più disciplinata, tra le tecnologie energivore, da monitorare in modo obbligatorio nei reporting ESG;
  • la creazione di modelli di stress test per i principali cluster di calcolo, come avviene per quelli bancari, per valutarne la resistenza a crisi energetiche o cyberattacchi;
  • la possibilità di istituire un vero e proprio sistema di licenze per i modelli di AI più avanzata, legato a metriche certificate – o certificabili – di impatto ambientale;
  • l’implementazione di corridoi geopolitici computazionali protetti, integrati in maniera strutturale con reti energetiche resilienti e sostenibili.

La strategic intelligence, oggi, dovrebbe imparare ad interrogare i bit esattamente come oggi interroga le pipeline. Ogni byte generato, se ampliato e moltiplicato su scala planetaria, può diventare una questione di sicurezza collettiva. Ogni data center costruito senza una pianificazione energetica integrata deve essere considerato come un punto cieco del futuro. Com’è evidente, non si tratta più soltanto di immaginare scenari possibili, ma di acquisire la capacità di progettare scenari desiderabili, energeticamente sostenibili. L’intelligenza artificiale potrà sempre più essere considerata ed utilizzata come un asset di difesa, o uno strumento di governance, o ancora una leva per la transizione e la competitività. Ma potrà avvenire solo se impareremo a governarne la massa critica.

Senza misura della sostenibilità e della resilienza tecnologica, senza capacità di misurarne l’impatto, non ci può essere strategia. E senza visione strategica, ogni progresso tecnologico rischierà di essere semplicemente un’illusione. Mediaticamente accattivante, strategicamente persuasiva, tecnologicamente costosa, e profondamente instabile.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati