L’intelligenza artificiale generativa è ormai una presenza fissa nella vita quotidiana di milioni di persone: ci aiuta a scrivere testi, risolvere dubbi, generare immagini, sintetizzare documenti e persino a imparare. Ma ci siamo mai chiesti quale sia il costo energetico di questa comodità? Quanto inquina una risposta prodotta da ChatGPT? Soprattutto, possiamo fare qualcosa per ridurre questo impatto?
Uno studio pubblicato il 19 giugno 2025 sulla rivista Frontiers in Communication, a firma di Maximilian Dauner e Gudrun Socher della Munich University of Applied Sciences ha provato a rispondere con rigore scientifico a queste domande. Lo ha fatto misurando il consumo energetico e le emissioni di CO₂ equivalenti (CO₂eq) di 14 modelli linguistici open-source, con parametri compresi tra 7 e 72 miliardi, sottoponendoli a 1.000 domande tratte dal benchmark MMLU (Massive Multitask Language Understanding). Il risultato? Le differenze tra i modelli sono enormi, si va da poche decine di grammi di CO₂eq per i modelli più piccoli e concisi, fino a oltre 2.000 grammi per quelli più grandi, sofisticati e “ragionanti”. In altre parole, rispondere bene può costare molto caro dal punto di vista ambientale.
Indice degli argomenti
Quando l’intelligenza costa, i dati dello studio
Lo studio di Dauner e Socher, pubblicato su Frontiers in Communication, fornisce un’analisi comparativa dettagliata su 14 modelli linguistici open-source, misurandone non solo l’accuratezza, ma anche il consumo energetico e le emissioni di CO₂eq per ogni risposta generata. Il test si basa su 1.000 domande del benchmark MMLU , un insieme eterogeneo di quesiti in diverse discipline, e utilizza una GPU Nvidia A100 per garantire consistenza nell’elaborazione.
Il fattore di emissione adottato (480 gCO₂/kWh) rappresenta una media globale, utile per confronti standardizzati ma limitata nella rappresentazione della reale variabilità geografica (aspetto poi approfondito nel paragrafo successivo). Questo implica che i dati dello studio siano da considerarsi come valori indicativi in uno scenario medio e non come emissioni assolute. I risultati mostrano un range molto ampio di impatto ambientale. Il modello Qwen 7B ha generato appena 27,7 grammi di CO₂eq, ma ha registrato una precisione inferiore al 33%. Dall’altro lato, Cogito 70B reasoning ha raggiunto un’accuratezza dell’84,9%, ma ha prodotto 1.341 grammi di CO₂eq. DeepSeek-R1 70B ha toccato i 2.042 grammi. Questo evidenzia un chiaro trade-off tra capacità cognitiva del modello e impatto ambientale: maggiore è la qualità della risposta, più alto è il consumo energetico.
Perché i modelli che ragionano consumano di più
Il fattore che incide maggiormente sulle emissioni non è solo la dimensione del modello, ma la quantità di “thinking tokens” generati, segmenti di testo prodotti nei passaggi intermedi del ragionamento. I modelli reasoning ne generano in media da quattro a sei volte di più rispetto ai modelli standard, arrivando in alcuni casi a superare i 37.000 token in una sola risposta. Questo conferma che modelli progettati per spiegare, motivare o ragionare, consumano molto più rispetto a quelli ottimizzati per risposte sintetiche. Un ulteriore elemento è rappresentato dalla tipologia di domande, le discipline più simboliche e astratte come l’algebra e la filosofia inducono i modelli a produrre risposte più lunghe e complesse, con un numero maggiore di token e quindi maggiori emissioni. Le materie “testuali” come storia e diritto generano invece un carico computazionale inferiore. Questo suggerisce che anche la natura del contenuto trattato influisce significativamente sul profilo emissivo di un chatbot AI. Infine, lo studio evidenzia che l’addestramento e l’architettura dei modelli influiscono sul modo in cui viene strutturata la risposta, i modelli predisposti a risposte discorsive e articolate consumano più energia anche a parità di contenuto informativo.
Inquinamento da AI: non conta solo la domanda, ma anche la risposta
La sostenibilità, quindi, non dipende solo dal cosa si chiede, ma anche dal come il modello decide di rispondere. Lo studio, pur fornendo un contributo importante, presenta anche alcuni limiti metodologici che è opportuno evidenziare. In primo luogo, la misurazione delle emissioni si basa esclusivamente su modelli open-source, tralasciando quelli più diffusi come ChatGPT di OpenAI o Gemini di Google, la cui architettura proprietaria ne impedisce l’inclusione. Inoltre, il numero di modelli analizzati (14 in totale) rappresenta solo una parte del panorama attuale dei LLM. Il calcolo delle emissioni si basa su un valore medio globale di intensità carbonica (480 gCO₂/kWh), che non tiene conto delle significative differenze regionali legate al mix energetico locale, un fattore che può alterare di molto i risultati, come dimostrato da studi precedenti. Infine, i test sono stati condotti in ambiente controllato con una singola GPU Nvidia A100, le prestazioni e i consumi reali possono variare sensibilmente in base all’infrastruttura e al carico di utilizzo effettivo. Questi limiti non invalidano i risultati, ma suggeriscono che debbano essere interpretati come stime indicative piuttosto che misurazioni assolute e universalmente generalizzabili.
Dove l’AI inquina di più: il ruolo della geografia
Uno studio condotto da Jesse Dodge del 2022 ha mostrato come il mix energetico locale influenzi drammaticamente le emissioni di CO₂ dei data center. La stessa attività di training o inferenza può produrre fino a tre volte più emissioni a seconda di dove si trova fisicamente il server.
In Norvegia, dove domina l’idroelettrico, si registrano emissioni intorno ai 300 gCO₂/kWh.
Nel Midwest americano, alimentato a carbone, si superano i 900 gCO₂/kWh. Queste differenze non sono soltanto teoriche, lo studio di Dodge, intitolato “Measuring the Carbon Intensity of AI in Practice”, ha analizzato il processo di addestramento di un modello linguistico in 16 regioni geografiche distinte, dimostrando come la collocazione fisica dell’infrastruttura possa alterare sensibilmente l’impatto ambientale dell’AI.
A parità di attività computazionale, l’impronta carbonica può variare in modo sostanziale, l’intensità emissiva media nel centro degli Stati Uniti era circa tre volte quella di paesi nordici come Norvegia o Svezia. Lo studio di Dauner ha utilizzato un fattore medio globale (480 gCO₂/kWh), utile per confronti standardizzati ma non rappresentativo di questa variabilità. I risultati reali potrebbero quindi variare notevolmente. Questa variabilità regionale e stagionale evidenzia la necessità di valutazioni localizzate e infrastrutture a bassa intensità carbonica, oltre a una maggiore trasparenza sui data center utilizzati dalle piattaforme AI. Inoltre, questo aspetto apre riflessioni strategiche per le imprese e le istituzioni pubbliche, l’adozione di modelli AI ospitati in Paesi ad alta intensità carbonica può vanificare le politiche ambientali aziendali, mentre una localizzazione consapevole delle risorse computazionali può diventare leva di sostenibilità competitiva. Anche in ottica ESG (Environmental, Social and Governance), le scelte infrastrutturali legate all’AI dovrebbero entrare a pieno titolo nei criteri di rendicontazione e valutazione degli impatti.
Consigli pratici per un uso responsabile dei chatbot
Usare i chatbot AI in modo responsabile non significa rinunciare alla loro utilità, ma fare scelte consapevoli per ridurne l’impatto ambientale. L’articolo pubblicato dal Washington Post, che raccoglie l’opinione di studiosi come Gudrun Socher e Bill Tomlinson, propone alcuni suggerimenti che, se contestualizzati, possono guidarci in un uso più sostenibile.
- Usare l’AI solo quando serve davvero. Per richieste semplici, come l’orario di un negozio o una definizione, un motore di ricerca tradizionale è più indicato. Non solo consuma fino a 10 volte meno energia, ma spesso è più veloce e affidabile, poiché restituisce fonti verificate anziché sintesi probabilistiche. In questo modo si riducono sprechi computazionali e si valorizza l’accesso diretto all’informazione.
- Scegliere modelli più leggeri ed efficienti. I modelli più piccoli, come GPT-4o mini, offrono risposte sufficienti per molte attività quotidiane, con un consumo energetico inferiore. In contesti dove non è richiesta una complessa elaborazione semantica, ridurre la taglia del modello comporta un notevole risparmio in termini di CO₂ e uso delle risorse.
- Scrivere prompt sintetici e richiedere risposte concise. Ogni parola in più elaborata dal modello implica calcoli aggiuntivi e quindi maggiore energia consumata. Chiedere risposte “in 100 parole” o “in modo sintetico” non è solo una buona pratica comunicativa, ma riduce significativamente l’impatto energetico del processo.
- Valutare il bilancio energetico rispetto al lavoro umano. In alcuni casi, come la sintesi di testi o la generazione di bozze, l’AI può essere più efficiente di un’attività svolta manualmente al computer per ore. Secondo Tomlinson, per operazioni prolungate la somma del consumo del laptop e del lavoro umano può superare le emissioni di un prompt ben formulato. Una riflessione utile soprattutto per i knowledge worker.
- Essere consapevoli dell’AI invisibile. Molti usi dell’AI non sono espliciti, suggerimenti automatici, feed personalizzati, classificazione delle email o delle immagini. Anche queste attività consumano risorse. Ridurre l’uso passivo del digitale (come lo scroll continuo sui social), scegliere dispositivi a basso consumo, disattivare notifiche superflue, sono tutte pratiche che, sommate, possono incidere sull’impronta ecologica digitale.
On-premise, AI sostenibile e sovranità digitale
Queste riflessioni riaprono il dibattito sul modello infrastrutturale, l’elaborazione on-premise o on-the-edge, dove i modelli vengono eseguiti localmente, può ridurre drasticamente sia il consumo energetico che i rischi di data transfer non conforme al GDPR. Il cloud, pur offrendo scalabilità, comporta emissioni elevate e rischi di lock-in geopolitico. Come già discusso a proposito di Apple, modelli LLM più piccoli e più controllati localmente possono garantire privacy by design, trasparenza nei dati trattati e compatibilità con l’AI Act europeo. Inoltre, alla luce dei recenti attriti sui dazi tecnologici tra Stati Uniti, Cina ed Europa, investire in un’infrastruttura europea sovrana, alimentata da energie rinnovabili, diventa una scelta strategica oltre che sostenibile.
La sostenibilità infrastrutturale si intreccia con la protezione dei dati e con la necessità di garantire un controllo normativo coerente con il contesto europeo. L’elaborazione on-premise permette infatti di sapere esattamente dove e come vengono trattati i dati, evitando che informazioni sensibili vengano trasferite o replicate in giurisdizioni extra-UE, con tutti i rischi che ciò comporta in termini di compliance normativa e responsabilità aziendale.
Inoltre, il principio di “data minimization” previsto dal GDPR si sposa meglio con architetture distribuite e locali, dove l’elaborazione avviene il più vicino possibile all’origine del dato. In questo senso, il modello edge o on-device riduce anche i costi di trasmissione e le latenze, migliorando l’efficienza complessiva del sistema. Non da ultimo, il tema energetico si lega a doppio filo alla localizzazione. L’esecuzione dei modelli AI in data center europei alimentati da fonti rinnovabili, o addirittura in ambienti locali ottimizzati, consente una significativa riduzione dell’impronta carbonica. È un approccio coerente con le direttive della Commissione Europea sulla sostenibilità digitale e con i criteri ESG che sempre più spesso guidano le scelte strategiche delle imprese.
Conclusioni
La sostenibilità digitale richiede scelte consapevoli, dalla selezione del modello al luogo in cui viene eseguito. Un’AI responsabile è possibile, ma richiede di guardare oltre l’efficienza computazionale e considerare anche l’impatto ambientale, normativo e geopolitico. Lo studio di Dauner e Socher presenta alcuni limiti importanti che meritano una riflessione finale.
In primo luogo, la selezione dei modelli analizzati è ristretta al mondo open-source, escludendo alcuni dei protagonisti reali del mercato, come ChatGPT di OpenAI o Gemini di Google, per i quali mancano dati pubblici. Inoltre, la misurazione delle emissioni è stata condotta in ambiente controllato, con una singola GPU A100, senza tenere conto della variabilità delle infrastrutture reali, del carico multiutente e delle condizioni operative tipiche.
Infine, l’adozione di un fattore medio globale per la conversione energia-emissioni (480 gCO₂/kWh) standardizza ma al contempo appiattisce le differenze critiche legate alla localizzazione geografica dei data center. Come dimostrato da Jesse Dodge, il mix energetico nazionale può variare l’impatto ambientale fino a tre volte a parità di operazione. Pertanto, i dati presentati nello studio devono essere considerati come una solida base di partenza per comprendere l’ordine di grandezza del fenomeno, ma non come misura definitiva. Serve oggi un maggiore sforzo collettivo per mappare in modo trasparente il consumo effettivo dei principali modelli commerciali, tenendo conto della geografia, della stagionalità, dell’hardware e dei carichi di lavoro.