Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

AI e clima

L’intelligenza artificiale inquina troppo, ecco i piani per renderla “green”

I ricercatori dell’Università di Amherst hanno dimostrato che l’intelligenza artificiale inquina molto di più di un’auto, ma sarà la stessa AI a contribuire a invertire il trend sia per quanto riguarda le infrastrutture per il suo sviluppo che per quanto riguarda la produzione e la distribuzione dell’energia elettrica

23 Set 2019

Davide Giribaldi

data protection specialist


Recenti ricerche ci hanno svelato che l’intelligenza artificiale inquina molto più di un’automobile, ma questo trend potrebbe presto essere invertito e sebbene forse sia un po’ azzardato parlare già in questa fase di “AI verde”, è molto probabile che nell’immediato futuro il giusto mix tra sensibilità ambientale e tecnologia porterà benefici sia dal punto di vista dei costi che dei consumi.

Le grandi aziende hi-tech sono già a lavoro in questa direzione e gli sviluppi sembrano promettenti, così che anche coloro che oggi hanno un’idea pessimistica sull’inquinamento derivante dall’uso dell’AI, potranno essere un po’ meno cupi nelle loro previsioni.

Quanto inquina l’intelligenza artificiale

Lo sviluppo di un sistema di intelligenza artificiale inquina 5 volte di più di un’automobile durante tutta la sua vita.

Secondo un recente studio della Amherst Massachusetts University la sola fase di apprendimento degli algoritmi di un qualsiasi sistema di AI brucia oltre 284 tonnellate di anidride carbonica ed è una cifra destinata ad aumentare in maniera esponenziale se pensiamo al fatto che la quantità di potenza di calcolo necessaria per realizzare i grandi sistemi di AI già oggi sta raddoppiando in media ogni 3-4 mesi.

Di questo passo, entro il 2025 ed in assenza di una profonda innovazione nelle tecnologie e nelle infrastrutture, il consumo di energia dei datacenter, rappresenterà non meno del 10% dell’utilizzo mondiale di elettricità. Una quantità talmente grande di energia da fare pensare che l’intelligenza artificiale sia la prossima grande minaccia al cambiamento climatico.

Come spesso accade sui temi di maggiore interesse, l’opinione pubblica è divisa in due, da un lato gli ottimisti che partono dalla considerazione che la stessa AI possa essere d’aiuto all’efficientamento energetico e dall’altro i pessimisti che prevedono una situazione destinata ad uscire dal nostro controllo nel giro di pochissimo tempo e che addirittura accuserebbero gli addetti ai lavori di nascondere i dati reali circa l’effettivo consumo energetico dei sistemi di AI.

Si tratta certamente di una situazione sorprendente, che rispetto alla sempre più massiccia diffusione dell’intelligenza artificiale (pensiamo ad esempio ai sistemi di home automation & entertainment) pone un serio problema di inquinamento in un momento particolarmente delicato per le tematiche ambientali.

I ricercatori dell’Università di Amherst hanno potuto dimostrare che l’AI inquina molto di più di un’automobile dopo avere analizzato e misurato il ciclo di vita di diversi sistemi ed hanno evidenziato che il maggior consumo di energia avviene proprio durante l’addestramento dei software, momento in cui vi è una lunga fase di “tuning” all’interno della quale vengono inseriti corposi set di dati che stressano la capacità di calcolo delle macchine.

AI e energie rinnovabili

Se da un lato è abbastanza logico pensare che i sistemi di AI più “energivori” siano certamente quelli più conosciuti e quindi più utilizzati come ad esempio Alexa o Google translate, cosi come è lecito pensare che lo sviluppo dell’internet of things porterà all’interconnessione di miliardi di device e quindi ad un maggiore consumo di energia sia per la loro alimentazione che per l’analisi dei dati che trasportano, dall’altro lato tutti i produttori si affannano a dimostrare come i loro sistemi basati su quella che in termine tecnico viene definita “neural architecture search” consumino per la maggior parte energie rinnovabili, senza però ricordare che tali fonti, pur abbassando l’impatto ambientale non sempre portano ad emissioni zero o ad effetti collaterali indesiderabili, anche perché per sviluppare i sistemi di AI è necessario produrre hardware su cui fare viaggiare i software e costruire datacenter per contenere i centri di calcolo e queste due attività hanno certamente un impatto ambientale notevole. Senza andare nei dettagli basti pensare all’idea sicuramente efficace, ma dagli esiti potenzialmente disastrosi, di immergere i datacenter in mare per raffreddare più rapidamente e con meno dispendio energetico i server.

Se però ci limitassimo a questo tipo di visione, sarebbe pressoché scontato dover ammettere che l’intelligenza artificiale porrà sempre più un serio problema d’inquinamento, in realtà sono convinto che questa considerazione sia riduttiva e poco attendibile perché viene fatta utilizzando gli attuali parametri di riferimento tecnologico che certamente non saranno immutabili nel tempo e non tiene conto di alcuni aspetti che, in una specie di paradosso, la stessa intelligenza artificiale può contribuire a migliorare sia per quanto riguarda le infrastrutture che devono occuparsi del suo sviluppo che per quanto riguarda la produzione e la distribuzione della stessa energia elettrica.

Rimanendo ad esempio nel campo delle energie rinnovabili, il trend degli ultimi anni ha dimostrato come la produzione di energia dalle turbine eoliche sia in continua crescita nonostante la difficoltà di previsione dei venti e la conseguente impossibilità di prevedere quale sia la produzione in un determinato periodo di tempo, ma grazie al machine learning è possibile fare previsioni sul comportamento del vento che, analizzate con dati storici e previsioni meteo consentono agli algoritmi di migliorare la produzione di energia fino al 20%.

Fotonica per alimentare le reti neurali

Tornando al consumo energetico per lo sviluppo dell’AI, le grandi aziende come Intel ed AMD stanno sviluppando ad esempio semiconduttori che sfruttano tecnologie come la fotonica per alimentare reti neurali e nel giro di pochissimo tempo potrebbero essere sul mercato server ancora più performanti con un minore consumo energetico.

Alcuni produttori di software per la virtualizzazione dei sistemi hanno elaborato soluzioni in grado di adattare il consumo di risorse (capacità di calcolo) delle macchine sulla base delle richieste dei clienti nelle diverse aree geografiche e nei diversi orari del giorno.

Ma c’è di più, la stessa intelligenza artificiale potrebbe aiutare gli sviluppatori a ridurre i tempi di addestramento dei sistemi andando ad ottimizzare i carichi di lavoro sulle singole macchine dei datacenter, che oggi sono gestite secondo algoritmi di pianificazione frutto di una serie di compromessi stabiliti dall’uomo che quindi ne influenza le decisioni secondo logiche di efficientamento poco proficue dal punto di vista tecnologico, ma attraverso lo sviluppo di tecniche di reinforcement learning è possibile scaricare sull’AI l’intero processo di ottimizzazione creando sistemi fino al 30% più performanti.

Cosi è stato ad esempio per Google che grazie agli algoritmi di DeepMind (azienda acquistata nel 2014) ha ceduto totalmente il controllo del raffreddamento dei server nei propri datacenter all’intelligenza artificiale insegnandole le dinamiche di funzionamento ed ottenendo una riduzione dei costi cosi alta (40%) e in cosi poco tempo da renderla impensabile per le sole capacità umane.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4