sostenibilità ambientale

L’intelligenza artificiale contro il surriscaldamento climatico: modelli e possibili risultati

Invertire la rotta del surriscaldamento climatico è un obiettivo pressante. Un aiuto può arrivare dall’intelligenza artificiale, ma nonostante i modelli sofisticati oggi a disposizione, la soluzione non è dietro l’angolo. Vediamo a che punto è la ricerca

04 Feb 2022
Ernesto Damiani

Senior Director of Robotics and Intelligent Systems Institute at Khalifa University

green ict

Il termine surriscaldamento climatico indica il cambiamento del clima del nostro pianeta, e più precisamente il brusco innalzamento della temperatura terrestre sviluppatosi a partire dal XIX secolo e tutt’ora in corso. Ben pochi ormai dubitano che il surriscaldamento sia in corso; ma la nostra capacità di prevederne accuratamente la misura e l’impatto a lungo termine sono ancora oggetto di discussione, soprattutto da parte di chi crede – in buona o cattiva fede – che le preoccupanti previsioni di cui disponiamo oggi siano sovrastimate.

Il surriscaldamento climatico dal punto di vista informatico

Considerando il problema dal punto di vista informatico, oggi ci troviamo a uno snodo fondamentale: il passaggio da modelli simulativi a quelli basati sull’apprendimento computazionale.

WHITEPAPER
Costruire una VERA DATA STRATEGY: machine learning, sicurezza e valorizzazione del dato.
Amministrazione/Finanza/Controllo
Big Data

Sviluppo sostenibile, l’intelligenza artificiale ci aiuta a centrare il modello giusto

I primi sono basati su un’idea apparentemente semplice: prevedere lo stato futuro dell’atmosfera e degli oceani applicando ripetutamente le leggi della fisica dei fluidi. Quest’idea risale almeno allo scienziato svedese Svante August Arrhenius, che ottenne nel 1903 il premio Nobel per la chimica per la teoria del passaggio di elettricità attraverso il trasferimento di ioni. Alcuni anni prima, nel 1896, Arrhenius aveva usato un semplice calcolo per prevedere che la combustione di combustibili fossili avrebbe potuto rilasciare abbastanza anidride carbonica da riscaldare la Terra in modo significativo.

Oggi disponiamo di modelli sofisticati (detti General Circulation Models o GCMs) in grado di simulare la circolazione generale della miscela di gas che costituisce l’atmosfera terrestre, oppure quella dell’acqua di un oceano con i gas e i solidi che vi sono disciolti.

I General Circulation Models

I GCM si basano su una varietà di equazioni differenziali fluidodinamiche, chimiche e persino biologiche che rappresentano processi fisici complessi come la formazione di nubi, il flusso della calotta glaciale e lo scioglimento del permafrost. L’ingrediente fondamentale però sono tre equazioni di bilancio (le equazioni di Navier-Stokes), che vengono usate per esprimere la relazione tra ingressi e uscite di volumi di fluido che insistono (a varie altezze) sulla superficie della Terra, modellata come una sfera rotante. Oltre a rappresentare i fluidi in ingresso e in uscita da ciascun volume, le equazioni di Navier-Stokes comprendono dei termini termodinamici che esprimono i valori attesi delle varie sorgenti di energia (radiazione solare, calore latente) che riguardano il volume considerato. Tradotte in algoritmi, queste equazioni sono alla base dei sistemi informatici utilizzati per la meteorologia, ma anche fare predizioni a lungo termine sullo stato futuro dell’atmosfera o degli oceani della Terra. L’idea implementativa è usare le equazioni in modo iterativo: si parte da uno stato noto (per misura o per interpolazione) di ciascun volume, si risolvono numericamente le equazioni per determinare il suo stato dopo un certo periodo, e poi si riparte da questo stato per stimare quello successivo.

Le versioni base dei sistemi software per le previsioni climatiche a lungo termine, su scale temporali che vanno da un decennio a un secolo, furono create da Syukuro Manabe e Kirk Bryan presso il Geophysical Fluid Dynamics Laboratory (GFDL) a Princeton, nel New Jersey. Anche se oggi praticamente nessuno contesta i principi fisici su cui si basano, alcuni politici trovano difficile prendere decisioni impopolari sulla base dei risultati di programmi composti da centinaia di migliaia di linee di codice. Come essere sicuri che l’implementazione o la calibrazione dei modelli non sia sbagliata, magari in senso pessimista? Per rispondere a questi dubbi, la comunità informatica ha lavorato molto per aiutare gli scienziati ambientali a standardizzare le implementazioni dei modelli, rendendo possibile ispezionarne il codice e agevole l’utilizzo. Il progetto Models in the Cloud, guidato Jon Whittle (un ingegnere del software d’eccezione, che al tempo lavorava all’Università di Lancaster in UK) ha aiutato scienziati di tutto il mondo a sviluppare e condividere software comprensibile e ben strutturato.

I modelli ibridi

Vi sono diversi fattori che hanno contribuito all’ingresso massiccio dell’apprendimento computazionale (Machine Learning – ML) nelle applicazioni di previsione del clima. In primo luogo, l’approccio puramente simulativo di cui abbiamo parlato deve fare i conti con il un conflitto tra l’accuratezza delle previsioni a lungo termine e il loro costo computazionale.

L’accuratezza della previsione aumenta con il numero di volumi considerati; ma considerare molti volumi aumenta il numero delle equazioni da risolvere a ciascuna iterazione, un compito solo parzialmente parallelizzabile. Il calcolo delle previsioni per grandi regioni atmosferiche può richiedere settimane di calcolo anche su architetture ad alte prestazioni. Addestrando un modello ML a prevedere lo stato futuro di un volume di fluidi sulla base di quello precedente si può spostare il carico computazionale al momento dell’addestramento, e rendere più leggere le iterazioni.

I modelli di previsione complessiva “ibridi”, che usano modelli ML per predire l’evoluzione di specifici volumi e quelli a equazioni differenziali per gli altri, risultano meno costosi in produzione. L’ibridazione più semplice consiste proprio nel sostituire la soluzione delle equazioni differenziali che definiscono una funzione di interesse (relativa a un certo volume) con reti neurali profonde addestrate per approssimare la funzione stessa.

La ricerca è ancora in corso su ibridazioni più complesse, che combinano le reti neurali con la termodinamica statistica per prevedere grandezze attualmente elusive, come la formazione di nuvole. Le nuvole chiare bloccano la luce del sole e raffreddano la superficie sottostante; quindi, prevederne la formazione è un elemento importante per stimare lo stato futuro di un volume in atmosfera o all’interfaccia tra atmosfera e superficie terrestre. Se una rete neurale può prevedere con accuratezza la formazione di nuvole chiare, è possibile integrare questa previsione tra gli elementi macroscopici di cui tenere conto nella soluzione delle equazioni differenziali di un previsore simulativo.

Apprendere le strategie di acquisizione dati

Questo fattore si aggiunge a un altro parimenti importante, la maggiore disponibilità di dati per l’addestramento. Satelliti nuovi e più economici mettono a disposizione ogni giorno petabyte di dati reali di osservazione del clima, che possono organizzati in basi di dati condivise come ExtremeWeather, oppure integrati con dati climatici simulati. L’utilizzo di basi di dati affidabili e di librerie aperte per l’addestramento dei modelli aumenta l’affidabilità percepita delle previsioni. Un tema di ricerca interessante e ancora aperto su cui sono al lavoro molti gruppi di ricerca internazionali è l’utilizzo di sistemi ML parzialmente supervisionati per ottimizzare la raccolta dei dati da parte dei satelliti in modo da acquisire i dati reali per quei volumi che massimizzano il loro apporto alla qualità della previsione. In questo modo, la rete di satelliti in orbita attorno alla terra si trasforma in un «robot» che apprende le migliori strategie di acquisizione del dato climatico e meteorologico.

L’intelligenza artificiale per la rimozione dell’anidride carbonica

Concludiamo con un’osservazione apparentemente banale, ma importante: disporre di previsioni corrette non basta ad affrontare le conseguenze sul clima dell’anidride carbonica già presente nell’atmosfera. Gli esperti sostengono che per raggiungere obiettivi climatici critici, le emissioni globali nette devono diventare negative, ovvero occorre rimuovere più anidride carbonica dall’atmosfera di quanta ne rilasciamo.

Anche se c’è una semplice soluzione a questo problema (diminuire le emissioni), molti sforzi si stanno concentrando sulle tecniche di rimozione. I geologi ci insegnano che la rimozione naturale dall’atmosfera di una parte della anidride carbonica terrestre è avvenuta tramite un processo di sequestro dell’anidride nei minerali, che aumenta anche il suo assorbimento nei mari a causa dell’erosione. Questi processi possono essere accelerati dall’attività umana; in particolare, le aziende che operano nel settore petrolifero stanno studiando come sequestrare l’anidride carbonica negli strati geologici coinvolti in passato nelle estrazioni dei combustibili fossili.

Nei Paesi del Golfo, ad esempio, sono in corso studi sull’uso di modelli ML per molti aspetti del sequestro di anidride carbonica. Innanzitutto, I modelli ML possono identificare, monitorare e mantenere attive le migliori aree geologiche per il sequestro dell’anidride. A Khalifa University, negli Emirati Arabi, sono stati ottenuti risultati promettenti utilizzando modelli ML che ricevono in ingresso tracce sismografiche e restituiscono uno score per la capacità dello strato di sequestrare anidride carbonica.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4