Pattern prima della teoria

Come il machine learning sta trasformando la ricerca: il caso del laboratorio ENEA

Il machine learning consente di ottenere i risultati in tempi minori rispetto alla risoluzione degli eleganti modelli matematici: è un cambio di paradigma del metodo scientifico. L’esperienza del gruppo di ricerca ENEA sulle concentrazioni degli inquinanti atmosferici: metodo, immagini, implicazioni

26 Apr 2022
Serena D'Onofrio

Ricercatore, divisione TERIN-ICT dell'ENEA

Angelo Mariano

Ricercatore, divisione TERIN-ICT dell'ENEA

Nicola Quercioli

Ricercatrice, divisione TERIN-ICT dell'ENEA

Claudio Ronchetti

Ricercatore, divisione TERIN-ICT dell'ENEA

Da un approccio centrato su teoria e sperimentazione, a uno basato sul machine learning: la tecnologia sta rivoluzionando il metodo scientifico tradizionale con impatti significativi.

Il machine learning è l’addestramento di modelli algoritmici agnostici su dataset via via più corposi per l’individuazione dei pattern ricorrenti all’interno dei dati digitali.

Spesso, i modelli di machine learning forniscono un valido supporto per l’elaborazione delle teorie o per ottenere in maniera più semplice e veloce risultati comparabili a quelli delle simulazioni numeriche che richiedono anche infrastrutture HPC di alto livello.

Explainable AI: perché pretendere spiegazioni dall’Intelligenza Artificiale è giusto ma non basta

L’utilizzo di questi algoritmi raggiunge risultati sorprendenti in tantissimi ambiti di ricerca, dalle auto a guida autonoma, ai sistemi di assistenza linguistica, dalle applicazioni in ambito neuroscienze, ai modelli numerici dei sistemi complessi.

In precedenza, il ricercatore formulava una teoria a partire dall’osservazione della realtà e poi andava alla ricerca di set di dati che potessero confermare o confutare la sua ipotesi.

Adesso, nella realtà digitalizzata, produciamo una gran mole di dati che, anche non strutturati, non etichettati, non “puliti”, contengono conoscenza.

Una conoscenza che gli algoritmi di machine learning sono in grado di estrarre e di rendere evidente, aiutando in modo sostanziale la realizzazione di modelli riproducibili.

Si dovrà sempre più abbandonare l’obiettivo di costruire teorie estremamente eleganti e occorrerà abbracciare in toto la complessità e fare uso del migliore alleato che è possibile ottenere ai nostri tempi: l’irragionevole efficacia dei dati[1].

Di seguito, un caso studio dalla nostra esperienza come gruppo di ricerca ENEA specializzato sulle applicazioni di high performance computing e intelligenza artificiale.

Machine learning e metodo scientifico: l’ipotesi del caso studio

Le concentrazioni di alcuni inquinanti atmosferici a livello nazionale vengono analizzate e suddivise in base ad una risoluzione reticolare.

Le stazioni meteorologiche raccolgono le informazioni sulla concentrazione degli agenti inquinanti con una distanza di 20km.

Il modello fisico numerico del Laboratorio di Inquinamento Atmosferico (Centro di Ricerche ENEA a Bologna) riesce a generare un’informazione distanziata di 4km.

WHITEPAPER
Costruire una VERA DATA STRATEGY: machine learning, sicurezza e valorizzazione del dato.
Amministrazione/Finanza/Controllo
Big Data

Questo aumento della risoluzione dalle concentrazioni di agenti inquinanti, da un reticolo di 20km a 4km, è replicabile attraverso l’utilizzo delle reti neurali?

Una risposta affermativa consentirebbe di ottenere un risultato analogo a quello generato dal modello fisico numerico, con tempi di elaborazione notevolmente minori.

Ci si potrebbe quindi spingere fino alla risoluzione di 1km, distanza non perseguibile con gli strumenti attuali.

Nel machine learning, l’aumento della densità dei pixel causa un aumento di risoluzione dell’immagine: a partire da una figura a bassa risoluzione vengono aggiunte delle informazioni per ottenere un’immagine in hd con più dettagli.

Allo stesso modo, attraverso tecniche di apprendimento profondo non supervisionato, è possibile aggiungere delle informazioni al file con minor dettaglio di concentrazione di agenti inquinanti, per crearne uno più minuzioso.

Machine learning e metodo scientifico: come funziona il training

I file climatologici di tipo NetCDF, forniti dal Laboratorio di Inquinamento Atmosferico[2] e raccolti da inizio 2019 a fine 2021, contengono le concentrazioni di circa 50 agenti inquinanti: dal particolato (PM10), all’ozono, all’anidride carbonica.

Nel dataset sono presenti due tipologie: dati a bassa e ad alta risoluzione, entrambe fondamentali per il training della rete neurale.

Infatti, l’immagine a bassa risoluzione è l’input che viene lavorato dall’algoritmo, mentre il dato ad alta risoluzione è utile per il confronto con l’immagine-output rilasciata dalla rete.

Il confronto è finalizzato a rendere il dato di uscita dalla rete sempre più somigliante a quello ad alta risoluzione: per somiglianza si intende la funzione costo, che misura la distanza tra il risultato atteso e quello ottenuto, minimizzata durante il processo di training.

Se l’algoritmo si adatta troppo al dataset di training e non si riescono a ottenere buoni risultati su dati nuovi si parla di overfitting.

Per questo motivo, di solito, una porzione del dataset non viene utilizzata direttamente nella fase di addestramento della rete neurale, ma verificata a intervalli regolari nella fase di validazione, per controllare le capacità di generalizzazione della rete.

Inoltre, per consolidare la validità del modello appena addestrato, si effettua una fase di test su una parte del dataset (che nel nostro caso sono tutti i file dell’anno 2021).

Per finalizzare il task, i parametri della rete neurale non sono stati inizializzati in maniera casuale ma attraverso il transfer learning: l’utilizzo di una configurazione di valori di una rete neurale già allenata per l’aumento di risoluzione su un dataset di immagini reali.

Poiché le caratteristiche estratte dalla rete su un insieme di immagini qualsiasi sono universali, è stato adattato quanto imparato dalla rete al dataset considerato, in modo da fornire come output l’immagine ad alta risoluzione a partire da quella a bassa risoluzione.

Machine learning e metodo scientifico: i due modelli a confronto

A titolo d’esempio, sono forniti i risultati relativi alla concentrazione di monossido di carbonio (CO), che dal punto di vista chimico-fisico non agisce con gli altri inquinanti e quindi è influenzato poco dal loro comportamento.

machine learning - modello a confronto con modello matematico tradizionale

Nell’immagine a sinistra è riportato il valore a bassa risoluzione inserito in input alla rete neurale.

Nelle figure di destra viene evidenziato il dato ad alta risoluzione generato dal modello fisico-numerico (in alto) e in output dalla rete neurale (in basso).

Come si può notare, le immagini della colonna di destra sembrano identiche, benché siano state prodotte in maniera totalmente diversa.

Conclusioni

Nell’applicazione riportata, è stato messo in luce un punto focale del cambio di paradigma in corso nella produzione di risultati scientifici.

Da una parte, un modello numerico, basato sull’approssimazione di soluzioni di sistemi di equazioni alle derivate parziali, quindi un elegante modello fisico-matematico.

Dall’altra, l’ottenimento di buoni risultati attraverso l’emulazione della soluzione del modello numerico attraverso tecniche di machine learning, che modellano i risultati a partire dai dati forniti dall’utente.

Un approccio basato sui dati deve essere dotato della giusta dose di iniezione di conoscenza proveniente dall’architettura sufficientemente complessa dell’algoritmo e/o dall’inserimento di strumenti di analisi di immagini provenienti da un dominio diverso.

A queste condizioni, consente di ottenere in tempi rapidi risultati che un modello numerico, che ingloba i fenomeni chimico-fisici sottostanti, potrebbe ricavare dopo alcune ore di elaborazione.

________________________________________________________________________________

Note

  1. Halevy I., Norvig P., Pereira F., “The Unreasonable Effectiveness of Data”, IEEE Computer Science, 2019, disponibile su https://static.googleusercontent.com/media/research.google.com/it//pubs/archive/35179.pdf
  2. Per i dati forniti si ringrazia il dott. Adani del Laboratorio di Inquinamento Atmosferico del Centro di Ricerca Enea di Bologna.

WHITEPAPER
Intelligent Enterprise: come usare i dati e l’AI per creare la CX perfetta e omnicanale
Big Data
Digital Transformation
@RIPRODUZIONE RISERVATA

Articolo 1 di 4