I problemi ambientali sono oggigiorno al centro del dibattito globale. Per affrontarli, numerosi ricercatori e scienziati hanno proposto diverse soluzioni, tra cui le Smart Grid, le cosiddette reti elettriche intelligenti. Queste reti consentono una gestione più efficiente dell’energia e soprattutto facilitano l’integrazione di fonti rinnovabili.
La stabilità della tensione nelle smart grid
Una delle principali problematiche in questo contesto riguarda la stabilità della tensione, che potrebbe superare i limiti massimi e minimi stabiliti. Inoltre, vi è il rischio di sovraccaricare componenti essenziali delle reti elettriche, come linee aeree, cavi e trasformatori. In questo articolo proponiamo un metodo, basato sull’Intelligenza Artificiale, per identificare automaticamente stati di stabilità e di instabilità nella tensione delle Smart Grid. L’ analisi sperimentale mostra una accuratezza molto promettente, dimostrando come il metodo proposto possa essere efficacemente utilizzato in ambiti di smart grid reali per prevenire situazioni potenzialmente pericolose.
Smart grid e ambiente
Fin dai primi anni del nuovo millennio, i problemi ambientali hanno rappresentato una questione di crescente rilevanza. Il loro aggravarsi è principalmente dovuto all’uso incontrollato di combustibili fossili come petrolio, bitume e gas naturale. Secondo un rapporto del 2022 dell’Agenzia Internazionale dell’Energia (IEA) [1], le emissioni di CO2 (anidride carbonica) hanno raggiunto livelli preoccupanti. Dal 1900 al 2022, infatti, il livello di CO2 è aumentato da 2,0 Gt (gigatonnellate) a 36,9 Gt. Tuttavia, nel 2020 si è registrata una lieve inversione di tendenza, con una riduzione di 1,94 Gt rispetto all’anno precedente.
Analizzando più nel dettaglio le aree geografiche, dal report pubblicato dall’IEA emerge che le emissioni di anidride carbonica sono aumentate nelle regioni dell’Asia Pacifica (229 Mt CO2) e del Nord America (100 Mt CO2). Tuttavia, si registrano dati più incoraggianti in Europa e Cina, dove le emissioni di CO2 sono diminuite rispettivamente di 138 e 23 Mt CO2. Questo andamento positivo potrebbe essere attribuito, in parte, all’incremento dell’uso di energia rinnovabile, soprattutto in Europa.
I problemi ambientali non sono una novità. Già nel 2007 gli studiosi introdussero le Smart Grid, che si sono rivelate fondamentali per il trasporto efficiente e automatizzato dell’energia tra diversi punti [2], riducendo al minimo i costi e gli impatti ambientali [3].
Gestione delle instabilitò delle smart grid con l’uso del deep learning
Al fine di identificare stati stabili ed instabili nelle Smart Grid attraverso l’uso del Deep Learning e’ stato necessario seguire diversi passaggi. Questi ultimi sono riportati nella Figura 1, la quale rappresenta l’intera metodologia proposta. In letteratura sono presenti diverse tipologie di Smart Grid, in questo articolo, pero’, viene fatto riferimento ad un’architettura ampiamente utilizzata: 4-node star Smart Grid. Questa specifica configurazione prevede un collegamento diretto al nodo di generazione, facilitando così la trasmissione diretta di energia all’interno della rete.
Figura 1: Metodologia proposta al fine di identificare stati stabili ed instabili nelle Smart Grid utilizzando il Deep Learning.
Generazione di immagini
Per procedere con l’addestramento dei modelli di Deep Learning, è stato necessario convertire i dati del dataset [4] in immagini. Queste immagini rappresentano l’andamento di tre specifiche metriche: TAU, P e G, sia per gli stati stabili che per quelli instabili.
- TAU rappresenta il ritardo di propagazione, ossia il tempo impiegato dai segnali elettrici per viaggiare attraverso la rete.
- P indica la potenza attiva, ovvero la quantità di energia effettivamente trasferita e utilizzata per compiere lavoro.
- G si riferisce alla conduttanza, che misura la capacità di un sistema di condurre corrente elettrica.
La conversione in immagini è stata eseguita utilizzando un codice Python sviluppato dagli autori prendendo la sequenza temporale per cinque secondi. Questo passaggio è essenziale per permettere al modello di Deep Learning di analizzare visivamente l’evoluzione delle metriche e individuare correlazioni tra stati stabili e instabili.
Esperimenti con Reti Neurali Convoluzionali (CNN)
Dopo aver convertito tutti i dati del file .csv in immagini, il passo successivo è stato l’addestramento e il testing di diversi modelli di Reti Neurali Convoluzionali (CNN) presenti in letteratura, come AlexNet, DenseNet, LeNet, ResNet50, Standard CNN, VGG16 e VGG19. Per l’addestramento, sono stati impiegati diversi iper-parametri, tra cui le dimensioni delle immagini, fissate a 100 e 224. La dimensione di 100 è stata utilizzata esclusivamente per AlexNet, LeNet e Standard CNN, a causa delle limitazioni di input di queste architetture.
Inoltre, tutti i modelli sono stati addestrati utilizzando una batch size di 32, un tasso di apprendimento pari a 0.001 e un numero di 10 epoche, mantenendo costanti questi parametri per garantire una valutazione uniforme delle prestazioni.
Risultati dei modelli ottenuti utilizzando le reti ResNet50 e DenseNet
Solo due dei sette modelli utilizzati negli esperimenti hanno ottenuto risultati eccellenti: ResNet50 e DenseNet. Al contrario, altre CNN, come LeNet (la peggiore), AlexNet, Standard CNN, VGG16 e VGG19, hanno registrato prestazioni inferiori simili, soprattutto per quanto riguarda la loss, metrica che misura la differenza tra i valori previsti e quelli effettivi.
Analizzando i risultati dei modelli ottenuti utilizzando le reti ResNet50 e DenseNet, il primo ha raggiunto una precisione di 0,849, mentre il secondo di 0,998. Nonostante le buone prestazioni di ResNet50, il modello ha mostrato una limitata capacità di identificare correttamente i campioni, con una loss di 0,336. DenseNet, invece, ha dimostrato eccellenti capacità di riconoscimento dei campioni, con una perdita di soli 0,003, oltre a un’accuracy, una precision, una recall e una F-Measure pari a 0,998, e un valore AUC di 1, evidenziando la sua superiorità tra i modelli testati.
La Figura 2 mostra l’andamento della loss durante la fase di addestramento del modello utilizzando la rete DenseNet, evidenziando come il modello abbia migliorato progressivamente la sua capacità di previsione. La Figura 3, invece, illustra l’andamento dell’accuracy ottenuta nella stessa fase, evidenziando l’aumento della precisione del modello man mano che l’addestramento procedeva.
Figura 2: Andamento della loss in ogni epoca durante le fasi di addestramento e validazione del modello utilizzando la rete DenseNet.
Figura 3: Andamento dell’accuracy in ogni epoca durante le fasi di addestramento e validazione del modello utilizzando la rete DenseNet.
Conclusa la fase di training e validation, abbiamo calcolato la matrice di confusione durante la fase di test. Questa è riportata in Figura 4, e mostra che il modello ha commesso errori di classificazione in soli tre casi, in particolare classificando un campione stabile come non stabile.
Figura 3: Matrice di confusione ottenuta dopo la fase di testing del modello utilizzando la rete DenseNet.
Concluse le fasi di addestramento e test e identificato il modello migliore, il passo successivo è stato l’utilizzo di tre diversi algoritmi CAM (Class Activation Mapping) ovvero Grad-CAM [5], Grad-CAM++ [6] e Score-CAM [7] per identificare le aree delle immagini più distintive per la classificazione. L’applicazione di questi algoritmi e’ stata effettuata sul modello ottenuto utilizzando la rete DenseNet e ha generato diverse immagini in formato .png, nelle quali la mappa di attivazione è stata sovrapposta all’immagine originale. Le heatmap risultanti sono composte da tre colori: blu, giallo e verde. Nel dettaglio le aree in blu rappresentano parti non rilevanti per il modello, mentre quelle in giallo indicano le parti di maggiore interesse. Le aree verdi, invece, rappresentano le zone centrali dell’immagine.
In molti casi, tutti gli algoritmi CAM hanno evidenziato le stesse aree come rilevanti per la classificazione. I risultati mostrano che tutti gli algoritmi sono stati in grado di identificare correttamente le classi “stabile” e “instabile” con una precisione del 100%. Le aree di maggiore interesse per identificare le reti stabili sono state individuate in tau4, p1 e p2, (Figure 4 e 5) mentre Score-CAM (Figura 6) ha utilizzato anche le caratteristiche G3 e G4.
Figura 4: Esempio di grafico appartenente alla classe instabile dopo l’applicazione dell’algoritmo Grad-CAM.
Figura 5: Esempio di grafico appartenente alla classe instabile dopo l’applicazione dell’algoritmo Grad-CAM++.
Figura 6: Esempio di grafico appartenente alla classe instabile dopo l’applicazione dell’algoritmo Score-CAM.
Note:
[1] https://www.iea.org/reports/co2-emissions-in-2022
[2] M. L. Tuballa and M. L. Abundo, “A review of the development of smart grid technologies,” Renewable and Sustainable Energy Reviews, vol. 59, pp. 710–725, 2016.
[3] https://www.iea.org/energy-system/electricity/smart-grids
[4] https://www.kaggle.com/datasets/pcbreviglieri/smart-grid-stability
[5] R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad-cam: Visual explanations from deep networks via gradient-based localization,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. 618–626.
[6] A. Chattopadhay, A. Sarkar, P. Howlader, and V. N. Balasubramanian, “Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks,” in 2018 IEEE Winter Conference on Applications of Computer Vision (WACV), 2018, pp. 839–847.
[7] H. Wang, Z. Wang, M. Du, F. Yang, Z. Zhang, S. Ding, P. Mardziel, and X. Hu, “Score-cam: Score-weighted visual explanations for convolutional neural networks,” in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops, 2020, pp. 24–25.