Calcolo ad alte prestazioni, strumento strategico per la competitività italiana - Agenda Digitale

l'analisi

Calcolo ad alte prestazioni, strumento strategico per la competitività italiana

Le infrastrutture High Performance Computing (HPC) rappresentano una risorsa essenziale a livello nazionale ed europeo, per rendere l’economia e l’industria italiane più competitive. I laboratori nazionali e le iniziative europee dedicate al supercalcolo

08 Lug 2021
Giovanni Agosta

Politecnico di Milano e CINI HPC-KTT

Marco Aldinucci

docente di Informatica dell’Università di Torino, fondatore del Parallel Computing Lab, delegato italiano nel Governing Board di EuroHPC JU

Alessandro Cilardo

Università degli Studi di Napoli e CINI HPC-KTT

Biagio Cosenza

Università degli Studi di Salerno e CINI HPC-KTT

Flavio Vella

Libera Università di Bolzano-Bozen e CINI HPC-KTT

Con supercalcolo, o calcolo ad alte prestazioni (High Performance Computing, HPC) si definisce quella branca dell’informatica che realizza infrastrutture in grado di realizzare enormi quantità di calcoli in brevi tempi.

Le infrastrutture HPC sono essenziali per il progresso scientifico e tecnologico, e costituiscono una risorsa strategica a livello nazionale ed europeo. Questo ha portato a una vera e propria competizione fra le grandi potenze per l’acquisizione e la messa in opera di infrastrutture HPC sempre più grandi.

Supercomputer, il ruolo dell’Italia nella competizione europea e globale

Per emergere in questo scenario estremamente competitivo, il sistema della ricerca e dell’università italiana ha dato vita ad un laboratorio nazionale nell’ambito del Consorzio Interuniversitario Nazionale per l’Informatica, dedicato proprio all’HPC ed in particolare alle tecnologie abilitanti, con l’obiettivo di complementare le attività degli altri enti e delle aziende strategici a livello nazionale.

Storia e ruolo strategico dell’HPC

Il supercalcolo o calcolo ad elevate prestazioni è una infrastruttura vitale per l’industria e la ricerca. Si tratta di grandi calcolatori in grado di eseguire milioni di miliardi di operazioni aritmetiche elementari al secondo (nell’ordine delle 10¹⁵ operazioni al secondo, ovvero 1 PetaFlop/s), operando su grandi moli di dati.

WHITEPAPER
Produzione 4.0? Fai un balzo in avanti con una piattaforma IoT, scopri come!
IoT
Manifatturiero/Produzione

Storicamente, i supercalcolatori sono legati all’avanzamento scientifico e tecnologico, nonché alla competitività economica e industriale[6].

L’HPC è essenziale in tutti i settori industriali in cui è necessario effettuare previsioni accurate attraverso strumenti di simulazione, come, ad esempio, la ricerca di idrocarburi, il settore aerospaziale, e quello manifatturiero. Settori emergenti includono la bioinformatica e la medicina, come dimostrato recentemente dal ruolo del supercalcolo nella lotta alla pandemia covid-19[7]. In molti di questi scenari, una capacità superiore di calcolo riduce i tempi per portare sul mercato il proprio prodotto, rendendo l’HPC un elemento fondamentale per la competitività.

A causa dei costi molto alti sia in termini di capitale (CAPEX, legati all’hardware e al software) che operativi (OPEX, legati in primo luogo all’energia, alla manutenzione ed alle risorse umane)[8], solo pochi settori industriali (ad esempio energia, servizi finanziari e bancari) e i governi delle nazioni più industrializzate sono in grado di realizzare e mantenere sistemi HPC propri. Molti altri attori economici possono però accedere a risorse di supercalcolo attraverso centri di ricerca e consorzi a guida pubblica.

La necessità di fare sistema e la rilevanza per il sistema economico fa sì che l’HPC sia una delle catene di valore strategiche per l’Europa[9]. È previsto che l’HPC ricopra inoltre un ruolo chiave nel rilancio dell’economia europea attraverso il programma Next Generation EU [10].

L’evoluzione recente dei supercalcolatori

Nel 1993, anno in cui inizia il tracciamento storico dei record di prestazioni dei supercalcolatori[11], il totale dei 500 più potenti supercalcolatori (Top500) superava appena il TeraFlop/s — ovvero 1000 miliardi (10¹²) di operazioni al secondo. Già nel 1997, la stessa capacità di calcolo veniva raggiunta dal singolo calcolatore più performante allora disponibile, e nel 2005 tutti i 500 supercalcolatori più potenti erano in grado di fornire prestazioni comparabili o superiori, che oggi sono disponibili in calcolatori economici. Sempre nel 2005, il totale della capacità di calcolo dei Top500 oltrepassava la frontiera dei 2 PetaFlop/s — ovvero un Milione di Miliardi (10¹⁵) di operazioni al secondo,  una soglia oggi sorpassata da più di 200 supercalcolatori. A novembre 2020, Fugaku (RIKEN, Giappone), il più performante tra i supercalcolatori attualmente disponibili, raggiunge ben 442 PetaFlop/s, mentre HP5 (ENI) è il più potente supercalcolatore in Italia, e il secondo in Europa, con oltre 35 PetaFlop/s.

Più del 50% delle risorse HPC (Top500) risiedono attualmente in Asia, contro il 25% del 2012. Al contrario, la quota di risorse di calcolo nell’America settentrionale è scesa nello stesso periodo dal 50% al 30% e quella europea dal 23% al 17%.

EuroHPC: attività e prospettive europee in HPC

L’impresa comune per il calcolo ad alte prestazioni (EuroHPC Joint Undertaking), lanciata a Roma nel Marzo 2017 e inizialmente sottoscritta da 7 paesi europei (Italia, Francia, Germania, Spagna, Lussemburgo, Paesi Bassi e Portogallo), oggi coordina gli sforzi congiunti di 33 paesi per l’autonomia e lo sviluppo dell’eccellenza europea nel settore delle infrastrutture, tecnologie e applicazioni HPC. EuroHPC diventa operativo a fine 2018 con una dotazione finanziaria di oltre un miliardo di Euro per 3 anni; risorse provenienti per metà dall’Unione europea (UE) e per la parte rimanente dagli stati membri in quota suddivisa in base alla ricaduta degli investimenti nel territorio nazionale.

Nel triennio 2019-2021, EuroHPC ha co-finanziato sia infrastrutture che progetti di ricerca finalizzati ad allineare l’ecosistema HPC europeo allo stato dell’arte a livello mondiale. Nell’ambito delle infrastrutture di calcolo, EuroHPC ha finanziato 3 sistemi di calcolo di scala estrema (Tier-0, precursori di sistemi exascale) con un investimento di oltre 600 milioni di Euro e 5 sistemi di media scala (Tier-1, petascale).

I 3 sistemi pre-exascale (oltre 100PFlop/s) ambiscono ad occupare le prime posizioni della TOP500, classifica dei supercalcolatori più potenti al mondo e sono destinati (mediante bando competitivo) ai paesi con una consolidata esperienza di gestione di infrastrutture di calcolo alle scale estreme. Uno di questi 3 sistemi, il supercalcolatore “LEONARDO” entrerà in funzione nel 2022 a Bologna presso CINECA (potenza di calcolo sostenuta attesa 250 PFlop/s FP64, 10EFlop/s FP16). Altri due sistemi pre-exascale saranno installati in Finlandia presso CSC (“LUMI”, 375 PFlop/s FP64 sustained, 2022) e in Spagna presso BSC (“MARENOSTRUM5”, 2023).

I 5 sistemi di grande scala (4-10 PFlop/s) finanziati da EuroHPC ambiscono a posizionarsi fra i 100 supercalcolatori più potenti al mondo e sono destinati (mediante bando competitivo) ai paesi che intendono ad accrescere la propria capacità di calcolo fino a raggiungere la seconda linea in termini di potenza di calcolo (detta Tier-1); un segmento del mercato HPC di grande interesse per la ricerca scientifica e industriale. I cinque sistemi finanziati da EuroHPC sono in fase di testing in Lussemburgo (MeluXina, 10 PFlop/s), Slovenia (VEGA, 7 PFlop/s), Repubblica Ceca (Karolina, 9 PFlop/s), Bulgaria (DISCOVERER, 4.5 PFlops/s), Portogallo (Deucalion, 7.2 PFlop/s).

I finanziamenti e le quattro direzione d’investimento

Oltre le infrastrutture, EuroHPC ha finanziato progetti ricerca in tutti i registri di interesse per il calcolo ad alte prestazioni. I primi tre bandi competitivi del 2019, finanziati con 110 miliardi di euro, sono stati rivolti a: sviluppare le tecnologie di base per HPC; le nuove applicazioni; la parallelizzazione e l’ottimizzazione di codici industriali esistenti. Altri due bandi competitivi 2019, finanziati con 80 miliardi di euro, sono stati orientati alla creazione di centri di competenza pan-europei in ambito HPC e azioni di supporto alle PMI per la transizione HPC.

Nel 2020, EuroHPC ha investito in quattro direzioni: il supporto alla European Processor Initiative finalizzata a progettare e produrre due famiglie di processori ad alte prestazioni “made in Europe” (80 miliardi di euro); la prototipazione di due piattaforme di calcolo europee basate su processori europei (detti pilot, 70 miliardi di euro); la progettazione di piattaforme di calcolo basate su tecnologia Quantum Computing (12 miliardi di euro); il rafforzamento delle competenze mediante una nuova laurea europea in ambito HPC (7 miliardi di euro).

A partire dal 2022, EuroHPC farà il suo ingresso nel nuovo periodo di programmazione quinquennale con una dotazione finanziaria di 8 miliardi di Euro. Gli assi principali di investimento del prossimo periodo saranno cinque: Infrastrutture, federazione delle infrastrutture, tecnologie abilitanti, applicazioni e competenze. Fra gli obiettivi cruciali della nuova programmazione, risalta la progettazione di sistemi di calcolo con tecnologie europee (Hardware e Software) in grado di supportare le applicazioni alla scala di un milione di TFlop/s (Exaflop). Una sfida di livello planetario straordinariamente complessa e che richiede lo sviluppo di nuove tecnologie in tutto lo spettro del sistema di calcolo: dallo sviluppo di nuovi processori al software di gestione dei sistemi e di sviluppo delle applicazioni alle applicazioni stesse, che richiedono un profonda revisione per ottenere scalabilità mai raggiunte fino ad adesso, dell’ordine di decine di milioni, dove il termine scalabilità è definito come il fattore moltiplicativo in termini di velocità di una applicazione rispetto alla stessa esecuzione effettuata in un singolo calcolatore, per esempio un PC. Una scalabilità che richiede la programmazione delle applicazioni con milioni di attività concorrenti e un grado elevatissimo di ottimizzazione del codice stimabile per difetto con il 99.99999% dell’esecuzione effettuata da codice applicativo e di sistema perfettamente ottimizzato (con scalabilità ideale).

Nei prossimi 5 anni, oltre il rinnovato investimento nei processori made-in-Europe, ci aspettiamo un consistente investimento nelle tecnologie Quantum Computing, nelle reti di comunicazione ad alta banda necessarie alla costruzione di una federazione di calcolatori pan-Europei in grado di analizzare una crescente mole di dati mediante le tecniche dell’Intelligenza Artificiale, e soprattutto, un consistente investimento nei metodi e nelle tecnologie software abilitanti e i codici scientifici per affrontare le grandi sfide del prossimo futuro: dalle pandemie al cambiamento climatico, dalla resilienza verso i disastri naturali alla medicina personalizzata.

EuroHPC e l’Italia

Nei primi tre anni di attività di EuroHPC, le università, gli enti di ricerca e le industrie italiani sono stati protagonisti in tutti i bandi competitivi. Nei bandi infrastrutture l’Italia è riuscita ad aggiudicarsi uno dei tre sistemi pre-exascale del valore di 240 miliardi di euro (CAPEX+OPEX). Nei bandi per progetti di ricerca si è sempre attestata fra i primi tre paesi europei per tasso di successo, partecipando a 20 progetti fra i 35 finanziati e collezionando fra il 20% e 30% dell’investimento totale dei bandi. Considerando che il contributo finanziario dell’Italia alla UE supera di poco il 15%, il settore HPC si può considerare virtuoso per la ricerca Italiana. Contrariamente a quanto avviene in altri ambiti, EuroHPC attira più investimenti in Italia di quanto costi. La sfida per i prossimi anni sarà trasferire questo successo dalla ricerca accademica a quella industriale e all’innovazione. Un passaggio che necessita sia la semplificazione dell’accesso alle soluzioni HPC che la formazione di competenze che sappiano trasformare HPC in un elemento della catena del valore dei settori industriali per cui HPC è una vera e propria piattaforma abilitante.

— BOX Progetti EuroHPC 2019-20 con partecipazione Italiana —

Call 1 2019 (Costo totale tipico 8M€ per progetto)

  1. ADMIRE: Adaptive Multi-tier intelligent data manager for Exascale (coord UC3M, Spagna)
  2. RED-SEA (coord Atos Bull, France)
  3. eProcessor: European, extendable, energy-efficient, energetic, embedded, extensible, Processor Ecosystem (coord BSC, Spagna)
  4. MAELSTROM: MAchinE Learning for Scalable meTeoROlogy and cliMate (coord ECMWF, EU)
  5. TEXTAROSSA: Towards EXtreme scale Technologies and Accelerators for euROhpc hw/Sw Supercomputing Applications for exascale (coord ENEA, Italia)

Call 2 2019 (Costo totale tipico 8M€ per progetto)

  1. MICROCARD: Numerical modeling of cardiac electrophysiology at the cellular scale (coord. Liryc, Francia)
  2. REGALE: An open architecture to equip next generation HPC applications with exascale capabilities (coord ICCS, Grecia)
  3. eFlows4HPC: Enabling dynamic and Intelligent workflows in the future EuroHPC ecosystem (coord. BSC, Spagna)
  4. ACROSS: HPC, BigData, AI cross stack platform towards exascale (coord Links, Italy)
  5. HEROES: Hybrid Eco Responsible Optimized European Solution (coord. UCIT, France)

Call 3 2019 (Costo totale 8M€ per progetto)

  1. LIGATE: LIgand Generator and portable drug discovery platform AT Exascale (coord. Dompé farmaceutici, Italy)
  2. OPTIMA: Optimised Pest Integrated Management to precisely detect and control plant diseases in perennial crops and open-field vegetables (coord. Geoponiko Panepistimios Athinon, Grecia)
  3. ExaFOAM: Exploitation of Exascale Systems for Open-Source Computational Fluid Dynamics by Mainstream Industry (coord. ESI GROUP, Francia)

Call 4&5 2019

  1. EUROCC National Competence Centres in the framework of EuroHPC (Universität Stuttgart, Germania – 56M€)
  2. FF4EuroHPC HPC innovation for European SME (Universität Stuttgart, Germania – 10M€)
  3. CASTIEL: Coordination and Support for National Competence Centres on a European Level (Universität Stuttgart, Germania – 2M€)

Call 1 2020

  1. EUPEX European Pilot for Exascale (Atos, Francia – 41M€)
  2. The European Pilot (BSC, Spagna – 32 M€)
  3. HPCQS (12M€)

Call 2 2020

  1. European Processor Initiative (EPI) SGA2 (70M€)

—– BOX fine —

HPC in Italia

L’Italia è sede di alcuni dei centri di calcolo più potenti al mondo. Nella classifica dei 500 supercomputer più potenti al mondo[12], l’Italia ha ben sei supercalcolatori. A farla da padrone è l’ENI S.p.a. che ha ben 4 macchine in classifica, tra cui il cluster di GPU HPC5 che con 51 mila TFlop/s di picco è rappresenta l’ottavo supercomputer al mondo[13]. Segue, con 21 mila TFlop/s Marconi-100, il supercalcolatore di CINECA, che supporta attivamente le esigenze di calcolo delle Università italiane[14]. Anche la Leonardo S.p.a., che recentemente aperto una divisioni HPC nella sua sede di Genova, ha un proprio supercalcolatore nei TOP500: il DaVinci-1, da 6 mila TFlop/s[15]. A questi si aggiungerà a breve il nuovo supercalcolatore di CINECA, LEONARDO, che sarà ospitato negli spazi del Tecnopolo di Bologna e che, con un picco di of 200+ PFlop/s, sarà uno dei cinque supercomputer più potenti nel mondo. Oltre a queste grandi infrastrutture di calcolo, numerose sono le aziende e le istituzioni che posseggono i propri centri di calcolo, come INFN, ENEA e INGV. Molte sono anche le Università che dispongono di piccoli centri di calcolo per soddisfare le necessità computazionali interne.

L’HPC in Italia è ad oggi in Italia una realtà consolidata che va ben oltre la realtà accademica. Oltre ai già citati ENI e Leonardo, numerose sono le aziende che investono in HPC. In ambito automobilistico, aziende come la Dallara progettano e producono componenti estremamente performanti grazie alle loro simulazioni di fluidodinamica computazionale presso il loro centro di calcolo di Varano de’ Melegari (Parma)[16]. La Dompé farmaceutici usa quotidianamente la potenza delle GPU per le proprie simulazioni che le consentono, ad esempio, di preselezionare virtualmente i farmaci più adeguati per ridurre la replicabilità dei virus, costruendo terapie farmacologiche efficaci basate su nuovi composti attivi[17]. Nel centro di calcolo dell’European Centre for Medium-Range Weather Forecasts, con sede a Bologna, l’HPC consente di calcolare previsioni meteo estremamente accurate per l’intero territorio Europeo. Numerose sono anche le aziende che affiancano il calcolo ad alte prestazioni ai sistemi di cloud computing, come ad esempio UniCredit, e le aziende che lavorano all’installazione e design di soluzioni HPC, come E4. In conclusione, l’HPC è oggi un settore strategico per l’industria Italiana, ed ha un ruolo fondamentale nel migliorare la produttività e competitività in Europa e nel mondo.

Il ruolo della ricerca in HPC

Possiamo considerare la costituzione del Centro Nazionale Universitario di Calcolo Elettronico (CNUCE) nel 1963 a Pisa come la data di fondazione della comunità italiana di supercalcolo. Da allora la comunità ha sviluppato e consolidato diverse competenze dedicate allo studio di architetture degli elaboratori, da un lato, e al calcolo scientifico dall’altro. In tale direzione, diversi enti governativi, quali l’Istituto Nazionale di Fisica Nucleare (INFN) e il Consiglio Nazionale delle Ricerche (CNR), hanno trainato per anni il progresso scientifico e tecnologico al fine di sviluppare strumenti di analisi per la risoluzione di problemi fondamentali nelle scienze di base quali la fisica e la chimica. Ad esempio, lo sviluppo di modelli fisici sempre più precisi ha portato la necessità di sviluppare metodi per la risoluzione di sistemi lineari di grandi dimensioni in diversi settori scientifici (fisica delle alte energie, chimica teorica, fluidodinamica) ponendo quindi la necessità di sviluppare metodologie che sfruttassero al meglio le risorse computazionali disponibili che oggi si assesteranno sull’ordine di un ExaFLOPS. Lo sviluppo e il potenziamento delle facoltà di Informatica sul territorio nazionale ha di fatto supportato, in modo sempre più consistente, questo processo tecnologico a vari livelli dello stack hardware software con un forte focus sull’applicazione finale.

Oggi la comunità italiana di supercalcolo non guarda solamente allo sviluppo di tecniche di calcolo ad alte prestazione per il solo settore scientifico, ma supporta applicazioni in intelligenza artificiale, analisi di big data su diversi domini come medicina e finanza oltre alla ricerca di base per lo sviluppo di tecnologie abilitanti che successivamente possono essere adottate nei vari domini applicativi.

Nel 2021, al fine di coordinare sia attività di ricerca che di progetti di ricerca finanziati, 27 atenei e 8 istituti di ricerca governativi, hanno fondato il laboratorio nazionale High Performance Computing: Key Technologies and Tools presso il Consorzio Interuniversitario per l’Informatica (CINI). Oggi, seguendo la tradizionale organizzazione della comunità, la ricerca in HPC segue tre distinti pilastri: infrastrutture e architetture; applicazioni; e tecnologie e strumenti chiave abilitanti, mentre il laboratorio nazionale concentra le sue attività principalmente sul terzo pilastro, complementari alle attività sui primi due pilastri di enti come CINECA, ENEA, INFN, e CNR, nonché delle principali aziende attive nel settore.

Ricerca in infrastrutture e architetture: non solo potenza di calcolo, ma anche efficienza energetica e sostenibilità

La potenza richiesta da un centro HPC non può crescere oltre i limiti di fornitura locale, eppure la previsione è che i sistemi post-exascale possano consumare più di 80 MegaWatt. Per affrontare questo problema, le infrastrutture HPC devono evolvere sia in termini di hardware che di software.

1) Hardware: è possibile ottenere un hardware più efficiente attraverso l’uso di acceleratori eterogenei specializzati (tipicamente di tipo riconfigurabile) e/o attraverso il calcolo “close to memory”. Questi sistemi possono avere un impatto particolarmente efficace nelle aree emergenti quali analisi di Big Data e del Deep Learning.

2) Software: l’intero stack del software dovrebbe valutare l’energia consumata in modo che le applicazioni siano consapevoli dell’energia consumata nel tempo. L’adattabilità e tecniche per l’ottimizzazione multi-obiettivo automatizzata saranno fondamentali per una gestione efficiente dell’energia. Questo aspetto è particolarmente importante per le applicazioni e flussi di analisi da sistemi Internet of Things/Edge to HPC.

Interoperabilità e modelli di programmazione

I modelli di programmazione dovrebbero includere la possibilità di gestire l’efficienza energetica e gli altri aspetti non funzionali (ad esempio l’accuratezza delle previsione di un sistema intelligente), che oggi devono essere considerati in modo paritetico rispetto alle altre metriche del mondo HPC tradizionale (ad esempio quelle relative alle prestazioni). Tuttavia, dovrebbero anche permettere di separare il trattamento dei requisiti e di quelli extra. Inoltre, sarà essenziale garantire la possibilità di integrare il supporto di architetture specializzate, quasi ad esempio acceleratori dedicati per applicazioni di intelligenza artificiale in modo trasparente.

Produttività ed accessibilità

Tradizionalmente le applicazioni per il supercalcolo sono state sviluppate sfruttando linguaggi ad alto livello che, tramite sofisticati compilatori, si adattavano all’architettura del calcolatore sottostante. Con l’evoluzione di acceleratori quali Graphics Processing Units (GPUs), poi, tali linguaggi sono dapprima stati estesi e poi integrati in standard per la programmazione di architetture eterogenee. A prescindere quindi dal linguaggio di programmazione adottato e dal modello di programmazione supportato, lo sviluppo applicativo e algoritmico richiedeva conoscenze specifiche sia hardware che di algoritmi e linguaggi, che spesso, scienziati di dominio o esperti di altre aree scientifiche dovevano acquisire a tal fine. Oggi con l’esplosione del deep learning come principale paradigma dell’intelligenza artificiale, della scienza dei dati e di infrastrutture su cloud, è emersa un nuova esigenza, quella di fornire applicazioni altamente performanti in termini di calcolo ad esperti di domini di settori emergenti. In tal senso, la ricerca scientifica in tecnologie e strumenti abilitanti nei nuovi settori del calcolo svolge e ricoprirà un ruolo fondamentale. Questo, non implicherà in alcun modo un ridimensionamento degli specialisti del settore del supercalcolo, ma altresì, richiederà lo sviluppo di nuove competenze ed interdisciplinarità tra i vari settori scientifici.

Il Laboratorio Nazionale CINI HPC-KTT ha, tra gli altri, proprio questo obiettivo ovvero quello di favorire la convergenza tra il tradizionale calcolo ad alte prestazioni e i domini emergenti in scienza dei dati e intelligenza artificiale.

Il laboratorio CINI HPC-KTT

Nel contesto globale ed europeo finora descritto, il laboratorio CINI HPC-KTT punta ad agire su tre differenti fronti:

  • costituire una massa critica di competenze attorno ai temi di interesse per l’HPC, che rafforzi le cooperazioni di ricerca già esistenti fra le diverse sedi del laboratorio e che permetta di instaurare nuove collaborazioni;
  • partecipare a progetti di ricerca ed azioni su larga scala sia nazionali che internazionali relativi alle problematiche di interesse del laboratorio, come ad esempio i prossimi bandi EuroHPC; il laboratorio è già attivo con cinque progetti finanziati nel 2020 da EuroHPC ed attivati nel secondo trimestre del 2021[18], e parteciperà ai due grandi progetti pilota finanziati dallo stesso ente, che inizieranno nella seconda metà del 2021.
  • contribuire alle azioni di coordinamento e orientamento nel mondo HPC con documenti di indirizzo e brevi contributi, che trasferiscano nelle sedi più opportune la visione del laboratorio, così come contributi più specificamente legati al mondo degli strumenti per HPC in sedi in cui sono esclusivamente presenti le comunità che curano aspetti infrastrutturali ed applicativi del mondo HPC.

Il laboratorio prevede anche il coordinamento, la progettazione e l’erogazione di attività di formazione sia accademica che industriale. Il laboratorio intende intervenire nel dibattito in corso a livello nazionale ed internazionale relativo ai contenuti da includere in lauree di primo e secondo livello per coprire le basi necessarie allo sviluppo di esperti HPC. Verrà inoltre affrontata la necessità di creare un vero e proprio sistema di formazione continua, che permetta di far crescere una comunità di utilizzatori e sperimentatori HPC industriali ed alimentare un insieme di realtà industriali che siano al contempo utilizzatori della tecnologia HPC e catalizzatori per nuove tecnologie e aree applicative verso la comunità HPC più tradizionale, quella dei ricercatori, degli addetti ai centri di supercalcolo e della comunità accademica.

Il laboratorio sosterrà inoltre iniziative volte al trasferimento tecnologico, affrontando non solo temi di ricerca nell’area dei sistemi pre-exascale ed exascale, ma anche aspetti riguardanti sistemi su scala ridotta, spesso disponibili in istituti di ricerca, grandi industrie e consorzi di PMI. Alla base di questa scelta è la consapevolezza della possibilità e della convenienza di utilizzare lo stesso ambiente software e gli stessi strumenti/tecnologie su sistemi di scala diversa. I ricercatori del laboratorio sono anche consapevoli del fatto che in sistemi paralleli a scala ridotta, sia in termini di quota di mercato che di interesse per gli ambienti accademici e industriali, la ricerca può essere considerata un vero e proprio fattore di svolta per lo sviluppo di tecnologie HPC. Il gruppo di lavoro non esclude di prendere in esame sistemi integrati ed architetture distribuite/cloud come piattaforme per l’uso delle tecnologie e degli strumenti al centro della ricerca e sviluppo.

Infine, spinto dalla rapida evoluzione degli ambiti applicativi dell’HPC, il laboratorio CINI svilupperà collaborazioni con gli altri laboratori CINI su tematiche contigue (AI, Big Data, Machine Learning, Bioinformatica, applicazioni mediche, Cybersecurity, Smart cities, IoT eccetera), ponendosi come soggetto complementare e sinergico rispetto alle attività più direttamente correlate alle infrastrutture ed alle applicazioni. Si prevede in particolare la possibilità di identificare sinergie nella co-progettazione o co-ottimizzazione delle infrastrutture HPC su scale diverse, nonché lo sfruttamento di prospettive interessanti nella contaminazione reciproca tra le tecniche sviluppate per progettare e distribuire applicazioni HPC parallele in particolari domini applicativi e i risultati relativi allo sviluppo delle tecnologie chiave per HPC.

Note

[6] https://www.compete.org/reports/all/2695

[7] https://digital-strategy.ec.europa.eu/en/policies/high-performance-computing

[8] https://www.marketsandmarkets.com/Market-Reports/Quantum-High-Performance-Computing-Market-631.html

[9] https://www.europeanfiles.eu/climate/what-are-the-strategic-value-chains-for-europe

[10] https://digital-strategy.ec.europa.eu/en/policies/high-performance-computing

[11] https://www.top500.org

[12] https://www.top500.org

[13] https://www.eni.com/en-IT/operations/green-data-center-hpc5.html

[14] https://www.hpc.cineca.it/hardware/marconi

[15] https://www.leonardocompany.com/en/press-release-detail/-/detail/02-12-2020-davinci-1-is-the-name-of-the-new-leonardo-supercomputer

[16] https://www.lenovo.com/us/en/smarter/sports/dallara-sportscars-winning-by-failing/

[17] https://www.dompe.com/en/media/press-releases/leonardo-e-domp%C3%A9-nasce-la-prima-infrastruttura-nazionale-di-sicurezza-sanitaria-digitale-con-architettura-cloud

[18]M. Aldinucci et al., “The Italian research on HPC key technologies across EuroHPC”, ACM Computing Frontiers 2021, https://doi.org/10.1145/3457388.3458508

WHITEPAPER
I 5 errori che caratterizzano la gestione delle Risorse Umane nel Manufacturing
Risorse Umane/Organizzazione
Smart working
@RIPRODUZIONE RISERVATA

Articolo 1 di 4