La settimana del 18 novembre si è tenuta ad Atlanta la 36esima conferenza internazionale di super calcolo SuperComputing.
Si tratta di un appuntamento importante a livello mondiale non solo per quanto riguarda i grandi centri di ricerca e i primi cinquecento supercalcolatori al mondo annunciati con l’aggiornamento della Top500, ma è anche da parecchi anni il posto dove vengono introdotte tecnologie che piano piano entrano nei datacenter meno orientati al supercalcolo.
Anche quest’anno abbiamo potuto frequentare il SuperComputing (vedi l’anno scorso).
Da parecchi anni ormai i supercomputer sono realizzati componendo parti standard e non più sviluppate ad hoc e le innovazioni introdotte per realizzare i più potenti computer al mondo non possono poi non condizionare le architetture dei server e degli storage per i datacenter più vicini a noi.
Aspetto importante della conferenza è l’imponente exhibition in cui si può camminare per oltre cinque chilometri visitando oltre quattrocento stand che si occupano di tutti gli aspetti del calcolo: dai chip all’hardware, al software, alle reti.
Un anno senza rivoluzioni
L’edizione di quest’anno non si è caratterizzata per annunci rivoluzionari o introduzione di nuove tecnologie, bensì per il consolidamento e lo sviluppo delle tecnologie esistenti, e questa notizia è importante per la nostra nazione poiché individua trend che non possono non lasciar pensare sul posizionamento che potremo avere nel futuro data la corrente traiettoria di sviluppo.
Il trend dell’aumento di potenza e le problematiche connesse
Il primo fatto rilevante è che si conferma il trend dell’aumento di potenza con alcuni vendor che addirittura prevedono la possibilità entro il 2027 di raggiungere l’incredibile potenza di mezzo megawatt per singolo armadio, portando ad un fattore 10x l’incremento in poco più di un decennio. La concentrazione di così tanta potenza per singolo armadio porta con sé numerose problematiche, prima tra tutte quella del raffreddamento dove ormai il liquido è da considerarsi obbligatorio e con tutta probabilità si tratta di acqua. Uno studio del 2023 stima che siano complessivamente necessari 0,5lt di acqua per erogare le risposte a 20-50 prompt di un modello LLM come GPT, certo non si tratta di acqua corrente, ma i grandi centri richiedono enormi serbatoi d’acqua che hanno portato alla realizzazione di laghi artificiali dedicati allo scopo. Esistono soluzioni che non fanno uso di acqua come quella di Zutacore, ma non è chiaro quanto possano crescere rispetto alle soluzioni basate su acqua.
La posizione dell’Italia: rischio di esclusione e supercomputer
Fatto è che in Italia se la traiettoria dovesse essere così aggressiva potrebbe rimanere gradualmente esclusa dal giro dei big essendo una delle nazioni in cui l’energia è più cara e dove per ora ci si limita a parlare di nucleare mentre per l’alimentazione di questi colossi in altre nazioni è una delle fonti energetiche a cui si attinge.
Quest’anno però la top 500 regala all’Italia due supercomputer tra i primi 10: HPC6 di ENI che fa il suo ingresso al quinto posto, e Leonardo di CINECA che occupa il nono posto (essendo entrato nella classifica due anni fa al quarto posto). Uniti allo svizzero Alps e al finlandese Lumi portano al 40% della top 10 la presenza Europea che quasi raggiunge gli Stati Uniti a cui appartengono i primi 4 sistemi della lista oltre al decimo per un totale del 50%. Il giapponese Fugaku è in sesta posizione (ma è entrato nel giugno del 2020 in prima).
La dimensione dello stand conta
Ci sono numerosi piani di lettura nel visitare l’exhibition, tra questi troviamo sicuramente la dimensione dello stand e la presenza di grandi marchi. Per decenni Microsoft e Google non partecipavano all’evento, la tradizione dei supercomputer è più legata a Unix e a tecnologie server, ma negli anni recenti hanno portato stand sempre più grossi mostrando come l’uso dei grandi cloud è utilizzato anche per fare calcolo scientifico, magari da coloro che non riescono più ad assicurare gli investimenti necessari per un supercalcolatore.
Quest’anno lo stand nVidia ha sicuramente superato quello di Intel che tradizionalmente era tra i più imponenti dell’esibizione. Le difficoltà del colosso evidenziate anche dalla scelta del NASDAQ di sostituirlo nel paniere con nVidia si sono viste anche a Supercomputing con uno stand decisamente sottotono rispetto al passato.
Oltre ai grandi stand di Dell e HPE colpisce sicuramente lo stand di SuperMicro, realtà in continua crescita nel mondo della produzione di server.
L’IA protagonista
Senza troppa sorpresa l’intelligenza arificiale ha dominato anche SuperComputing, quasi dando l’impressione che sia l’unico workload importante, anche se ovviamente così non è. Tutti hanno integrato l’AI nei propri prodotti, oppure si contano innumerevoli soluzioni hardware per accelerare l’esecuzione di modelli generativi come gli LLM. Microsoft ha addirittura sin dallo scorso giugno il supercomputer Eagle nella top 10, un sistema sviluppato per l’esecuzione efficiente dei modelli di AI generativa e in particolare di quelli di OpenAI.
Sono da osservare con attenzione le soluzioni storage, come ad esempio VAST Data, che stanno inserendo nelle proprie funzioni primarie l’abilità di indicizzare i contenuti con l’ausilio dell’AI. Si tratta di un trend quasi obbligatorio se vogliamo aver speranza di riuscire a ritrovare le informazioni in un mondo in cui ne collezioniamo sempre di più e dove i motori di ricerca sono sempre meno efficaci nel loro recupero, soprattutto per quelle non testuali.
Il nodo delle competenze
Quello che ci consegna questa edizione di SuperComputing è un mondo dove la fascia alta dei sistemi richiede obbligatoriamente raffreddamento a liquido. L’incremento di densità riduce gli spazi interni necessari per realizzare datacenter, ma la necessità di energia e raffreddamento complicano un’eventuale strategia nazionale, basti pensare che la disponibilità di energia è già un problema in Lombardia.
C’è poi il tema delle competenze, la presenza di due supercalcolatori italiani nella top 10 è un’ottima notizia, ma il complicarsi di queste infrastrutture rende sempre più importante sviluppare percorsi formativi che consentano la formazione di nuovi ingegneri di queste infrastrutture fondamentali, perché se da un lato sono realizzati con componenti standard, la complessità risiede sia negli aspetti infrastrutturali (alimentazione e raffreddamento) che in quelli di interconnessione e di gestione (con sempre più livelli di automazione software).