News

LUMI è più potente e il primo exascale europeo è in fieri. L’Europa dei supercomputer accelera

Il supercomputer LUMI ha testato la partizione GPU con la “scienza hardcore”, ora può assicurare la sua piena potenza di elaborazione con il nome di LUMI-G. Un traguardo importante per EuroHPC, la partnership pubblico-privata per potenziare la capacità di “supercalcolo” europea. Presto ne arriverà uno decisivo, con la realizzazione del primo exascale europeo, JUPITER, in Germania. Scade il 13 febbraio il bando per trovare un provider “al suo livello”. Le sue capacità di computing saranno inedite e, in gran parte, dedicate a supportare progetti legati ai cambiamenti climatici e all’energia. 

Pubblicato il 30 Gen 2023

euroHPC LUMI e JUPITER

Quando è stato inaugurato come il supercomputer più veloce d’Europa e il terzo al mondo, LUMI non poteva ancora dare il meglio di sé. Ora sì, perché EuroHPC ha completato con successo la fase pilota della sua partizione GPU.

È stato un ampio e affascinante lavoro di squadra che, con sforzi tecnologici moderati per chi frequenta il mondo HPC, ha permesso di estendere notevolmente la potenza di elaborazione del sistema. Per farsi un’idea, la partizione per la sola CPU comprende 1.536 nodi, mentre quella di LUMI-G con GPU comprende 2.560 nodi.

Dallo Spazio all’interno della Terra, oltre 30 progetti test per LUMI

Prima di questo traguardo, già a novembre dello scorso anno, il supercomputer finlandese era stato aggiornato con l’aggiunta di Helmi, acceleratore quantistico del Centro di ricerca tecnica VTT. Una sorta di coprocessore composto da 5 qubit da affiancare ai nodi CPU classici di LUMI.

Un piccolo miglioramento che non ha nulla a che fare con l’upgrade appena effettuato. Per testarlo e “assaggiare” le capacità del sistema con la partizione GPU operativa, sono stati necessari 30 progetti HPC pilota. Progetti ambiziosi, che hanno bisogno di un LUMI alla sua massima potenza, e che spaziano dalla modellazione dell’atmosfera solare, all’elaborazione del linguaggio naturale fino all’imaging dei dati sismici, per scoprire l’interno della Terra.

Il primo progetto, spaziale, serve per conoscere meglio il funzionamento delle stelle, Sole compreso. Un team di ricercatori del Rosseland Centre for Solar Physics dell’Università di Oslo effettua delle simulazioni da confrontare con le osservazioni dei telescopi solari, usando applicazioni interne come Bitfrost e Dispatch. Le due lavorano in parallelo e richiedono molto potere di calcolo, ora il loro codice va adattato all’uso della GPU integrandola nel daily work.

Il progetto sul linguaggio naturale (NLP) è anch’esso nelle mani di un team norvegese. Stavolta quello del Dipartimento di Informatica dell’Università di Oslo che sta approfondendo l’interazione uomo-computer attraverso il linguaggio parlato, le raccomandazioni di contenuti e la pubblicità contestuale. Lo fa utilizzando modelli avanzati di deep learning e il loro training richiede un’enorme potenza di calcolo. LUMI-G ne ha più che a sufficienza.

Il terzo progetto, illustrato dal team LUMI come esempio di test, riguarda l’imaging di dati sismici per rappresentare l’interno della Terra. I ricercatori del Dipartimento di Geoscienze e Petrolio dell’Università norvegese di Scienza e Tecnologia (NTNU) che se ne stanno occupando, hanno introdotto una nuova tecnica per avere maggiori dettagli. Per simulare i dati sismici, hanno scelto di usare un modello numerico completo che ripete i calcoli più volte e per molteplici sorgenti. Solo il “nuovo” LUMI, potenziato con la GPU, può garantirne il funzionamento.

Cercasi provider per JUPITER, l’exascale per il clima e l’energia

Questi e altri progetti “computing demanding” hanno permesso di testare l’integrazione della GPU, in certi casi anche meno faticosa del previsto, secondo alcuni ricercatori. Ottenuto l’okay da tutti e 30, ora sappiamo di poter contare su un LUMI-G più performante e pronto a nuove sfide. Dalla sua sede di Kajaani, in Finlandia, ora è più che mai pronto per contribuire al progetto di EuroHPC di una rete di supercomputer europei. Assieme a lui, LEONARDO lo continua a fare dall’Italia (Bologna) e MARENOSTRUM V dalla Spagna (Barcellona), ma sempre con una potenza “da pre-exascale”: serve uno sprint. Parallelamente, infatti, si sta lavorando a JUPITER, il primo supercomputer europeo exascale (oltre un miliardo di miliardi di calcoli al secondo) che sarà installato nell’istituto di ricerca Forschungszentrum Jülich, in Germania.

Non è un miraggio o un obiettivo a lungo termine: la gara d’appalto per selezionare il suo fornitore è già stata annunciata e la data di chiusura delle offerte è il 13 febbraio 2023. Si cerca un soggetto con una comprovata esperienza nell’acquisizione, consegna, installazione e manutenzione di supercomputer in ambienti simili a quello di JUPITER e in grado di offrire soluzioni di livello superiore per alcuni specifici aspetti: prestazioni/TCO, programmabilità e usabilità, versatilità e stabilità del sistema, potenza ed efficienza energetica e densità di calcolo.

I 273 milioni di euro “in palio” saranno coperti per il 50% da EuroHPC JU, la restante quota sarà poi divisa in parti uguali tra Ministero federale tedesco dell’Istruzione e della Ricerca (BMBF) e Ministero della Cultura e della Scienza dello Stato della Renania Settentrionale-Vestfalia (MKW NRW).

L’attenzione è molto alta su questo bando, e sui tempi di marcia, non solo per la crescita della competitività europea in computing. Non solo per il titolo “primo exascale in Europa” o per i posti nelle classifiche da scalare. JUPITER, nella “geometria del progetto”, sarà un elemento che contribuirà a risolvere questioni sociali fondamentali e urgenti come i cambiamenti climatici, le pandemie e la produzione di energia sostenibile

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3