Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Presente e futuro dei più potenti supercomputer nel mondo

pittogramma Zerouno

Guida

Presente e futuro dei più potenti supercomputer nel mondo

Quali sono le caratteristiche dei supercomputer oggi? Quali le loro aree di impiego e quelli più potenti? Quali sono le prossime frontiere? Sono alcune delle domande alle quali abbiamo cercato di dare una risposta con questo articolo

22 Ott 2019

di Elisabetta Bevilacqua

I supercomputer, nati negli anni ’70, come superelaboratori dedicati al calcolo scientifico, inizialmente erano realizzati con tecnologie e architetture dedicate, mentre oggi i più potenti supercomputer si basano su centinaia di migliaia di unità di calcolo non troppo differenti, se prese singolarmente, da quelle di un computer di fascia alta ma, connesse fra di loro con reti ad alta velocità, risultano milioni di volte più veloci di un PC commerciale.

Calcolo ad alta performance: a cosa serve, quali benefici

I supercomputer possono supportare lo sviluppo di applicazioni che vanno dalla medicina personalizzata alla progettazione di farmaci e di nuovi materiali, dalla bio-ingegneria, alle previsioni meteorologiche e alle evoluzioni climatiche. In campo meteorologico posso per esempio essere impiegati per prevedere l’evoluzione locale e regionale dell’andamento del tempo e prevedere la dimensione e il percorso di uragani e inondazioni, consentendo di dare l’allarme preventivo per gli eventi stremi. Il supercomputer può essere usato in medicina per risolvere complesse equazioni fisiche che modellano i processi molecolari e le interazioni di un nuovo farmaco con i tessuti umani. L’industria aeronautica e automobilistica utilizzano a loro volta i supercomputer per realizzare simulazioni complesse ed effettuare test sia sui singoli componenti sia sull’aereo o l’auto nel loro complesso.

I supercomputer sono inoltre indispensabili per eseguire simulazioni su larga scala, per analisi dati, per lo sviluppo dell’intelligenza artificiale, per la cybersecurity, per il blockchain e molte altre applicazioni scientifiche.
Possono dunque portare benefici a diversi settori industriali, ai cittadini, al progresso scientifico.

Le caratteristiche di un supercomputer

Un supercomputer non è semplicemente un superelaboratore, più veloce o più grande, ma utilizza l’elaborazione in parallelo invece che una sequenza di elaborazioni in serie che caratterizza il modello classico di Von Neumann.

Il parallelismo è stata la prima novità alla nascita dei primi supercomputer, una caratteristica successivamente adottata anche dai computer commerciali ad alte prestazioni.

Alla base del calcolo parallelo c’è l’idea di dividere i problemi complessi in componenti ed elaborare contemporaneamente le singole parti su più microprocessori o più core dello stesso processore. Per superare il limite di velocità del singolo processore si ricorre all’impiego crescente di processori che operano in parallelo, dando luogo al cosiddetto massively parallel processing.
I supercomputer oggi più potenti impiegano fino a milioni di core processor. Il supercomputer cinese Sunway TaihuLight che si colloca in terza posizione nella graduatoria TOP500 opera ad esempio con 10,649,600 core processor.

Il progetto TOP500 è stato lanciato nel 1993 per creare una lista aggiornata semestralmente dei 500 più potenti supercomputer al mondo senza dare una definizione di supercomputer in sé ma utilizzando il benchmark High Performance Linpack (HPL) per classificare i sistemi e decidere se inserirli nella lista TOP500.

Il parallelismo ha però un limite intrinseco: non sempre i problemi complessi possono essere separati in pezzi indipendenti, ma devono interagire fra loro per essere risolti, oppure può accadere che un processore debba aspettare il risultato di un altro processore che sta eseguendo un compito particolarmente complesso.

Evoluzione grazie a cluster e il grid computing

I supercomputer che impiegano un numero elevato di processori generalmente ricorrono a due approcci: il cluster e il grid.

Nel primo caso si utilizza un grande numero di processori fra loro vicini, che comunicano con connessioni superveloci (ad esempio sistemi Infiniband o torus interconnect), poiché la flessibilità e la velocità del collegamento sono aspetti critici.

Il secondo approccio prevede a sua volta due logiche diverse.
La prima collega mainframe, collocati generalmente in diverse università e centri di ricerca che non necessariamente lavorano tutti contemporaneamente. È il caso del CERN Worldwide LHC Computing Grid, che ha lo scopo di elaborare i dati provenienti dall’acceleratore di particelle LHC (Large Hadron Collider) e vede un primo livello di 11 centri principali connessi direttamente al CERN, attraverso reti private, e un secondo livello che collega sistemi di 160 centri di ricerca e università attraverso una combinazione di reti private e Internet.

L’altro tipo di grid, definito anche quasi-supercomputer, mette a disposizione il tempo di elaborazione, quando disponibile, di computer individuali che condividono progetti come ad esempio SETI@home, GIMPS, FightAIDS@home, Folding@home, MilkyWay@home, ClimatePrediction.net.

Non servono superprocessori per i supercomputer

I processori utilizzati dai supercomputer sono i best in class in commercio, ma niente di dedicato. I due supercomputer IBM, Summit e Sierra, che occupano i primi due posti nella classificaTOP500, si basano su CPU Power 9 e sul GPU Nvidia V100, mentre il terzo in classifica, il già citato Sunway TaihuLight, utilizza oltre 10 milioni di core del processore SW26010. Il quarto Tianhe-2A (Milky Way-2A), della National University of Defense Technology (NUDT) cinese, utilizza una combinazione processori Intel Xeon e Matrix-2000. Frontera, il più recente ingresso nella lista TOP500, in quinta posizione, monta 16.000 processori per un totale di quasi mezzo milione di core, integrando Xeon Platinum 8280 con sottosistemi Nvidia e IBM Power.

Nella lista dei supercomputer più potenti, TOP500, dominano i processori Intel (con oltre il 95%), mentre i processori IBM Power sono presenti in sette dei sistemi, i processori AMD in tre sistemi e i processori ARM solo nel supercomputer Astra. La presenza maggiore di GPU (Graphics processing unit) va infine a Nvidia presente su 122 sistemi fra le top 500. Da tempo questa super GPU è utilizzata come acceleratore e co-processore della CPU non solo per attività grafiche ma sempre più spesso anche per elaborazione dati, dando luogo a una consolidata architettura ibrida, su cui si basa anche il supercomputer più potente al mondo, il Summit IBM. È infatti dotato di 4.608 server, ciascuno dei quali contiene due processori 22-core IBM Power9 e sei acceleratori grafici NVIDIA Tesla V100 interconnessi con dual-rail Mellanox EDR 100Gb/s InfiniBand.

Sistemi operativi e software

In passato, chi progettava i supercomputer sacrificava la compatibilità in favore della velocità, creando sistemi operativi proprietari.

Oggi oltre il 96% dei primi 500 supercomputer utilizza sistemi operativi basati Linux e solo pochissimi utilizzano varianti di Unix o Microsoft. Le architetture parallele dei supercomputer richiedono però particolari tecniche di programmazione per poter sfruttare efficacemente la potenza di calcolo in parallelo.

Fra i linguaggi, il Fortran rimane il più diffuso nella comunità scientifica, visto che riesce a generare codice più efficiente di quello generato dai compilatori C o il C++.

La lista dei supercomputer più potenti

Per la prima volta tutti i sistemi inclusi nella classifica Top 500 dei supercomputer dispongono di almeno un petaflop sulla base del benchmark HPL.

Nelle prime due posizioni si collocano due supercomputer costruiti su tecnologia IBM, Summit e Sierra, installati rispettivamente presso il Department of Energy’s Oak Ridge National Laboratory (ORNL) in Tennessee e il Lawrence Livermore National Laboratory in California. Il supercomputer Summit ha raggiunto una potenza record di 148.6 petaflop, mentre il sistema Sierra raggiunge i 94.6 petaflops.

Il Sunway TaihuLight, supercomputer sviluppato dal National Research Center of Parallel Computer Engineering & Technology cinese (NRCPC) e installato presso il National Supercomputing Center di Wuxi, si trova in terza posizione con 93.0 petaflop.

In quarta posizione si trova il supercomputer cinese Tianhe-2A (Milky Way-2A) sviluppato dalla National University of Defense Technology (NUDT) cinese e collocato presso il National Supercomputer Center di Guangzhou. Questo utilizza a sua volta una combinazione di processori Intel Xeon e Matrix-2000 raggiungendo una performance di 61.4 petaflop.

Frontera, installato presso il Texas Advanced Computing Center dell’Università del Texas, si colloca in quinta posizione con 23.5 petaflop.
Nella tabella è riportato l’elenco completo dei 10 più potenti supercomputer al mondo.

Elenco completo 10 più potenti supercomputer al mondo

Guerra di potenza fra Usa e in Cina

È guerra aperta per le prime posizioni fra Stati Uniti e Cina. Infatti, mentre la Cina rivendica il primato per la numerosità dei sistemi presenti nelle top 500 (con 219 supercomputer), gli Stati Uniti, pur distanziati in seconda posizione con 116 sistemi, rivendicano il maggior numero di sistemi nella fascia alta in termini di potenza, aggregando 38.4% delle performance nella lista TOP500, dove Summit e Sierra, da soli rappresentano il 15.6% dei flops HPL.

Seguono nella classifica, con grande distacco, il Giappone, in terza posizione con 29 sistemi, la Francia, con 19 supercomputer, Il Regno Unito, con 18 e la Germania con 14.

grafico Top 500 stats
Distribuzione per Paese di numero supercomputer e relativa performance Fonte: Top500

Con il progetto EuroHpc, l’Europa rivendica il suo ruolo

L’Europa, consapevole della sfida, ha lanciato il progetto EuroHPC, per coordinare l’impegno fra i Paesi dell’Unione e condividere le risorse per rendere disponibile in Europa un’infrastruttura di supercomputer di classe mondiale e un ecosistema competitivo nelle tecnologie, le applicazioni e le competenze. L’obiettivo è moltiplicare almeno per 4-5 volte la potenza degli attuali supercomputer della Partnership for Advanced Computing in Europe (PRACE) e duplicare le risorse a disposizione per l’utilizzo europeo.
Sono stati identificati i siti per ospitare i primi supercomputer europei che supporteranno i ricercatori, le attività industriali e di business nello sviluppo di nuove applicazioni in molteplici aree, dalla medicina ai nuovi materiali, fino alla lotta per i cambiamenti climatici.

EuroHPC ha selezionato 8 centri in 8 diversi Paesi, fra cui l’Italia che ospiterà a Bologna il primo supercomputer. Gli altri centri sono: Sofia (Bulgaria), Ostrava (Repubblica Ceca), Kajaani (Finlandia), Bissen (Lussemburgo), Minho (Portogallo), Maribor (Slovenia), Barcellona (Spagna).

È exascale la prossima frontiera del supercomputer

Il prossimo traguardo della performance è la creazione di supercomputer con potenza dell’ordine degli exaflop, ossia mille petaflop che equivale a un miliardo di miliardi calcoli al secondo.

Il prossimo supercomputer più veloce del mondo, costruito da AMD e Cray e completato entro il 2021, sarà probabilmente Frontier, presso l’Oak Ridge National Laboratory nel Tennessee con una potenza di oltre 1,5 exaflop.
Aurora, altro supercomputer di categoria exascale, è in corso di costruzione, da parte di Intel e della stessa Cray, e sarà utilizzato dal Dipartimento dell’Energia statunitense.

Anche l’Europa sta lavorando per realizzare un supercomputer di classe exascale, all’interno del programma Horizon 2020. Il progetto ExaNeSt a cui partecipano per l’Italia l’Istituto nazionale di astrofisica di Trieste e l’Istituto nazionale di fisica nucleare, ha creato in circa tre anni un prototipo di supercomputer, interamente realizzato in Europa, in termini di hardware e software, riuscendo ad abbinare alle elevate prestazioni un consumo di energia da 3 a 10 volte inferiore ai sistemi tradizionali. Per ottenere questi risultati, ha sviluppato un’architettura di rete ad alte prestazioni, una nuova tipologia di acceleratori programmabili (Fpga), in grado di competere con le GPU più performanti, e un innovativo sistema di raffreddamento liquido.
<!– [if lte IE 8]>

<![endif]–>SCARICA hbspt.cta.load(3901390, ’29dc2038-5077-44b8-a70a-a5c8179ff1f4′, {});

Elisabetta Bevilacqua

Giornalista

Sono attiva dal 1989 nel giornalismo hi-tech, dopo esperienze in uffici studi di grandi gruppi e di formazione nel settore dell’informatica e, più recentemente, di supporto alle startup. Collaboro dal 1995 con ZeroUno e attualmente mi occupo soprattutto di trasformazione digitale e Industry 4.0, open innovation e collaborazione fra imprese e startup, smart city, sicurezza informatica, nuove competenze.

Argomenti trattati

Approfondimenti

G
Guida
Presente e futuro dei più potenti supercomputer nel mondo

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 3