Il mercato globale dell’HPC supererà i 55 milioni di dollari entro il 2028, segnando una crescita del 7,31% rispetto al 2021, secondo Research And Markets. Intanto, il training di modelli AI di grandi dimensioni è diventato cruciale per risolvere le sfide del futuro. Inconcepibile è, oggi, “osare” rallentare questi due trend che pretendono tecnologie, strumenti e soluzioni sempre più performanti. Spesso anche energivore, però. Chi le sviluppa, quindi, deve tener conto della crisi energetica che, più che crisi, è da considerare a tutti gli effetti un nuovo vincolo per portare reale e permanente innovazione.
È in questo contesto di multi-priorità che Samsung annuncia l’introduzione in un supercomputer di un chip PIM “sostenibile”. Sarebbe in grado di garantire una riduzione di consumo energetico pari alla quantità di carbonio che 16 miliardi di alberi “urbani” assorbirebbero in un decennio.
HCP e training AI più green grazie alla memoria
I chip PIM Samsung suonano, e sono, già noti: rientrano negli annunci del 2021. Lo step significativo compiuto stavolta è il loro inserimento nelle GPU per data center, ottenendo il primo “first of its kind” supercomputer. Un avanzamento tecnologico significativo soprattutto per i vantaggi in termini di prestazioni ed efficienza energetica in applicazioni HPC e training AI complesse. Nel secondo caso, per esempio, Samsung sostiene di essere riuscita ad accelerare l’addestramento del modello linguistico Text-to-Test Transfer Transformer (T5) sviluppato da Google di un fattore 2,5, riducendo il consumo di energia di un fattore 2,7.
Se questi numeri, prova dopo prova, saranno confermati anche su altre applicazioni simili, in un anno si potrebbe contare su una riduzione del consumo energetico di 2.100 Gigawattora per ogni cluster. Tradotta in emissioni, questa cifra diventa 960.000 tonnellate di carbonio evitate.
In memory we trust: il punto di forza dei nuovi chip
Il supercomputer green, presentato a inizio dicembre 2022, “racchiude” la sua novità tecnologica in 96 GPU AMD, tutte dotate di chip PIM. Rappresentata con l’acronimo di processing in-memory, questa tecnologia relativamente nuova impatta positivamente su prestazioni ed energia, perché fa slittare parte del lavoro di calcolo dal processore alla memoria. Senza di essa, grandi quantità di dati dovrebbero essere continuamente spostate tra CPU e DRAM. Il consistente guadagno di potenza dichiarato è da attribuire anche al fatto che ogni chip PIM utilizza una memoria ad alta larghezza di banda (HBM).
A questi due elementi, Samsung aggiunge una “sua” unicità tecnologica: ogni banco di memoria dei chip PIM include un’unità di elaborazione al suo interno. L’introduzione di questa novità, secondo l’azienda, riduce ulteriormente i colli di bottiglia associati allo spostamento dei dati e rende quasi fuorviante continuare a utilizzare il termine memoria.
I normali chip HBM-PIM sono già riconosciuti per loro vantaggi: Nvidia li utilizza da tempo nelle GPU per data center e Intel li introdurrà a breve nella sua offerta. Samsung quindi, da un lato, ha la strada spianata, ma dall’altro ha di fronte la sfida di far comprendere al mercato il valore aggiunto che vuole apportare per supercomputer dedicati ad applicazioni AI e HPC.
Sognando di vedere il “suo” chip HBM-PIM utilizzato dal mondo della ricerca e dalle imprese più innovative, ha creato un software che ne permette una integrazione agile. Per questo delicato passaggio, ha scelto SYCL, un layer di astrazione di programmazione cross-architecture, esente da royalty, alla base dell’implementazione di Intel di C++ per il suo modello di programmazione parallela oneAPI. Sarebbe un modo per mettere a terra e replicare in scala l’”esperimento” con AMD appena svelato. Una sfida non banale. Iinfatti, parallelamente, renderà accessibile il suo chip HBM-PIM anche attraverso modalità più tradizionali, per DRAM, smartphone e altri dispositivi mobile