Attualità

Accelerazione AI ed evoluzione IPU: Intel prepara il chip del futuro

Potenza di calcolo ma anche “libertà di accelerazione” dell’AI e di una innovazione accessibile a tutti. È a questo orizzonte che Intel guarda annunciando un nuovo chip che raddoppia la velocità di training del deep learning e una roadmap delle “sue” Infrastructure Processing Unit da qui al 2026. Lo fa dal palco di Vision 2022 mostrandone sia gli aspetti più tecnologici sia la strategia che li sta guidando, aperta, diversificata e, guardando alle attuali criticità globali, anche ”pronta a tutto”.

Pubblicato il 05 Ago 2022

chip

Potrebbe raggiungere i 433 miliardi di dollari la spesa per la tecnologia AI, quest’anno, secondo IDC, con un aumento del 20% che la incorona come protagonista della prossima ondata di innovazione. Intel ha deciso di supportarne e ampliarne la potenza rivoluzionaria lanciando l’Apollo Project, in collaborazione con Accenture. Grazie a questo programma il gigante dei microchip fornirà alle aziende nei prossimi mesi oltre 30 kit di soluzioni AI open source per renderla più accessibile in ambienti on-premise, cloud ed edge.

In perfetta linea con il claim “From cloud to edge”, che ha caratterizzato i tanti annunci fatti, e complementare alle soluzioni tecnologiche in arrivo nei prossimi mesi, dedicate a hyperscaler e big in cerca di una potenza di calcolo e di una accelerazione AI finora mai viste.

Training del deep learning veloce e sostenibile con Gaudi 2

Nella corsa allo sviluppo di nuovi modelli di NLP e di visione artificiale su larga scala, negli ultimi anni stanno emergendo criticità legate ai costi, sia in termini di tempo che di risorse. Una diretta conseguenza dell’aumento del numero di parametri in gioco. Per non bloccare l’innovazione e, allo stesso tempo, abbassare la barriera di ingresso al mondo AI/ML, servono soluzioni che abilitino un calcolo per il training del deep learning a elevate prestazioni e ad alta efficienza.

È proprio con la promessa di “tagliare significativamente costi e tempi” che Intel lo scorso maggio ha annunciato due nuovi chip, Gaudi 2 e Greco AI. Sono costruiti su un unico stack software, Synapse AI, che supporta diverse architetture, consentendo agli utenti di sfruttare le prestazioni e l’efficienza dei processori. Il secondo, più piccolo ed efficiente del predecessore, darà un boost all’inferenza, ma l’attenzione si concentra sul primo che, secondo Intel, offre prestazioni di apprendimento AI doppie rispetto alle attuali offerte sul mercato.

In particolare, il suo benchmark interno rileva che Gaudi 2 è 1,9 volte più veloce nell’addestramento del modello di classificazione delle immagini ResNet-50 e 2 volte più veloce nelle prime due fasi del modello di elaborazione del linguaggio naturale BERT.

Progettata per i server dedicati ai workload di deep learning dalla società israeliana Habana Labs (assorbita da Intel nel 2019), la piattaforma Gaudi 2 mira a velocizzare e rendere più sostenibile il training di modelli AI su larga scala. Ottenendo progressi significativi potrebbe impattare a breve termine su settori che presentano sfide aperte in tal senso come quello della guida autonoma e dell’energia. Contributi importanti, e da lungo attesi, potrebbero esserci anche nel riconoscimento immagini, per la generazione automatica di didascalie, ma non solo.

Anche dal punto di vista tecnologico, Gaudi 2 rappresenta alcune sfide passando da un processore da 16nm a uno da 7 e triplicando sia il numero di core (24), sia la memoria (96GB HBM2e), sia la sua larghezza di banda (2,45 TB/s) mentre la SRAM raddoppia a 48 MB. Un balzo in avanti di prestazioni che la nuova versione di Gaudi “paga” dal punto di vista energetico, raggiungendo un Thermal Design Power di 600 watt, quasi il doppio del precedente.

Diversificazione ed efficienza, per un’accelerazione AI più inclusiva e accessibile

Dietro a questo annuncio, corredato da casi d’uso, simulazioni e proiezioni futuristiche, si può leggere chiaramente la strategia di Intel per sfidare i competitor sul piano del calcolo accelerato. Se Nvidia difende con forza la propria posizione di gigante delle GPU, invece di un approccio a taglia unica la società guidata da Pat Gelsinger punta su un portafoglio diversificato di soluzioni in cui il “suo” silicio si piega a scopi molto diversi.

Per “andare incontro ai clienti lì dove sono” nel loro percorso di computing acceleration offre una gamma di prodotti più ampia sfruttando la sua posizione di provider di CPU, GPU e acceleratori AI. L’idea, futuribile, è di collegarli strettamente per permettere a ogni cliente di utilizzare il proprio mix di applicazioni senza dover assemblare le proprie attrezzature IT da solo.

Quale sarà il miglior approccio per accelerare il calcolo AI lo si vedrà nei prossimi 5 anni, mentre sul breve termine la battaglia è sui costi. Intel ha infatti spiegato di aver sviluppato Gaudi 2 dando la priorità all’aspetto dell’efficienza economica. Una scelta mirata anche ad ampliare la rosa di aziende potenzialmente interessate a integrarlo nel proprio ecosistema IT.

Nascerebbero così nuove applicazioni oltre a quelle “classiche” delle big tech, a dimostrare la flessibilità di utilizzo dell’AI: dallo screening delle frodi al monitoraggio della salute dei raccolti, fino alla segnalazione di anomalie nelle scansioni mediche. Il tutto “accelerato” da un Gaudi 2 già inserito nei server in consegna entro fine anno. Intanto Habana Labs sta lavorando al suo successore, Gaudi 3, per garantire prestazioni ancora più elevate, più memoria e migliori capacità di rete.

Entro il 2026 IPU da 800Gb programmabili e personalizzabili

Con un simile piglio strategico, a Intel Vision 2022 è stata rivelata anche la roadmap quadriennale IPU. L’obiettivo resta il medesimo: offrire una piattaforma di calcolo onnipresente perché gli utenti possano continuare a fornire ai propri clienti applicazioni scalabili.

Con questa mossa Intel mostra di credere ad un futuro con data center sempre più dipendenti dalla potenza di server che eseguono CPU programmabili basate su ASIC. In questo framework IT si collocano infatti le sue Infrastructure Processing Unit, progettate per ridurre l’overhead, liberare le prestazioni delle CPU e abilitare le opportune ottimizzazioni.

Sul palco di Intel, a Dallas, sono comparsi tutti i tasselli del percorso IPU assieme a una serie di strumenti software a supporto. I prodotti pianificati scalano in velocità e complessità partendo da una combinazione tra CPU Xeon e FPGA fino ad un ASIC personalizzabile e controllato dal software open source IPDK.

Già entro l’anno arriveranno Mount Evans, sviluppata con Google Cloud per server data center di fascia alta e hyperscaler, e Oak Springs Canyon, un FPGA evoluto per gestire il networking in modo programmabile e personalizzato. Tra il 2023 e il 2024 con Mount Morgan e Hot Springs Canyon il throughput delle IPU Intel arriverà a 400Gb ed entro il 2026 a 800Gb.

Tra i punti di forza comuni a tutte le generazioni c’è il motore di elaborazione dei pacchetti programmabile con il noto e fruibile linguaggio P4 e la possibilità di utilizzarlo dal data center all’edge. Ciò permette di controllare la congestione della rete, l’incapsulamento, il routing e altre funzioni essenziali per il monitoraggio del workload.

Come per Gaudi 2 (e 3), nel futuro delle IPU ci sono l’ampia diffusione anche tra “non big” e la personalizzazione. Tutti dovranno poter eseguire le loro infrastrutture come oggi solo un hyperscaler può permettersi, e gestire i propri flussi di lavoro personalizzati.

Oggi, infatti, a guidare lo sviluppo delle IPU sono l’apprendimento automatico e il metaverso ma nei prossimi anni potranno essere ottimizzati per nuovi e inaspettati casi d’uso. Consapevole dell’imprevedibilità del contesto attuale e futuro in cui si stanno muovendo tutti i fornitori di tecnologia, Intel sta infatti costruendo la prossima generazione di infrastrutture digitali perché possa essere “pronta a tutto”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4