Tech InDepth

Pure Storage, l’intelligenza artificiale in un box

Il vendor presenta un’infrastruttura di AI che integra lo storage all-flash FlashBlade, il server GPU-based DGX-1 di Nvidia, container di molti framework di machine learning open source, e offre fino a 4 petaflop di Deep Learning. Il tutto a vantaggio dei data scientist

Pubblicato il 12 Apr 2018

Un rack di AIRI

L’intelligenza artificiale per applicazioni mission-critical entra in una sola appliance in grado di sostituire infrastrutture costituite da diverse componenti di hardware e software, che andrebbero integrate fra loro e ripetutamente riconfigurate.

La chiamano “Artificial intelligence in a box” i responsabili di Pure Storage, che in occasione del “GTC 2018” (26-29 marzo nella Silicon Valley), importante conferenza mondiale per gli sviluppatori su GPU (graphics processing unit) organizzata da Nvidia, hanno presentato la nuova soluzione AIRI. L’acronimo sta per AI-Ready Infrastructure e identifica una soluzione commercializzata da Pure Storage e basata su tecnologia storage all-flash di questo vendor e su un sistema di computing parallelo GPU-based di Nvidia.

AIRI-Rack
Un rack di AIRI

Diversi fattori oggi rendono possibile lo sviluppo, la produzione e l’appetibilità sul mercato di una soluzione come AIRI, proposta da Pure Storage in configurazioni da 1 a 4 nodi. “L’intelligenza artificiale, o meglio il machine learning, per usare una definizione più pragmatica e più utilizzata in Europa – spiega a ZeroUno Alfredo Nulli, Emea Cloud Architect di Pure Storage – ha bisogno di due cose fondamentali: grandi moli dati ed elevate capacità di calcolo. Entrambe vanno fruite ad elevate velocità e quindi servono sistemi storage e di computing ad altissime prestazioni. Ma attenzione: un’infrastruttura di machine learning, che deve fornire risultati in tempi rapidi, deve essere anche il più possibile semplice”.

Alfredo Nulli, Emea Cloud Architect di Pure Storage

Semplificare vuol dire diverse cose. Partiamo da quella forse più importante, che interessa il processo multifase del machine learning: “Il machine learning – spiega Nulli – richiede quattro passaggi: la ricezione dei dati, la loro trasformazione, l’esecuzione di algoritmi in grado di imparare da soli il modo migliore di elaborare i dati (Deep Learning) e infine la fruizione delle informazioni. In passato, per svolgere questi singoli task, era quasi sempre necessario integrare in parallelo più macchine, scrivere algoritmi prima inesistenti, testarli, correggere sia gli algoritmi sia i dati, riconfigurare l’infrastruttura e così via. Oggi, invece, abbiamo la disponibilità di moltissimi framework specializzati nell’importare ed elaborare differenti tipi di dati all’interno di appositi algoritmi costantemente migliorati dalle community. Nel frattempo, grazie alla tecnologia all-flash, è divenuto accessibile uno storage performante e capacitivo, le cui dimensioni ridotte ne permettono l’integrazione all’interno di singoli box, insieme a schede server GPU-based e tecnologie di connettività ultraveloci Infiniband o RDMA (remote direct memory access)”.

Eccoci quindi ad AIRI, che combina la piattaforma FlashBlade di Pure Storage con il server GPU-based DGX-1 di Nvidia in un’unica soluzione integrata. Precaricati, sotto forma di container, vi sono già molti framework open source di machine learning, che rendono l’infrastruttura anche autoadattiva ai diversi formati di dati. Nella configurazione a 4 nodi, AIRI promette di 4 petaflop di Deep Learning performance.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4