Attualità

NetApp a gonfie vele con le soluzioni flash: ma ora tocca ad AI e deep learning

I sistemi di storage ‘all-flash’ hanno generato nuova crescita per la casa di Sunnyvale. Adesso, però, la sua strategia sta anche orientandosi a soddisfare i nuovi requisiti delle applicazioni di intelligenza artificiale e machine learning

Pubblicato il 17 Lug 2018

Lo schema di funzionamento dell'NVMe-oF dei sistemi all-flash AFF A800 di NetApp

Il marcato ‘cambio di pelle’ e strategia, avviato circa due anni e mezzo fa, sta ora portando ritorni importanti a NetApp, che lo scorso maggio ha annunciato, per l’anno fiscale 2018 (terminato il 27 aprile 2018), un fatturato in crescita del 7% anno su anno. Lo spiega Marco Pozzoni, Country Sales Director di NetApp Italia, che aggiunge: “NetApp ha chiuso l’anno tornando a fare risultati molto positivi, perché, da hardware vendor di storage tradizionale ha orientato la propria strategia su tre direttrici chiave: la prima è sempre il mondo storage, in cui però l’azienda si pone con maggior attenzione verso la tecnologia flash, dove puntiamo a diventare il numero uno. La seconda direttrice, che indirizziamo da almeno diciotto mesi, è la tecnologia iperconvergente: qui l’offerta si rivolge a utenti che desiderano realizzare in-house una soluzione iperconvergerente di semplice implementazione. La terza direttrice è rappresentata da tutto il mondo cloud: con l’annuncio dell’8 maggio di NetApp Cloud Volumes per Google Cloud Platform, abbiamo arricchito l’offerta in quest’area, che già include le collaborazioni con Amazon Web Services e Microsoft Azure”.

NetApp Cloud Volumes fornisce agli utenti un servizio di file storage completamente gestito, e integrato con la Google Cloud Platform (GCP).

Gestione dati rafforzata per AI e deep learning

Le collaborazioni con i cloud provider, come anche l’introduzione del flash array AFF A800, spiega Pozzoni, vanno nella direzione di fornire alle imprese tutti gli strumenti per gestire e movimentare i dati a livello ‘end-to-end’, dalle infrastrutture on-premise ai servizi cloud, e viceversa, anche quando si tratta di sviluppare progetti complessi di analisi delle informazioni, o esperimenti pilota nelle aree dell’intelligenza artificiale (AI), del machine learning (ML) e del deep learning.

“In effetti, aggiunge Roberto Patano, Senior Manager Solutions Engineering di NetApp Italia – le soluzioni introdotte con gli annunci dell’8 maggio si inseriscono in una strategia più ampia della società, che mira a fornire alle applicazioni di AI e ML i due requisiti chiave che richiedono, e cioè, da un lato, il massimo ‘throughput’ per alimentare le GPU, e, dall’altro, la minor latenza possibile”.

In merito a quest’ultima, ad esempio, il sistema all-flash AFF A800 è in grado di fornire una latenza ultraridotta, che sta sotto i 200 microsecondi; il throughput massivo erogabile è invece di 300 GB/s, una capacità resa possibile dall’utilizzo di una combinazione di drive a stato solido SSD NVMe (non-volatile memory express) e di connettività NVMe/FC (NVMe over Fibre Channel). “Le soluzioni in questo ambito – conclude Patano – si propongono di creare un’architettura in grado di coprire tutte le esigenze di gestione dei dati: quindi sia l’infrastruttura di elaborazione a livello core, sia la componente ‘edge’, che si interconnette con i dispositivi IoT, sia la componente di archiviazione e integrazione negli ambienti multi-cloud”.

Lo schema di funzionamento dell’NVMe-oF dei sistemi all-flash AFF A800 di NetApp

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4