Data Center e Cloud: per NetApp è la stessa cosa

La società ridefinisce il concetto stesso di cloud: non più ‘servizio’ fornito dall’esterno ma vera e propria estensione ‘seamless’ dell’infrastruttura It presente in casa. Un approccio che parte dalla centralità del dato e si svolge attraverso soluzioni ad hoc verso un cloud ‘virtualizzato’ in modo da eliminare i problemi di interoperabilità tra piattaforme e provider.

Pubblicato il 04 Dic 2014

BERLINO – Inaugurato nel maggio di quest’anno dopo soli 22 mesi di lavoro, il City Cube è un enorme parallelepipedo che con oltre 320 mila metri cubi di spazio libero (due soli livelli, un’unica finestratura, niente pilastri interni) facilmente organizzabile per poter servire ai più diversi scopi ha drasticamente ampliato la capacità funzionale dell’area fieristica della capitale tedesca. Eppure si è dovuto ricorrere anche ad alcune sale del padiglione vicino per contenere lo sviluppo dell’edizione 2014 di NetApp Insight, che vi si è svolta dal 17 al 20 novembre. Va detto però che quest’anno l’evento aveva una dimensione, non solo fisica, davvero speciale. Nata sette anni fa come convention interna per creare occasioni di incontro e scambio di conoscenze tecniche tra i dipendenti delle filiali europee e tra questi e la casa madre, NetApp Insight si è poi allargata ai partner tecnologici e ora, per la prima volta, anche ai partner commerciali e agli utenti. Una partecipazione normalmente limitata a qualche centinaio di persone è così lievitata sino a superare i 3.200 convenuti, tra i quali anche un manipolo di 17 giornalisti europei (unico per l’Italia, il sottoscritto) anch’essi per la prima volta invitati a Berlino.

Julie Parrish, senior Vp e Cmo, NetApp

In realtà, NetApp Insight resta un evento prettamente tecnologico rivolto, come ha detto Julie Parrish, senior Vp e Cmo, all’incontro con la stampa svoltosi prima dell’apertura dei lavori, “alle figure professionali dello storage e data management più attente (‘technology curious’) alle soluzioni capaci di trasformarne le pratiche e di accelerarne il successo, con laboratori, case study e più di 250 sessioni riguardanti aree applicative, strumenti e best-practices”. Ma l’allargarsi dell’audience ne ha fatto anche lo scenario ideale per presentare la risposta NetApp ai megatrend in atto nell’It, declinando quanto annunciato venti giorni prima a Las Vegas secondo una visione calibrata sugli utenti e sul mercato europeo. Mercato che con la battuta d’arresto delle revenues (vedi box) registrata negli USA e causata, ha detto il Ceo Tom Georgens, “da impreviste difficoltà sul business OEM dovute ai tagli della spesa da parte dell’amministrazione federale”, è più che mai importante per le sorti della società.

Tom Georgens, Ceo, NetApp

Cloud ibrido: infrastruttura virtualizzata per il business

La strategia e le soluzioni che NetApp ha presentato a Las Vegas prima e a Berlino poi concretizzano la visione che la società porta avanti da tempo di un cloud ibrido, cioè frutto della somma di infrastrutture pubbliche e private, visto come un’unica struttura al servizio della digitalizzazione dell’impresa. Per questo, l’infrastruttura fisica va virtualizzata prima e normalizzata (nel senso di messa a norma comune) poi, in modo tale per cui non vi sia alcuna differenza dal punto di vista della gestione e delle operazioni sui dati tra risorse on-premises e risorse cloud. NetApp sviluppa questa strategia focalizzandosi sulla centralità del dato e articolando su questa, come ha spiegato George Kurian, Executive Vp per le Product Operations, il concetto del ‘NetApp Data Fabric’. L’idea è la creazione di un ‘tessuto connettivo’ logico, slegato quindi dalle strutture fisiche sottostanti, che abiliti una gestione coerente e integrata di ogni tipo e forma di dato (e quindi operi al più basso livello possibile, che è quello dello storage) e consenta di trasferirli in modo trasparente all’applicazione utente fra i diversi ambienti possibili: on-premises (cloud privato), esterni (cloud pubblico) e ‘hyperscale’, ossia i cloud scalabili ai big data. “Ciò permetterà alle imprese – prosegue Kurian – di superare i problemi d’incompatibilità applicando a tutti i dati presenti in un cloud ibrido policy di sicurezza e di esecuzione dei servizi uniformi, senza alcun legame a quelle del service provider prescelto”. Che significa ciò in pratica? Significa che se, per esempio, un’applicazione Crm si trova a trattare un improvviso aumento in volume o complessità dei dati potrà passare dall’esecuzione sul centro dati aziendale a quella presso Amazon (per dire) senza nemmeno fermarne il run-time. Non è poco per il business.

George Kurian, Executive Vp per le Product Operations, NetApp

Accordi e prodotti per un cloud virtualizzato

Le soluzioni che rendono attuabile questa strategia sono diverse. La prima è la nuova versione del Clustered Data ONTAP, il sistema operativo per lo storage software-defined sul quale NetApp ha costruito la sua forza. La nuova release 8.3, ottimizza le prestazioni dei nodi relativi agli array all-flash, offre nuove funzioni di gestione e setup e, soprattutto, comprende l’estensione MetroCluster, che in caso di interruzione pianificata, guasto imprevisto o blocco totale del data center recupera i dati senza fermare l’esecuzione delle applicazioni critiche. Ovviamente, nel caso di disaster recovery, occorre che sia stata preventivamente installata la nuova versione del software anche sul sito secondario.

Il secondo e più importante annuncio è il Cloud ONTAP, ossia la disponibilità di questo stesso Clustered Data ONTAP 8.3 di cui s’è detto, presso i cloud provider, che realizza la continuità e omogeneità del Data Fabric descritto da Kurian e costituisce la premessa indispensabile all’ambiente di cloud ibrido secondo la filosofia di estensione ‘seamless’ del data center che abbiamo descritto. Amazon, con gli Aws (Amazon Web Services) e Microsoft Azure sono i primi provider già in grado di svolgere i servizi Cloud ONTAP nei propri ambienti, e a Berlino è stata annunciata l’adesione di Softlayer, una società Ibm che come i due altri ‘big’ citati collabora con NetApp attraverso l'approccio NPS (NetApp Private Storage) per il cloud. Abbiamo quindi tre provider hyperscale di classe mondiale (e in Europa vi si stanno aggiungendo Computacenter, BT Germany e altri) i cui servizi potranno essere sfruttati al meglio tramite varie opzioni di licenza che NetApp sta offrendo ai clienti acquisiti e potenziali. Il concetto di interoperabilità cloud viene infine completato dall’OnCommand Cloud Manager, che provvede al provisioning delle istanze di Clustered Data ONTAP fra diversi provider di cloud pubblico e privato. Una semplice interfaccia grafica offre all’utente o al suo partner tecnologico un quadro completo dell’ambiente di cloud ibrido realizzato, semplificando il setup delle risorse storage e lo spostamento dei dati fra diverse posizioni.

Punto Finance: secondo Trimestre

Pochi giorni prima dell’evento berlinese, il 12 novembre, NetApp ha presentato i risultati economici relativi al secondo trimestre dell’esercizio 2014-15, chiuso lo scorso 24 ottobre. A fronte di ottime performance in termini di penetrazione sul mercato dei sistemi flash e del Clustered Data Ontap, le cui vendite sono rispettivamente raddoppiate e triplicate (anno su anno), le entrate hanno subìto una leggera flessione, con un net income (GAAP) di 160 milioni di dollari nel trimestre contro i 167 dello stesso periodo dell’anno prima. Ciò però non ha influito sul dividendo, che grazie anche ad alcune operazioni nel periodo è passato da 48 a 49 cent per azione, né sulle finanze, che hanno raggiunto i 5,27 miliardi tra liquidità, riserve cash-equivalent e investimenti.

Cloud ibrido: una roadmap per l’impresa

Val Bercovici, Responsabile dello Strategic Planning Team del Cto Office, NetApp

Responsabile dello Strategic Planning Team all’interno del Cto Office, la struttura guidata da Jay Kidd che coordina lo sviluppo tecnologico di NetApp, Val Bercovici è focalizzato sui progetti di ricerca avanzata, rappresentando di conseguenza la visione della società sulla sua offerta. E se oggi questa ruota sul cloud, basti dire che Bercovici è l’uomo che, come presidente della CSI promossa dalla Snia (Storage Networking Industry Association), ha messo a punto e fatto approvare il primo industry standard per l’operatività dello storage sul cloud, guadagnandosi nell’ambiente il titolo informale di ‘Cloud Czar’. A un tale personaggio (oltretutto, va detto, di straordinaria comunicatività e simpatia) abbiamo chiesto di tracciare una roadmap per il Cio che voglia adottare un approccio basato su cloud ibrido per le proprie necessità di data management.

Bercovici ha esordito tracciando una breve sintesi dei problemi vecchi e nuovi dovuti alla scarsa interoperabilità delle piattaforme cloud, private o pubbliche che siano, derivante a sua volta dalle sostanziali differenze tra le tecnologie di virtualizzazione sottostanti: “Oggi il Cio deve scegliere su quale piattaforma mettere i suoi dati già sapendo che questa scelta lo porterà a dipendere dal service provider o dal vendor dell’infrastruttura in modo tale da rendere più teorica che reale la proprietà stessa dei dati. Occorre una visione diversa, che parta dal virtualizzare i dati in modo agnostico rispetto all’infrastruttura”.

Il riferimento al modello NetApp è evidente e quindi osserviamo come se ciò vale per chi parte da zero, in molti casi un’infrastruttura cloud sia già stata adottata. Che devono fare costoro per non legarsi al fornitore?

“Per prima cosa – è la risposta – occorre un accurato assessment, usando gli strumenti di It monitoring sul mercato, di ciò che si fa sul cloud e in casa, verificando la massa dei dati e le operazioni coinvolte e controllando quali (dati e operazioni – ndr) siano duplicate sul cloud e sull’infrastruttura interna”. Ciò darà un’idea dei vantaggi economici e di flessibilità operativa realizzabili portando i dati su un cloud ibrido interoperabile (leggi: NetApp) “…ma anche – prosegue – della convenienza di mantenere per il cloud privato l’infrastruttura fisica attuale o passare a nuovi sistemi”. Quest’ultimo punto riguarda lo sviluppo dello storage flash e la necessità di avere fin da subito una chiara visione del suo impiego: “Per un’azienda piccola lo storage gerarchico (cioè l’assegnazione dinamica dei carichi tra sistemi a disco e sistemi flash – ndr) può non essere realmente necessario, mentre lo diventa per i grandi volumi di dati”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5