Scalabilità verticale, direzione vincente nello storage: parola del CTO di Hitachi

Contenimento dei costi operativi e software management sono le principali criticità dello storage. Hubert Yoshida, vice presidente e Cto di Hitachi Data Systems, illustra i trend principali che caratterizzano oggi il mondo dello storage e qual è la risposta che Hds propone

Pubblicato il 31 Mar 2011

p19-yoshida

“Essere il fornitore leader globale di soluzioni integrate di storage, fornendo il software, l’hardware, i media per gestire i dati, siano essi strutturati o no”: è questo l’obiettivo che si pone Hitachi Data Systems dalle parole di Hubert Yoshida, vice presidente e Cto dell’azienda che identifica nel contenimento dei costi operativi e nel software management le principali criticità dello storage.
Yoshida illustra i tre trend che, dal suo punto di vista, caratterizzano oggi il mondo storage. Il primo riguarda quella che il Cto definisce la “metamorfosi della spesa It” che si concentra sul passaggio dalla focalizzazione sull’infrastruttura fisica alla virtualizzazione: i costi dell’hardware sono pressoché piatti dal 1995 al 2010, quelli operativi sono cresciuti del 7-8%; migrare a nuovo hardware 100 Tb a una media di 5 Tb/weekend, costa fino a 7.000 dollari per Tb migrato, fra hardware installato, licenze e manutenzioni, impiegando un tempo complessivo di cinque mesi (e nel frattempo i costi vengono raddoppiati dovendo garantir e il funzionamento del vecchio e del nuovo hardware). “Per abbattere questi tempi servono virtualizzazione, provisioning dinamico e archiviazione, e una economia dello storage che misuri i risparmi in termini di costi operativi dello storage”, dice Yoshida. Con un centro di competenza in Uk, assistenza on site e una rete di partner qualificati, Hds offre consulenza e seminari per ridurre il Tco dello storage.
Per contenere la crescita esplosiva dei dati, il secondo dei trend che caratterizzano lo storage, bisogna eliminare spazi allocati in eccesso (thin provisioning), archiviare in storage meno pregiati i dati non più correnti (tiering), distinguere tre classi di dati, che secondo Yoshida, hanno crescite anno su anno più che esponenziali: gli strutturati che crescono del 33% ma le cui repliche già aumentano del 44%; i non strutturati (del 64%, ma dove l’e-mail, per esempio, richiede le massime performance per un mese, e poi viene archiviata); e i contenuti media (del 132%, ma si tratta di dati statici, con ciclo di vita semplice in archivi gestiti).
Il terzo trend è la “tempesta perfetta” nei server, con tre fattori scatenanti: la potenza dei nuovi chip Intel (Xeon 7700 con architettura Nehalem quadcore o a 16 vie); le richieste I/o allo storage moltiplicate dal numero di Virtual machine del server; e la banda di rete che da 4 Gbs nel 2010 arriverà nell’arco di tre anni a 10 Gbs con il passaggio da fiberchannel a fiberchannel su Ethernet, per andare successivamente a 100Gbs. Ne consegue una (spettacolare) richiesta di scalabilità verticale: le unità server devono poter disporre di una cache di risorse disco messe tra loro in pool; una cache adeguata a consentire alle virtual machine di performare al loro massimo.
Per contenere i costi operativi, Hds propone Hitachi UspV, “one platform for all data”: una piattaforma che contiene storage management, data protection e data search universale, idonea sia per dati strutturati sia per quelli non strutturati e che indirizza le aziende grandi e medie. Il dispositivo collega in back-end le varie unità Content address storage, Nas, Virtual tape Library (Vtl), nonché i server fisici o virtuali. E viene così a costituire un “gateway per Servizi Storage virtualizzati”.
È in Usp V che viene paginata (in tranche da 42 Mb).la memoria storage fisica per le richieste di Servizi Storage virtualizzati provenienti dai server. Oltre che la scalabilità verticale, è questo il segreto del Dynamic provisioning di storage ai server in pochi secondi e del Thin provisioning, che non muove volumi o file ma alloca pagine ed elimina spazio inutilizzato. La paginazione ottimizza poi le performance distribuendo le richieste di I/o sulla molteplicità dei dischi partecipi al pool, con un load balancing automatico (tanto più efficiente quante più sono le unità).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4