Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Dell: dallo storage verso il data center

pittogramma Zerouno

Dell: dallo storage verso il data center

06 Ott 2011

di Rinaldo Marcandalli

La società punta a essere il terzo incomodo tra i colossi Hp e Ibm, esplicitando, durante il Dell Storage Forum, un cambiamento di marcia in atto da tempo: da icona delle vendite dirette di pc ad attore primario di next generation data center, con un punto di forza nella virtualizzazione dello storage

Il Dell Storage Forum nasce dalla convergenza di Equallogic Users Forum e C-Drive di Compellent, eventi delle due società, Equallogic e Compellent, acquisite da Dell. Ma “non parleremo più di un prodotto o dell’altro” esordisce Darren Thomas (nella foto), general manager dell’enterprise Storage Business di Dell, “ma di risolvere in modo ottimale problemi di backup, archivio a lungo termine, soluzioni midrange o high end”. Il fil rouge è la virtualizzazione dello storage, in base a una architettura “fluida” dei dati, imposto dalla esplosione di dati che “in nessun altro componente Ict ha effetti così rapidi e massicci: scambio di bus più rapido, necessità di larghezza di banda sempre maggiori, gestione di dati online, offline, nearline”, afferma Thomas, che prosegue: “Il middleware cambia più velocemente, trainato da un mutevole modello di utilizzo dei dati, indipendentemente dall’hardware utilizzato; ne consegue che non si pensa più in termini di dispositivi storage, ma di gestione del ciclo di vita dei dati che servono non solo efficienti, efficaci e disponibili, ma adattativamente utili nel tempo a sempre nuovi livelli informativi o di intelligence per supportare decisioni di business”. E dunque occorre disaccoppiare il middleware dall’hardware con il principio, che Dell fa proprio, di rendere possibile il passaggio da un firmware a un altro senza dover cambiare l’hardware.

Sguardo al futuro
“Nel 2020 i dati saranno 35 zettabyte (4 ordini di grandezza sopra i Giga, oltre i Tera, Peta ed Exabyte): 35 volte i dati odierni. Il motore principale di questa crescita? La mobilità. Nel 2014 uno smartphone in un mese creerà più dati di quanti ne ha creati nell’intero 2008. La sfida non è la capacità (a fine 2011 ci saranno dispositivi singoli capaci di terabyte) bensì la velocità di crescita dei dati stessa che rende una rincorsa disperata l’upgrade a una soluzione più efficiente: i dati raddoppieranno durante l’upgrade stessa”, dichiara con enfasi Thomas. Brivido in sala.

Cinque acquisizioni storage in tre anni
Quale l’impatto sull’offerta? E, nello specifico, su Dell? Thomas non nasconde i problemi insiti nella velocità di integrazione a “rotta di collo” che richiede massicci investimenti non solo sulla linea prodotti ma anche su forze vendita e canale per “omogeneizzare il middleware sulle varie linee, ma anche per garantire un’offerta a ventaglio adatta a Smb, midrange, large e global 500” ci dirà Andy Hardy (nella foto) Director of International Sales di Dell Compellent. Ma d’altro canto, i tre anni passati dall’acquisizione di Equallogic (avvenuta nel gennaio 2008) a quella di Compellent (dello scorso febbraio) con nel mezzo altre tre acquisizioni (figura 1) scandiscono la massiccia trasformazione di Dell, da reseller di Oem a una grossa capacità di servizio di qualità e a detentore di proprietà intellettuale in ambito storage, in particolare a partire dal midrange”, aggiungerà Michael Dell (nella foto a destra), Ceo dell’azienda.


Figura 1 – Le acquisizioni in ambito storage di Dell
(cliccare sull'immagine per visualizzarla correttamente)

Thomas lo dimostra con un principio generale (ogni merger è il “best in class” che ha fatto rumore nell’industria e non solo per il costo) e soffermandosi sulle eccellenze di ciascuna azienda acquisita.
Ma le aspettative sono tutte su Dell Compellent, il cui presidente e Ceo, Phil Soran (nella foto), mostra l’acqua della sua bottiglietta: si sposta ovunque, prende la forma del contenitore, si dispone sempre orizzontalmente e automaticamente. Così l’architettura del Fluid data management: i dati enterprise cercano posto in funzione dell’ottimizzazione dell’uso che il sistema ne fa, in modo indipendente da amministratori che li muovano con “un load o un performance balance” per tentativi; dinamico con la “Data progression”; automatico in una Automated tiered storage (Ats) nel livello che risulta ottimale in base all’uso effettivo.
I blocchi più attivi risiedono su drive a più alto costo e velocità, come Ssd, fiber channel o Serial Attached Scsi (Sas). I dati cu si accede più raramente migrano a drive di più basso costo (20%) e alta capacità (80%), come Serial Advanced Technology Attachment (Sata): le San e Nas sono sempre in linea con i bisogni delle applicazioni. I costi storage si bilanciano in base al principio economico di Pareto oggi e nel futuro (il firmware che automatizza la fluidità non è vincolato all’hardware). Elegante il paragone di Gianluca Colombo (nella foto), Business Development Manager per l’Italia di Dell Compellent, all’essere umano “efficiente”: si tiene i dati frequenti sulla scrivania, in un armadio gli “accessi medi”, in cantina quelli “obbligatori per 5 anni”.
L’architettura del dato fluido è auto protettiva: il dato “importante” cerca in automatico il proprio sito di replica. Ed è integrata con l’applicazione, attraverso l’ipervisore (Vmware, Hyper-V e Xen), e le macchine virtuali dei server con le applicazioni che usano il dato fluido: lo storage virtualizzato diventa un pool di risorse condivise, disponibile a tutti i server, con una molteplicità di operazioni read/write parallele (n Virtual machine a n Virtual drive), vincolata solo dalla legge del dato fluido, che associa per il tempo minimo l’applicazione virtuale al drive virtuale che immagazzina il dato. La virtualizzazione dello storage, fondamento di Ats, è parente di quella dei server sulla base dell’ipervisore.
Per il dato fluido è indispensabile non ci siano vincoli firmware-hardware e una ownership precisa, senza cui è impossibile il co-pilot (assistenza remota dei servizi Dell Compellent che intervengono proattivamente sui problemi, prima che il cliente stesso ne sia consapevole).
Su un sistema storage tipico, Soran dà un’idea numerica di una strategia di scale up che è “diventar più piccoli per diventar più grandi”: +25% di performance storage, -50% di hardware usato e di consumo di potenza. In questo modo la maggior parte dei dati potrà essere archiviata in storage di Tier 3 (dischi più lenti ma ad alta capacità e meno costosi): l’81% di hardware storage sarà dunque di questo tipo per restringere a un 19% l’hardware più costoso e dedicato ai soli dati che effettivamente richiedono prestazioni più performanti.
Da Bob Fine (nella foto), Director of Product Marketing, uno spiraglio infine sul futuro di Dell Compellent: firmware a 64 bit, per un metadato più efficace (una pagina più piccola del 75% aiuterà la deduplicazione, più piccoli gli oggetti più frequenti i duplicati); uso estensivo di compressione e deduplicazione; il tier 3, nel quale sono archiviati i dati superinattivi, verrà collocato logicamente nel cloud; live volume (la soluzione storage per il cloud lanciata da Compellent alla fine dello scorso anno) favorirà la mobilità dei volumi di dati da un cloud all’altro permettendo alle organizzazioni di spostare i volumi tra sistemi per dare una disponibilità continua dei dati.


Figura 3 – Storage automatizzato basato su livelli
(cliccare sull'immagine per visualizzarla correttamente)

Rinaldo Marcandalli
Giornalista

Consulente aziendale e giornalista. 40+ anni di esperienza nello sviluppo software, laboratorio IBM e field, nelle telecomunicazioni prima e poi nelle applicazioni e nel governo del Dipartimento It. Esperienze sul campo in settori bancario, in particolare interbancario, assicurativo e pubblica amministrazione. Da 20+ anni segue prima da consulente e poi come giornalista l’evoluzione dei processi nei settori e da 10+ anni la loro trasformazione progressiva al digitale, specializzandosi nello studio della riorganizzazione agile, digitale e smart delle Aziende.

Articolo 1 di 4