Iperconvergenza

SAN e VSAN: come e perché lo storage iperconvergente piace agli IT manager

Anche nell’ambito dello storage l’iperconvergenza è nuova tecnologia che va di pari passo con il mondo delle virtual machine. I benefici? Maggiore e velocità di memorizzazione dei dati e una migliore gestione rispetto alle soluzioni di archiviazione tradizionali

Pubblicato il 19 Ott 2015

iperconvergenza-151019000153

Nel mondo dei data center si sta affermando una nuova generazione di infrastrutture iperconvergenti. Obiettivo? Migliore governance e maggiore sicurezza a supporto della business continuity. In particolare, anche nell’ambito dello storage, l’iperconvergenza sta diventando un’alternativa interessante rispetto al tradizionale approccio stand-alone costituito da array di storage di rete scalabili che, al momento, è il più utilizzato dalle aziende.

Che si tratti di SAN tradizionali o di SAN storage basati su software libero, le soluzioni di VSAN (Virtual Storage Area Networks) si basano sull’utilizzo di sistemi di archiviazione che posso comprendere sia le memorie flash che i classici dischi rigidi. Il nuovo trend dell’iperconvergenza che, per altro, sembra piacere molto agli IT Manager, combacia con l’arrivo in massa dei sistemi di virtualizzazione in cui i tipici sistemi di storage che utilizzano interfacce come Fibre Channel o i vecchi iSCSI diventano il collo di bottiglia delle SAN (Storage Area Network) basate sulla virtualizzazione.

Le SAN sono state progettate per ambienti dove i modelli I/O erano chiari e si sapeva cosa ci si doveva aspettare. Con l’avvento degli ambienti virtuali, gli I/O sono diventati casuali e gli array arrivano rapidamente a una saturazione dei dati. Con l’utilizzo di memorie flash questo problema è stato parzialmente risolto ma il settore dello storage si sta allontanando sempre più dall’utilizzo degli array mastodontici che occupavano le sale server delle aziende.

Una delle caratteristiche principali e vincenti dei sistemi iperconvergenti è la totale

indipendenza rispetto ai componenti interni dei server, ovvero CPU e unità disco. Le CPU, in particolare, sono diventate così potenti che ora si possono utilizzare sia per le normali operazioni di calcolo sia per la memorizzazione dei dati. Ormai nei data center c’è addirittura un surplus di CPU, tanto che per le operazioni di storage serve solo il 20% della potenza garantita. È quindi plausibile l’impiego delle restanti risorse di calcolo per approntare macchine virtuali senza costi aggiuntivi per l’infrastruttura. Utilizzare unità disco collegate localmente elimina il sovraccarico di dati e la latenza che si ha quando si cerca di accedere a un disco di rete. Le interfacce di connessione dirette, quali le nuove SCSI o PCI, sono sempre più veloci, e questo è uno dei motivi che ha spinto il mercato verso l’adozione di architetture di storage SAN rispetto ai sistemi direct-attached storage (DAS), troppo limitati da questo punto di vista.

Meno dischi esterni venduti con l’iperconvergenza? Forse no

Lo storage iperconvergente potrebbe però ridurre non poco le vendite di dischi esterni. Infatti, se questo tipo di mercato dello storage continuasse a cresce come sta accadendo nell’ultimo periodo, le vendite dei dischi esterni, potrebbero calare del 30% nei prossimi tre anni. Ma i commodity disk drives a basso costo da soli non riescono a fornire le prestazioni necessarie per la maggior parte dei carichi di lavoro virtualizzati: per questo motivo le super veloci memorie flash o dischi allo stato solido sono ancora un componente molto importante in questo ambiente e potrebbero vedere un incremento delle vendite nell’immediato futuro.

Non a caso, negli ultimi anni il prezzo delle memorie flash è calato drasticamente ed è il sistema di storage perfetto per i carichi di lavoro più impegnativi, oltre ad essere vitale anche in altri casi d’uso. Ad oggi tutti i player che hanno puntato sull’iperconvergenza fanno un uso massiccio di tecnologia flash.

Scale-out, la tecnologia per il contenimento dei costi di storage

Senza una tecnologia di clustering ad alta scalabilità tutti i vantaggi derivanti dell’utilizzo di dischi a basso costo, dischi flash o SSD e connessioni dirette andrebbero persi. L’aggiunta di più nodi in una SAN virtuale consente, infatti, di condividere la capacità di storage su più server, mentre la replica dei dati rende questi ultimi sempre disponibili. Il modello di clustering scalabile orizzontalmente (detto scale-out) sta avendo in questo periodo molto successo, soprattutto in ambienti di calcolo con una scalabilità di tipo on demand (cioé iperscalabile).

A livello di storage, l’architettura scale-out ha da sempre avuto un ruolo di primo piano anche quando si utilizzavano i NAS, ma l’uso di questa tecnologia per lo storage a blocchi è un fenomeno relativamente nuovo. In prospettiva, a parte qualche necessità nella fascia bassa di mercato dove una coppia di dischi soddisfa pienamente le esigenze di storage, tutto le procedure di calcolo e di storage saranno pilotate dalla tecnologia scale-out. Inoltre l’architettura scale-out, a livello di manutenzione, è indipendente dal resto dell’hardware presente nel sistema e questo comporta benefici molto evidenti come il minor rischio di interruzione dei servizi.

Scalabilità sì, ma senza esagerare

Il beneficio maggiore della tecnologia iperconvergente è la scalabilità. Molti fornitori di iperconvergenza danno fin troppa enfasi a questa caratteristica, il che a volte li rende poco credibili. Ad esempio EMC VCE ha annunciato nello scorso mese di maggio la sua Sistem VxRack dopo l’acquisizione di ScaleIO. L’azienda parla di un sistema capace di scalare migliaia di nodi, il che, secondo gli esperti, è un’affermazione difficile da verificare e che sembra un po’ troppo ottimistica, visto che ci possono essere alcuni limiti pratici quando si vuole approntare un cluster di così grandi dimensioni.

Un dato più veritiero è che un sistema può arrivare a scalare fino a circa 120 nodi, considerando che, in genere, si approntano cluster con un massimo di 30/40 nodi. Non è infatti detto che l’iperconvergenza sia necessariamente la soluzione migliore se quello che il cliente desidera è una capacità estrema di storage.

“Se si necessita di memorizzare petabyte di dati – ha spiegato Jason Collier, CTO di Scala Computing- non bisogna pensare per forza a un sistema iperconvergente”.

L’esperto ritiene che per una mole così consistente di dati a parte le piattaforme NAS, esistono altre soluzioni più convenienti come Hadoop, il framework open source di Apache, o i sistemi SOS (Shared Object Storage).

Ad ognuno il suo nodo

Ultimamente i vendor di sistemi iperconvergenti offrono nodi di diverse dimensioni per venire incontro alle esigenze del cliente. Questa pratica è relativamente nuova. Infatti fino a poco tempo fa quando si acquistava un sistema iperconvergente, i nodi erano sempre al massimo delle loro capacità, ma spesso il cliente non utilizzava tutto questa potenza e sprecava soldi per un investimento sovradimensionato rispetto alle sue effettive esigenze. Ora invece, se un’azienda arriva al massimo delle proprie capacità di storage, può decidere di includere un nuovo nodo decidendo sempre sulla dimensione di cui necessita.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2