Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Il cloud storage ad alte prestazioni non è più un sogno irrealizzabile

pittogramma Zerouno

Storage

Il cloud storage ad alte prestazioni non è più un sogno irrealizzabile

Un tempo considerato molto difficile, se non impossibile da implementare, il cloud storage ad alte prestazioni sta finalmente diventando una realtà molto importante per molte aziende

26 Feb 2016

di TechTarget da Digital4

C’è lo storage ad alte prestazioni e c’è il cloud storage. Ma il cloud fa ancora un po’ di soggezione ad alcune aziende che si chiedono ancora se esista davvero un cloud storage ad alte prestazioni. 

C’è stato effettivamente un tempo in cui la risposta a questa domanda era una sola: no. Oggi le cose sono cambiate: cloud storage e sicurezza funzionano. È vero anche che, ogni volta che si sposta qualche parte dell’infrastruttura IT al di fuori del data center, bisogna fare i conti con la latenza, e si avranno problemi di velocità nell’eseguire determinati processi.

Tutte le aziende che hanno chiesto alte prestazioni per lo storage ai loro cloud provider hanno dovuto scendere a compromessi, oppure hanno dovuto rinunciare a questa esigenza. Sempre più spesso però, ci sono nuovi approcci tecnologici emergenti che suggeriscono che si può avere prestazioni molto alte anche per il cloud storage, e che è possibile eseguire applicazioni I/O intensive, sensibili alla latenza, tramite una specifica infrastruttura cloud-based.

Cloud storage ad alte prestazioni

Il cloud storage ad alte prestazioni oggi consente alle aziende di eseguire anche le applicazioni più business critical, offrendo diverse opzioni. Ci sono alcune soluzioni che addirittura aumentano la produttività dei sistemi di storage, coinvolgendo gli apparati residenti in-house e il cloud. Nel caso di applicazioni on-premise, ad esempio, è possibile approfittare del basso costo e della scalabilità di una cloud storage basata su rete WAN. Un altro caso è quello di spostare sulla nuvola l’esecuzione dei calcoli, intefacciandola all’infrastruttura di storage presente nel data center. Il trucco per realizzare un cloud storage ad alte prestazioni non è solo quello di utilizzare sempre più dischi basati su memorie flash. La vera svolta, dicono gli esperti, è di poter fare affidamento su una velocità di trasferimento ancora più elevata, magari con l’introduzione di un’ulteriore ottimizzazione delle performance di rete e dei processi di caching. Oggi esistono soluzioni in grado di combinare tutte e tre questi approcci, e alcune aziende stanno già avendo buoni risultati da queste nuove tecnologie. Andiamo ad analizzare quali sono.

On-premise  a braccetto con il  cloud storage

“Abbiamo sempre pensato che i dispositivi di storage non costano molto –  ha dichiarato David Scarpello, COO at Sentinel Benefits & Financial Group – e, se si ha necessità di ampliare lo spazio di archiviazione, basta andare a comprare un nuovo disco. Io ho sempre sostenuto che lo storage non è a buon mercato, ma mi è sempre stato detto che mi sbagliavo. Lo storage è importante e ci tiene al sicuro, ma non è qualcosa per cui si desidera spendere troppi soldi”.

Tra l’acquisto di nuovi dischi per aumentare la capacità di storage, il supporto, la manutenzione, il personale, il backup, il mantenimento di un sito del data center e il disaster recovery, Sentinel paga oltre 250.000 dollari all’anno per mantenere i 40 TB di spazio di archiviazione in locale (on-promise), che equivale a più di 6.000 dollari al Terabyte.

Come paragone basta prendere alcuni fornitori di cloud pubblici, che offrono capacità di storage a prezzi che sono decisamente inferiori rispetto allo stesso spazio di archiviazione che si può ottenere acquistando normali dischi fissi. Amazon Web Service (AWS) o Simple Storage Service (S3) partono da 0.03 dollari al mese per GB utilizzato, costo che può scendere per esigenze di storage elevate con molti accessi frequenti, o 240 dollari all’anno per ogni terabyte di dati gestito. La proposta economica si basa su storage le cui performance sono adeguate rispetto ai tempi odierni, ma sono decisamente lenti quando si accede tramite una rete WAN. Per questo motivo la sfida per molte aziende è come sfruttare la scalabilità e il basso costo del cloud, pur mantenendo un minimo di prestazioni.

Una soluzione alternativa può essere quella studiata per l’accelerazione del caching dei dati proposta dalla startup bostoniana ClearSky. La società ha messo a punto un tool che combina un apparecchio di caching on-premise e un altro apparecchio identico presente in un POP locale, direttamente collegato al servizio cloud prescelto. Con il caching dei dati a livello locale e l’accesso alla nuvola tramite una connessione dedicata e a bassa latenza, i clienti di ClearSky approfittano dello storage basato su cloud (a basso costo) abbinato a operazioni di calcolo effettuate on-premises senza avere un calo delle prestazioni.

In una prima versione ClearSky ha promesso  una latenza di meno di due millisecondo per clienti che si potevano collegare ai POP di Boston, Philadelphia e Las Vegas. Il piano di ClearSky è quelli di aumentare la propria presenza geografica, e aggiungere il supporto ad ulteriori provider di cloud storage.

Sentinel ha iniziato a testare il servizio con circa 7 TB di dati presenti su Amazon Web Service via ClearSky. Nessuna lamentela è arrivata da parte degli sviluppatori. Probabilmente l’azienda sposterà lentamente tutti i suoi dati, eliminando in tal modo una spesa di 5.000 dollari al mese di manutenzione effettuata da NetApp, e al tempo stesso la necessità di avere sistemi di backup e recovery al di fuori dell’azienda.

Cloud computing e storage: qualche utile caso di studio

Se si eseguono nel cloud applicazioni di database sensibili alla latenza, la miglior cosa da fare è rivolgersi a offerte di storage a blocchi che alcuni cloud provider offrono, come ad esempio AWS Elastic Block Storage (EBS). Questa soluzione però non è il massimo per database che necessitano di grandi carichi di lavoro e che possono essere ostacolati da IOPS (Input/Output Operations Per Second) limitate per la dimensione ridotta dei volumi.

Quando l’azienda National Real Estate, associata alla Realty Data Company è fallita nel  2012, ad esempio, i dirigenti di quest’ultima hanno dovuto prendere decisioni rapide a riguardo dei tre data center dell’azienda fallita: creare un nuovo data center, affittare uno spazio di colocation o passare tutto sul cloud. La decisione presa è stata quella di optare per il cloud.

Come prima cosa il team IT di Realty Data ha criptato i dati, facendoli migrare con una procedura lift-and-shift, replicando così tutte le applicazioni utilizzate in-house direttamente sul cloud, senza riscriverle. Purtroppo la migrazione non è andata a buon fine: migrare 40 TB di immagini dei dischi tramite un array di EMC sul cloud non è stato possibile per motivi legati alla latenza e alle scarse prestazioni del servizio di S3. L’azienda si trovava a dover riscrivere le applicazioni in-house per supportare lo storage da migrare. La soluzione AWS EBS non era una scelta compatibile con le necessità, perché offriva volumi di un solo terabyte, cosa che avrebbe fatto venire il mal di testa per la gestione di tutti i dati da spostare, al team IT. Grazie alla consulenza dell’azienda attiva sul cloud RightBrain Networks, i l team IT di Realty Data ha utilizzato un Virtual Private Storage Array (VPSA) di Zadara, dedicato all’archiviazione single-tenant, adiacente al centro cloud e collegato tramite fibra ottica. Il VPSA di Zadara offre interfacce SAN e NAS, ed è compatibile a livello di prestazioni con l’array on-premises di EMC. Da allora Zadara ha VPSA presso altri fornitori di cloud, così come una versione on-premises che fornisce il consumo cloud con il sistema pay-as-you-go.

I servizi di cloud che forniscono storage a blocchi sono progrediti. Ad sempio AWS EBS ora supporta i formati di volume fino a 16 TB e le operazioni di IOPS sono effettuate tramite dischi SSD che possono arrivare a 20.0000 IOPS per volume. Tuttavia, nonostante questi valori siano molto buoni per i carichi di lavoro di molti data base, non sono sufficienti per tutti. Lawater Inc, azienda chimica con sede a Chicago ha recentemente trasferito la propria infrastruttura SAP e SharePoint al servizio di cloud offerto da Dimension Data. Anche in questo caso è stato scelto il VPSA di Zadara perché si aveva la necessità di garantire un minimo di 20.000 IOPS per spostare l’ambiente SAP. “Gli standard di archiviazione di Dimension Data non soddisfavano le nostre esigenze”, ha dichiarato Antony Poppe, Global Network and Virtualization Manager dell’azienda.

Molti fornitori di storage tradizionali vedono nei cloud provider nuovi clienti. Ma non solo alcuni provider che offrono soluzioni di storage a blocchi non riescono ad avere prestazioni IOPS decenti, ma molti utenti che utilizzano il cloud lamentano problemi di prestazioni. Per questo motivo i vendor di storage sono in competizione per proporre il miglior prodotto che possa effettuare il maggior numero di IOPS, per avere così un dispositivo appetibile da vendere ai service provider

L’accoppiamento cloud e storage dedicato può avere prestazioni prevedibili. Allo stesso tempo però utilizzare storage dedicato per i carichi di lavoro che utilizzano il cloud è rassicurante per le aziende, ha dichiarato Catherine Van Aken, Lead for Business Development, Channels and Partners  di Virdata, azienda che sviluppa dati e analisi per le grandi piattaforma dedicate alla gestione delle applicazioni Internet of Things (IoT) e la cui piattaforma è basata su OpenStack in esecuzione su NetApp FlexPod.

“Non tutti i clienti sono pronti per il cloud pubblico – ha raccontato Van Aken -. Il mercato è in crescita, ma si sposterà nella nuvola nel corso del tempo. Secondo IDC entro cinque anni, oltre il 90% dei dati della IoT sarà sul cloud. Virdata è in grado di offrire ai propri clienti un approccio graduale da un ambiente tutto on- premises a uno basato sul cloud”.

“Utilizzare uno storage tradizionale nel cloud offre familiarità nella gestione dei dati” ha aggiunto Phil Brotherton, NetApp Vice President di  Data Fabric Group. Per inciso, NetApp ha centinaia di clienti per la sua NetApp Private Server, che offre prestazioni veloci e bassa latenza a fornitori di cloud tra cui AWS, Microsoft Azure, IBM SoftLayer e Alibaba Group.

Elaborazione dei dati sul cloud, ma storage in locale

Per alcune aziende non esiste un servizio cloud di storage che possa contenere tutti i dati. Il volume di questi è spesso troppo grande, gli investimenti per infrastrutture di storage in locale sono molto esosi o i regolamenti che disciplinano le loro azioni sono troppo severi per poter pensare di portare tutti i dati nel cloud. Effettuare le operazioni di calcolo nel cloud è un’altra storia.

“Ci sono diversi scenari in cui un’azienda potrebbe voler eseguire un’applicazione nel cloud, ma mantenendo i dati in locale – ha ribadito Issy Ben-Shaul, CEO di Velostrata, una startup il cui software di storage è disaccoppiato dalle operazioni di calcolo -. Si può così decidere di utilizzare il cloud computing per la modernizzazione delle applicazioni, per i test, o per ospitare i picchi di utilizzo. Nel frattempo, mantenendo i dati in locale si offre protezione degli investimenti, si rispettano gli obiettivi di conformità, e si evitano massicci sforzi per la migrazione dei dati. Si può anche gettare le basi per una strategia multi-cloud, spostando le applicazioni nel cloud senza dover apportare modifiche agli archivi dei dati di tali applicazioni”.

Oltre a spezzare le connessioni tra archiviazione e calcolo, il software di Velostrata si occupa di spostare il flusso di dati in arrivo dalla cache delle applicazioni dallo storage in locale al cloud. Si compone di due macchine virtuali, una prodotta da VMware vCenter che media l’accesso all’archiviazione on-premise per le operazioni di lettura e scrittura, e una nel cloud che comunica con i processi di calcolo in esecuzione, e si integra con i sistemi di monitoraggio.

“L’idea è quella di avere un cloud-agnostico – ha concluso Ben-Shaul -, che permette a macchine virtuali di eseguire nativamente le applicazioni in un ambiente cloud di destinazione. Ci sono ovviamente una quantità enorme di interessi, ma, allo stesso tempo, si deve veramente risolvere alla velocità della luce questa sfida”.

TechTarget da Digital4

Argomenti trattati

Approfondimenti

B
Backup

Articolo 1 di 5