Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Storage Enterprise: è il momento di pensarci

pittogramma Zerouno

Storage Enterprise: è il momento di pensarci

13 Gen 2014

di Giampiero Carli Ballola

Cinque punti da considerare per un ripensamento generale dello storage visto in chiave di risorsa fondamentale per la capacità dell’It di rispondere ai bisogni dell’impresa: miglioramento dell’efficienza; adeguamento dei sistemi e delle strategie di archiviazione alla realtà dei dati non strutturati; capacità di gestire la “consumerizzazione” dello storage; miglioramento delle prestazioni; scelta dei sistemi storage di primo livello, quello più critico per la funzionalità del data center.

Come i responsabili delle infrastrutture e delle operazioni It sanno, il ruolo dello storage nell’architettura e nelle funzionalità di un data center è profondamente cambiato negli anni. L’evoluzione della tecnologia da un lato e quella delle funzioni stesse dell’It nei confronti del business dall’altro, hanno fatto sì che una componente concepita come “periferica” al sistema sia diventata in un tempo relativamente breve (spesso più breve del ciclo di vita dei sistemi fisici dedicati) un elemento fondamentale dell’efficienza dell’intero data center. È di fatto la “terza gamba” sulla quale, con i componenti server e networking, si regge la capacità dell’infrastruttura It di rispondere ai compiti cui è chiamata. Si impone quindi un generale ripensamento e per aiutare a individuare gli aspetti del “problema storage” sui quali focalizzare l’attenzione, Forrester Research ha svolto nel 2013 un’indagine presso It Executive in diversi ruoli e responsabilità in modo da capire quali siano i problemi più sentiti in quest’area e come si possano affrontare. Sul report che da tale indagine è stato tratto si basano le seguenti considerazioni.

Le priorità che guidano il ripensamento della funzione e delle infrastrutture storage emerse dall’indagine citata sono cinque:

  1. il miglioramento dell’efficienza;
  2. l’adeguamento dei sistemi e delle strategie di archiviazione alla realtà dei dati non strutturati;
  3. la capacità di gestire la “consumerizzazione” dello storage (cioè l’offerta di servizi sfruttabili direttamente dagli utenti);
  4. il miglioramento delle prestazioni;
  5. la scelta dei sistemi storage di primo livello, quello più critico per la funzionalità del data center.
Figura 1: I ruoli delle differenti tecnologie nel coprire diversi bisogni di storage Fonte: Forrester Research

Prima di trattare questi punti va però detto che nessuno si può considerare più o meno importante rispetto agli altri. Come mostra la tabella di figura 1, le priorità sono dettate dal ruolo delle figure in gioco. Se infatti per i responsabili I&O (infrastruttura e operazioni) l’efficienza è al primo posto, per il risk manager lo è lo storage “consumer”, mentre per il Cio conta la scelta delle soluzioni.

 

1-Efficienza: come fare di più con minori risorse

La pratica di ovviare alla crescita delle esigenze storage semplicemente comprando nuovo hardware è durata troppi anni perché, coi tempi che corrono, vi si possa ancora far ricorso: mentre la crescita dei dati sfiora il 50% anno su anno, i Cio che possono contare su una crescita, anche piccola, del budget sono pochi. Ma c’è un'altra cosa da considerare: esiste uno scollamento tra la crescita dell’investimento, dovuta a costosi sistemi di primo livello e midrange di fascia alta, e la crescita dei dati, dovuta per lo più al volume di contenuti e a dati non strutturati. Ciò significa che si usano sistemi le cui prestazioni sono inutilmente elevate per trattare dati che solo in poche realtà aziendali sono davvero critici per il business.

Occorre quindi sviluppare un’infrastruttura che abbia un approccio workload-centrico, ossia che assegni le risorse storage secondo le caratteristiche dei carichi di lavoro delle applicazioni servite (che sono intuibilmente diversi, per esempio, tra un’applicazione transazionale e una di business intelligence). Per far ciò è necessario che i responsabili I&O lavorino in stretta collaborazione sia con il business sia con lo sviluppo software, in modo da allineare le richieste storage sulle diverse esigenze delle applicazioni (e quindi del business) con un processo di right-sizing che, per dire, destini il costoso storage ‘five-nine’ (availability del 99,999%) solo dove occorre davvero. La semplificazione del provisioning data da un ambiente storage software-defined, che riduce l'intervento umano sino a giungere all’assegnazione automatica delle risorse secondo regole predefinite, permette di fornire i livelli di servizio richiesti con ridotti costi di gestione.

2-Archivi e dati non strutturati: adeguarsi alle nuove realtà

Circa la metà dei problemi che impegnano oggi i responsabili storage riguarda l’organizzazione degli ambienti di gestione dei dati non strutturati e l’aggiornamento degli archivi, due cose da affrontare in una stessa visione strategica in quanto l’una influisce sull’altra e viceversa. Questi compiti sono svolti oggi da sistemi storage di secondo livello, spesso come Nas scalabili orizzontalmente, ma sta emergendo la più efficiente ed economica alternativa dello storage a oggetti. Si tratta di un’architettura che, a differenza della gestione per file system o blocchi fisici, tratta “oggetti” complessi che comprendono dati, metadati e un identificatore univoco.

Oggi una metà dei comparti It sta considerando lo storage object-based e il 27% lo ha già implementato, ma la sua scelta va al di là dei fattori economici, in quanto richiede delle Api di tipo Rest (REpresentational State Transfer) in grado di definire e indirizzare le risorse fisiche del tutto diverse da quelle adottate per la gestione a blocchi o via Nfs. Occorre quindi che il responsabile I&O si consulti con i team di sviluppo prima di prendere una decisione. In realtà, esistono dei gateway fruibili via cloud per accedere a risorse storage a oggetti tramite interfacce a blocchi o a file, ma si tratta di una spesa aggiuntiva.

3-Fermare i rischi della “storage consumerization”

L’ingresso in azienda di soluzioni It mutuate dal mondo consumer non si limita agli smartphone, ma investe l’area storage sotto la veste dei servizi di condivisione e file synchronization basati su cloud (come Dropbox, per dirne uno). La facilità con cui un qualsiasi dipendente estraneo all’It, ma utente dei servizi It aziendali, può ricorrervi e gli oggettivi vantaggi che un “knowledge worker” ne può trarre sul piano della collaborazione ne hanno moltiplicato l’uso. Ma ciò rappresenta un grande problema per la sicurezza.

La frammentazione dell’offerta (Forrester conta più di 50 fornitori) e la possibilità che un utente cambi fornitore rende difficile applicare pratiche di protezione e crittografia dei dati. Bisogna quindi scegliere la piattaforma che dà le maggiori garanzie (ricorrendo ai criteri adottati dall’indagine Forrester Wave) e scartare quelle che non supportano i dispositivi degli utenti, non rispondono ai loro bisogni e, soprattutto, non sono d’uso intuitivo (il dipendente cambierà servizio se quello proposto dall’azienda non è comodo da usare). A tal fine conviene identificare utenti-pilota, valutandone il feedback. Ovviamente, esiste anche la possibilità di creare  un servizio interno, su cloud privato, una scelta che dipende solo dal grado di sicurezza e conformità normativa richiesto dalla specifica attività dell’impresa.

4-Dischi a stato solido alla sfida delle prestazioni

Le esigenze del business portano sempre più l’It a eseguire compiti operativi in base a dati elaborati quasi in tempo reale, con database transaction-sensitive (cioè aggiornati istantaneamente), ambienti server virtualizzati e soluzioni di desktop virtualization. Ciò spinge le prestazioni richieste allo storage in termini di velocità di accesso al dato, e l’unica vera risposta richiede nei dischi a stato solido (Ssd) basati su memorie flash, che permettono di eseguire migliaia di operazioni di input/output per secondo (Iops) contro le 200 di un disco magnetico. Per questo, tra chi li ha già adottati e chi lo farà nei prossimi mesi, gli array a stato solido sono già diffusi nel 55% delle imprese (vedi figura 2).

Figura 2: L'interesse delle aziende per il solid state storage sta crescendo
Fonte: Forrsights Hardware Survey, Q3 2012 e Forrsights Hardware Survey, Q3 2013

Nonostante i vantaggi prestazionali (e non solo: i flash array occupano molto meno spazio e consumano molta meno energia dei dischi magnetici) parecchi responsabili I/O fanno fatica a proporne un maggior uso a causa del costo elevato in termini di capacità. Ma poiché i prezzi delle memorie flash continuano a scendere e la deduplicazione on-line dei dati (che riduce le esigenze di capacità) si va diffondendo, per Forrester è il momento giusto per introdurre gli Ssd su larga scala a tutto vantaggio della virtualizzazione delle risorse e del rendimento dei database. Il confronto dei costi in base alla capacità è frutto della vecchia visione dello storage come “periferica” di cui si è detto. La nuova metrica per valutare lo storage come elemento chiave del data center è invece proprio l’Iops e sul costo per operazione lo Ssd risulta di gran lunga vincente (vedi figura 3). 

Storage mission-critical: aggiornarlo conviene?

Figura 3: comparazione dei costi tra le performance dei dischi allo stato solido rispetto alle performance dell'hard-drive
Fonte: September 2, 2013, “Build Your Business Case For All-Flash Storage Arrays” Forrester report

A differenza dei sistemi midrange o di secondo livello, il cui ciclo di obsolescenza è di quattro o cinque anni, lo storage di primo livello ha una vita molto lunga, anche oltre i dieci anni. La ragione è semplice: non solo si tratta di sistemi costosi, progettati per la massima affidabilità, ma di solito servono ambienti mainframe e applicazioni legacy che altri sistemi non supportano. Si cerca quindi di prolungarne il servizio con continui aggiornamenti per non affrontare i rischi di una completa sostituzione. Si tratta però di una strategia che nel lungo termine può diventare onerosa per il costo del lavoro e rischiosa per l’eventualità che certi componenti non vengano più fabbricati, costringendo a soluzioni di ripiego la cui affidabilità non è più garantita dal fornitore. Non è detto, sottolinea Forrester, che sostituire un vecchio sistema sia sempre la scelta migliore, ma ci sono dei vantaggi che non vanno ignorati. Per cominciare, ogni nuova generazione offre dischi, Ssd e processori dal migliore rapporto prezzo/prestazioni. Poi i sistemi più recenti sono meno ingombranti e consumano meno energia, due fattori che entrano nel costo totale della soluzione e che vanno considerati se si entra nell’ordine d’idee del rinnovo.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 3