Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Storage, ovvero l’archiviazione intelligente delle informazioni

pittogramma Zerouno

Storage, ovvero l’archiviazione intelligente delle informazioni

12 Ott 2009

di Giampiero Carli Ballola

La memorizzazione e archiviazione dei dati sta evolvendo da pura necessità al servizio delle applicazioni ad una risorsa in grado, se ben gestita e organizzata, di sostenere in più modi la competitività dell’impresa, offrendo maggiore efficienza e migliori servizi a supporto del business, riducendo nel contempo rischi e costi. Un’opportunità che, specialmente in tempi difficili, occorre saper sfruttare e che, da qualche tempo, sta in cima ai pensieri dei Cio e dei responsabili delle Infrastrutture e Operazioni

Se andiamo a guardare i testi d’informatica, ma anche Wikipedia, lo storage, ovvero la memoria di massa, come è correttamente definito, viene collocato tra le periferiche, alla stregua della tastiera, della stampante, del monitor e di qualsiasi altro dispositivo d’ingresso e/o uscita dei dati. E si parla anche di memoria ‘secondaria’, a sottolinearne la posizione logicamente e architetturalmente subordinata rispetto a Ram, Rom e Cache che, nell’insieme, formano la memoria principale. Ma se nella teoria dei sistemi la memoria di massa è e rimane un elemento periferico, nella pratica dei Data center lo storage è un elemento centrale. E non fosse altro perché assorbe una quota sempre più grande del budget It, le scelte architetturali in materia di storage e le attività di configurazione, gestione e manutenzione correlate sono da qualche tempo in cima ai pensieri dei Cio e dei responsabili delle Infrastrutture e Operazioni.
   Una stima elaborata da Gartner e che troviamo spesso citata quando si parla di storage è che nel 2011, ossia tra poco, gli utenti avranno installato 6,5 volte il volume in terabyte dello storage che avevano installato nel 2007, solo due anni fa. E  anche calcolando il decrescente costo dei disk array rispetto all’aumento della densità, cioè dei TB per disco (un rapporto che peraltro continua sì a migliorare, ma non più ai ritmi di qualche anno fa), ancora Gartner aveva stimato nel 2008 che la spesa per lo storage era cresciuta e  sarebbe continuata a crescere a tassi del 7,7 e del 7,4%, rispettivamente per l’hardware e per il software, valori tripli della crescita dei budget It, stimata allora attorno al 2,5%. L’attuale fase di recessione economica non ha affatto migliorato le cose, nel senso che i budget It sono, nel migliore dei casi, rimasti quelli che erano (anche se vi sono segni di un ritorno degli investimenti entro il 2010) mentre la spesa in storage, specie per il software, non è rallentata. Il fatto è che proprio perché (o almeno, anche perché) siamo in un periodo nel quale si chiede ai Cio di fare di più con meno, ossia di fornire nuovi servizi o migliorare quelli in atto senza chiedere nuove risorse, le esigenze di storage richiamano nuovi investimenti. Cerchiamo di spiegare quello che può sembrare un paradosso. 
   
Gestire i dati ai fini degli obiettivi di business
La crescita delle esigenze di memorizzazione è determinata da una serie di fattori che si possono dividere in due grandi classi: fattori di crescita quantitativa e fattori di crescita qualitativa. I primi, quelli che portano ad aumentare il numero dei terabyte da installare, sono parecchi. Prima di tutto l’aumento del volume dei dati da trattare dovuto alla crescita del business; poi quello dovuto, a parità di transazioni, all’aumentata complessità dei dati stessi; poi ancora quello dovuto ai nuovi servizi sviluppati a supporto del business (è quasi impossibile che un qualsiasi progetto It, dalla business intelligence al tracciamento Rfid, non generi nuovi dati) e infine quello dovuto alla compliance normativa, un fattore esogeno ma che sullo storage ha un forte impatto. Tutti questi fattori sono evidenti, nel senso che si possono prevedere e quantificare, e ogni Cio sa bene in quale misura riguardano la propria realtà. Per i fattori di crescita qualitativa il discorso è invece più complesso.
   Come ci dice Rene Millman, Senior Research Analyst di Gartner, da noi interpellato in proposito: “La funzione dello storage si è da qualche tempo evoluta passando da un semplice servizio di repository dei dati a qualcosa altamente critico per il business. La gestione dei dati di una qualsiasi organizzazione dev’essere non solo efficiente, ma anche in grado di rispondere ai cambiamenti che possono intervenire nei processi di business. La memorizzazione dei dati deve pertanto essere condotta in vista di scopi che superano quelli strettamente necessari ai processi di business riguardo l’archiviazione o il rispetto delle norme che governano l’attività dell’impresa”. È quindi in quest’ottica di valutazione della gestione dei dati ai fini degli obiettivi e dei risultati di business che vanno visti i fattori di crescita qualitativa di cui vogliamo parlare.
   A grandi linee, le funzioni dello storage che, come dice l’analista Gartner, superano le mere necessità di archiviazione e di compliance per indirizzare i bisogni del business si possono considerare sotto due aspetti fondamentali: quelli che riguardano la sicurezza e la continuità delle operazioni e quelle che riguardano le prestazioni e l’efficienza. Come è intuibile, si tratta di una divisione di comodo, utile per dare un filo logico al discorso, dato che nelle soluzioni che indirizzano la crescita qualitativa dello storage sono sempre presenti entrambi gli aspetti. Ed è soprattutto sempre indirizzata l’efficienza, nel senso di sfruttamento ed ottimizzazione delle risorse esistenti. Ed è proprio per questo che, come si è detto, è in tempi dove occorre far di più con meno che le soluzioni di storage management stanno conquistando l’attenzione del mercato.
   Una ricerca Gartner (Forecast Storage Management Software Market Worldwide) del marzo di quest’anno, quindi abbastanza aggiornata da considerare gli effetti della recessione economica nelle previsioni relative all’arco di tempo considerato, che va dal 2008 al 2013, fornisce risultati molto significativi al riguardo. Premesso che il mercato dello SMS viene valutato 11,8 miliardi di dollari al 2008, con espansione prevista a 15 miliardi nel 2013, il tasso di crescita annuo composto (Cagr) dei due settori d’offerta più maturi e quantitativamente più importanti, vale a dire le soluzioni di Backup e Recovery e di Data Replication, che insieme fanno la metà del mercato, è rispettivamente del 4,2 e del 7,0%. Valori interessanti, ma che impallidiscono a fronte del Cagr del 24,5% dei prodotti di Hsm (Hierarchical Storage Mgmt). Il settore Hsm (cui Gartner associa anche i prodotti per la ricerca e visione rapida di dati archiviati) è inoltre l’unico a registrare una crescita positiva, con un Cagr del 5,3%, anche nell’area dello storage software per mainframe, un mercato in contrazione su tutti gli altri fronti di offerta. E’ vero che il mercato dell’Hsm parte da un volume più basso (748 milioni di dollari nel 2008 rispetto ai 2,88 e 2,81 miliardi del B&R e della DR nello stesso anno), ma la sua crescita fa capire che se le istanze di sicurezza e business continuity, cui si riferiscono, pur con le dovute differenze tecnologiche, i prodotti di B&R e DR, continuano ad acquistare importanza, è la promessa dei vantaggi sul lato delle prestazioni e della efficienza economica nell’utilizzo delle risorse dell’Hsm che fa premio.
   Le soluzioni di Hsm, come sappiamo, provvedono alla migrazione automatica dei file da supporti ad alte prestazioni a supporti di livello inferiore (tipicamente da disk array a librerie a nastro) e viceversa in funzione di politiche predefinite. Scegliendo, ad esempio, di migrare certi dati in base alla frequenza con la quale sono usati oppure all’importanza che ha il tempo di risposta rispetto all’applicazione associata. Una volta messi a punto questi parametri, il software di Hsm assicura il rispetto degli Sla stabiliti per i vari servizi It e ottimizza l’uso delle risorse, intese sia come risorse infrastrutturali sia come risorse umane. A queste ultime, in particolare, viene sottratto un compito insieme gravoso per la tempestività e indilazionabilità degli interventi da fare e tutto sommato a scarso valore aggiunto. Se si tiene conto che, secondo una ricerca condotta per conto di Symantec (il secondo fornitore, dopo Emc, di storage management software, con il 18,7% del mercato) il 37% dei responsabili di Data Center si ritiene a corto di personale qualificato, è probabile che proprio questo vantaggio sia il più apprezzato.
   Tornando al Forecast Gartner sul mercato dello Storage Mgmt Software, è interessante infine notare come lo sviluppo del settore che Gartner chiama Core Storage Mgmt, che comprende le funzioni base di organizzazione dei dati, come il file system e il volume management, ma anche tecnologie avanzate come la storage virtualization e il thin provisioning, sia previsto come sostanzialmente statico, con una crescita in valore da 1,49 miliardi di dollari nel 2009 a 1,56 nel 2013. La cosa sorprende in quanto i vantaggi della virtualizzazione nei confronti sia della gestione del data center, sia del supporto al business sono evidenti. Separando i volumi fisici dai volumi logici si ha infatti un grande guadagno in termini di flessibilità delle operazioni, di semplificazione delle attività di gestione ed infine di ottimizzazione delle risorse, con immediato ritorno economico. Anche il thin provisioning, cioè la tecnologia che assegna gli spazi di storage in base al loro effettivo utilizzo da parte delle applicazioni e non, come avviene normalmente, in base alla semplice richiesta, offre notevoli vantaggi. Prima di tutto, l’eliminazione dello spazio allocato ma non utilizzato permette di ottimizzare l’impiego delle risorse, abbattendo il costo effettivo per gigabyte utilizzato. Poi si ha una riduzione della complessità e del tempo delle operazioni di gestione degli spazi, diminuendo il Tco di hardware e software. Secondo la già citata indagine Symantec, solo il 35% dello spazio storage ‘raw’ disponibile viene effettivamente utilizzato dalle applicazioni per la memorizzazione dei dati. Come mai allora queste tecnologie sembrano segnare il passo? Probabilmente, la ragione sta nel fatto che lo spreco di spazio non è un problema immediatamente percepibile a livello delle operazioni It. Mentre i vantaggi sulla qualità di un servizio di una soluzione di Backup e Recovery sono evidenti e lo stesso vale per l’Hsm, un Data center che spreca spazio storage non funziona peggio di uno che lo impiega bene. Costa solo di più. Anche per questo tutti i maggiori vendor di Storage Mgmt Software (Emc, Symantec, Ibm, NetApp e Hp, che fanno insieme i tre quarti del mercato) forniscono servizi di assessment e tool di analisi dell’efficienza dei sistemi storage dei Data center. Perché, come conclude Millman, “è analizzando come i dati vengono memorizzati e gestiti che un’organizzazione può individuare tendenze utili a trarne, in tempi di recessione economica, un vantaggio competitivo”.

 

I cinque maggiori vendor di software per lo storage management. Fonte: Gartner (marzo 2009)
(Cliccare sull'immagine per ingrandirla)

 

Il fatturato totale e per sottosegmenti del software di storage management dal 2008 al 2013. In milioni di dollari. Fonte: Gartner (marzo 2009)
(Cliccare sull'immagine per ingrandirla)


Tassi di crescita annuali del fatturato totale e per sottosegmenti del software di storage management dal 2008 al 2013. Fonte: Gartner (marzo 2009)
(Cliccare sull'immagine per ingrandirla)

 

Leggi anche Storage: approcci e tecnologie

 

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5