La data protection fra new business e innovazione It

Non solo big data e dati non strutturati. Da gestire meglio ci sono ancora, al momento, soprattutto le informazioni generate dai sistemi tradizionali. Preparandosi, comunque, anche a rispondere alle necessità di modelli in crescita come la virtualizzazione e il cloud

Pubblicato il 14 Giu 2016

Un miscela di crescita del core business e di innovazione tecnologica fa aumentare la qualità e la quantità dei dati che bussano alle porte dei sistemi storage, imponendo ripensamenti tanto nelle strategie per le alte prestazioni che per la data protection. Fra i fattori di spinta verso l’ammodernamento delle infrastrutture storage identificati nella ricerca Forrester “Strategic Benchmark 2014 Storage” (campione di circa 2.300 hardware decision maker di imprese europee e nordamericane), al primo posto (44%) risulta l’incremento dei dati legati alla crescita del business. Al secondo posto (36%) figurano le esigenze di compliance a normative; il 33% degli intervistati segnala la crescita dei dati prodotti da una stessa operazione di business già esistente; il 31% evidenzia l’incremento delle informazioni da gestire per attività di data warehousing, reporting e analytics. In tutti questi casi, si tratta di dati provenienti prevalentemente da “sistemi esistenti”, come piattaforme Erp, Crm e altre applicazioni legacy. A citare come driver di refreshment tecnologici i big data o i file non strutturati (immagini, audio, video, ecc.), sono rispettivamente solo il 17 e il 15% del campione. E in ogni caso per gestire questo tipo di dati, la maggior parte delle aziende preferisce acquistare appliance dedicate, gestite direttamente dai loro vendor, piuttosto che mettere mano ai sistemi storage tradizionali.

Parola d’ordine: sostenibilità

Le spinte verso il potenziamento dello storage si scontrano con un andamento per lo più stazionario dei budget dedicati a questo settore infrastrutturale. Secondo la  “Forrsights Hardware Survey Q3 2013”, sempre di Forrester, tanto per rendere l’idea, verso la fine dello scorso anno, solo l’11% delle aziende esprimeva l’intenzione di aumentare di oltre il 10% gli investimenti in tecnologie di archivizione per i successivi 12 mesi. Il 37% affermava di prevedere incrementi fra il 5 e il 10%, mentre il 43% pensava di mantenerli sui livelli passati.

In questo contesto, emerge la necessità di puntare più sulla qualità che sulla quantità dei sistemi storage. Nella maggior parte dei casi, sottolinea la società di analisi, non è più pensabile risolvere le nuove esigenze di archiviazione dati semplicemente aggiungendo nuovi sistemi storage tradizionali, ma occorre o integrare i sistemi esistenti con nuove tecnologie hardware e software in grado di renderli più efficienti, o sostituire man mano le tecnologie legacy con altre più performanti, flessibili e “cost-effective”. La parola d’ordine non può che essere “sostenibilità”.

Le opzioni per la data protection

Se i problemi di prestazioni nello storage primario vedono la loro principale soluzione nell’adozione delle tecnologie Flash, dal costo discendente, per innovare la data protection sono a disposizione una serie di strategie e funzionalità in parte mature e in parte emergenti. La prima, più ovvia, è senz’altro il “consolidamento”, che permette, fra l’altro, di ridurre lo spazio utilizzato dai sistemi storage e il consumo di energia elettrica. Inizialmente la consolidation è stata ottenuta con la creazione di Storage area network (San), per l’archiviazione a blocchi, e l’implementazione di Network attached storage (Nas), in grado di centralizzare la memorizzazione di file nell’ambito di una rete. Oggi, invece, la stella polare è lo “unified storage”, sistemi che, grazie al supporto multiprotocollo (ovvero di diversi tipi di connettività storage), sono in grado di svolgere contemporaneamente le funzioni di San e Nas. Per quanto riguarda, invece, le funzionalità di data protection più “intelligenti”, tutti i maggiori vendor di storage hanno, negli ultimi anni, integrato tecniche quali le snapshot (creazione di copie degli stati di determinati sistemi in diversi momenti) e la replicazione (generazione di copie automatiche dei dati da indirizzare a diversi dispositivi o a siti o servizi outsourced di disaster recovery).

Processi e ruoli che cambiano

Per distinguersi dalla concorrenza, sia i vendor storage tradizionali sia le new entry del settore puntano su feature ancora più innovative. Sempre secondo Forrester (studio “Market Overview: Midrange storage”, pubblicato lo scorso mese di giugno) queste sono riconducibili a tre aree di ottimizzazione principali: performance, capacità e management.

Alcuni di questi “differenziatori” sono utili anche per l’allineamento della data protection alle nuove necessità di business e ai nuovi paradigmi tecnologici. Uno è l’automated storage tiering, che consente di automatizzare la collocazione dei dati su tecnologie storage con diverse performance, capacità e servizi aggiuntivi in base alle diverse necessità di I/O (input-output). I dati richiesti più di rado – o che non devono essere modificati per motivi di compliance – possono essere indirizzati a unità a disco più economiche. Su queste unità possono essere implementate soluzioni per il backup automatico, backup che può avvenire sia su dischi installati localmente (magari integrati con software per la creazione di Virtual Tape Library, in grado cioè di emulare su disco librerie a nastro), oppure in contemporanea anche su siti di disaster recovery remoti. In quest’ultimo contesto giocano un ruolo sempre maggiore i provider di disaster recovery tradizionale o disaster recovery as-a-service via cloud (DRaaS).

Un’altra feature emergente per la performance optimization è lo storage Quality of Service (QoS) che permette di affrontare uno dei problemi più annosi che caratterizzano i sistemi storage di fascia media e alta: la difficoltà ad attribuire livelli diversi di performance e capacità in base alle specifiche necessità di carichi di lavoro o utenti.

Fra le funzionalità innovative per la capacity optimization, invece, si segnalano la compressione e la deduplica. Va sottolineato che la prima funziona molto bene con i database, ma meno con i file multimediali, che si presentano allo storage già compressi da algoritmi nativi. Per l’archiviazione di questo tipo di dati, d’altra parte, è sempre più frequente la tendenza a ricorrere al modello cosiddetto “object storage”, sia on-premise sia via cloud. In ogni caso, la migliore combinazione di funzionalità di deduplica e replicazione permette – oltre a ridurre lo spazio necessario alla data protection su sistemi on-premise – di ottimizzare i tempi e i costi di connettività con le soluzioni di disaster recovery tradizionali o DRaaS.

Tra le novità più importanti per la management optimization, infine, meritano attenzione quelle per l’integrazione con gli hypervisor e quelle che consentono alle applicazioni di gestire direttamente le proprie necessità di storage provisioning e di data protection, tramite plug-in e Application programming interface. Secondo Forrester, con la crescita della virtualizzazione e del cloud, sempre più attività che fino a ieri ricadevano esclusivamente sugli amministratori storage potranno essere gestite autonomamente dai professionisti della virtualizzazione, dei database e delle applicazioni. Tuttavia il lavoro degli storage administrator non perderà valore, ma potrà invece concentrarsi su attività più strategiche.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2