Ibm: efficienza dello storage per aumentare le performance

Mentre la maggior parte delle società di software si concentra su come ridurre la mole di dati da avviare al backup, big blue si è focalizzata sull’obiettivo di  contenere la voracità dei dati primari, anche quelli che girano su server virtuali.

Pubblicato il 19 Mag 2011

p27-walsh

Secondo diversi analisti, la quantità di dati da archiviare raddoppia ogni anno e mezzo o due, mentre i budget per acquistare nuovi sistemi a disco e reti più veloci non seguono lo stesso trend. Cosa fare, dunque, se i nuovi processi delle aziende richiedono, per esempio, un aumento di dati non strutturati da trattare (presentazioni, immagini, video) o di database da utilizzare per analisi di business?
Quasi un anno fa, esattamente nell’agosto 2010, Ibm ha acquisito Storwize, una società di Marlborough, Massachusetts, specializzata nella produzione di appliance che sfruttano un algoritmo in grado di comprimere dal 30 all’80% i dati utilizzati dagli utenti. Appliance che si implementano prima dei server o dei sistemi storage per aumentare la quantità di dati memorizzabili senza dover acquistare nuovo hardware. Mentre la maggior parte delle società di software si concentravano su come ridurre la mole di dati da avviare al backup (i cosiddetti dati secondari) al fine di mitigare l’aumento dei costi legati a questa sempre più richiesta attività, Big Blue si è focalizzata sull’obiettivo di contenere la voracità di spazio dei dati primari, ovvero quelli effettivamente usati dalle applicazioni, comprese quelle che oggi girano su server virtuali.
“Il problema del raddoppio delle necessità di storage ogni due anni – ha detto recentemente in una conferenza stampa Edward Walsh, cofondatore di Storwize e ora director Storage Efficiency Strategy di Ibm – è annoso. Una decina di anni fa, questo trend ha portato a far divenire uno standard la compressione dei dati sui nastri. Quindi è arrivata la Wan optimization e, circa tre anni fa, la backup deduplication. Ogni volta si è andati sempre più vicino al first tier dell’archiviazione dei dati. Il fenomeno più nuovo è la compressione dei dati in tempo reale. Quella che propone Ibm non implica compromessi a livello di performance”.
Già, perché normalmente il concetto di compressione evoca quello di deterioramento delle prestazioni, dovuto alle attività necessarie a ricostruire le informazioni originarie: operazione che, nella maggior parte dei casi, non si riesce neppure ad effettuare in modo completo, dal momento che, per ridurre i file, i tradizionali algoritmi di compressione eliminano informazioni ritenute ridondanti. “Nel nostro caso – assicura Walsh – non vi è perdita di informazioni. Al termine della decompressione si riottiene la quantità iniziale di dati”. C’è un trucco? “Certo. In fondo noi bariamo” scherza il manager Ibm, riferendosi ovviamente allo storage. “La tecnica è contenuta in 35 brevetti che sono stati realizzati in otto anni di sforzi intorno al tema della compressione”, continua.
Quali i principali vantaggi derivanti dalla compressione online dei dati primari proposta da Big Blue? “La compressione storage senza compromessi – risponde Walsh – favorisce il consolidamento dell’It e l’ottimizzazione delle risorse. Riduce i colli di bottiglia nelle operazioni di I/0. Consente di ridurre le necessità di dischi fino all’80%, permettendo così risparmi economici, di energia per il raffreddamento e di spazio fisico. La maggiore efficienza dello storage porta ad aumenti delle performance fino al 300%, mentre riduce fino al 50% gli sforzi di amministrazione. Si possono, infine, attuare più attività di analisi”. Meglio di così…

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4