Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Intelligent archiving: imparare a ottimizzare

pittogramma Zerouno

Intelligent archiving: imparare a ottimizzare

08 Set 2009

di Nicoletta Boldrini

Nonostante la voce archiviazione stia incidendo significativamente sui budget It, solo il 35% dello storage installato nelle aziende è realmente utilizzato. La maggior parte delle organizzazioni ha dunque molto più storage del necessario, ma non è in grado di visualizzare questa disponibilità, accedervi o riassegnarla. Questa incapacità scatena il pericoloso circolo vizioso dell’acquisto “inutile” e allora la risposta è una sola: smettiamo di acquistare storage, ma impariamo a gestirlo. Se ne è parlato nel corso di un Executive Lunch organizzato da ZeroUno in collaborazione con Idc e Symantec

MILANO – L’aumento quantitativo dei dati che ogni azienda deve gestire, ma soprattutto la loro differente tipologia, con un “peso” sempre maggiore dei dati non strutturati che necessitano di spazio e complessità di archiviazione e ripristino più elevati dei dati operazionali, ha comportato un aumento della complessità all’interno dei dipartimenti It nonché una crescente spesa di soluzioni di storage. Tuttavia, nonostante la voce storage stia incidendo significativamente sui budget It, gli analisti stimano che solo un terzo (o poco più) dello storage installato nelle aziende sia correttamente utilizzato (circa il 35%). Il dato è confermato da una recente inchiesta online dedicata al tema della business continuity che ZeroUno ha realizzato nei mesi scorsi in collaborazione con Symantec (su un campione di circa 85 aziende medio-grandi operanti sul mercato italiano) dalla quale risulta evidente che, ottimizzando in ambito storage una molteplicità di funzioni, è possibile ridurre i costi, rendendo più efficienti aree non coperte o coperte fino a oggi da soluzioni eterogenee e, in quanto tali, responsabili di significativi costi di gestione e manutenzione (si legga a tal proposito l’articolo “Business continuity, fattore di efficienza del business” pubblicato su ZeroUno di marzo 2009, disponibile anche sul sito www.zerounoweb.it all’interno del Security Web Journal). Se la soluzione più ovvia sembra dunque evitare di fare nuovi acquisti storage e concentrarsi su una migliore gestione di quello già esistente e sotto utilizzato, la strada non appare affatto semplice. Il tema è stato affrontato nel corso di un Executive Lunch organizzato da ZeroUno in collaborazione con Idc e Symantec (www.symantec.com), nel corso del quale si è cercato di comprendere quali sono le criticità comuni alle aziende nell’ambito della gestione dello storage e come queste possono essere affrontate e superate.  
“Il punto di partenza è la gestione della complessità. Muoversi all’interno della complessità per riuscire a dare delle risposte in termini di maggior efficienza è un approccio trasversale a tutta l’azienda – esordisce Stefano Uberti Foppa, direttore di ZeroUno e chairman dell’evento (nella foto) -. Quella legata ai dati è una delle numerose complessità cui l’It deve rispondere sia in relazione al dato come elemento strategico del business, sia in relazione alla sua archiviazione, disponibilità, sicurezza”. Tutti aspetti che lo storage può supportare se adeguatamente gestito.
  
Verso un sistema informativo efficiente
Analizzando lo scenario attuale, Antonio Romano, general vice president Sud Europa e general manager Italia di Idc (nella foto), parla di “cambio di paradigma” come nuovo imperativo per le aziende (ma soprattutto per i dipartimenti It), precisando che ciò significa rivedere il proprio modello di business, riposizionarsi sul mercato (che per l’It è rappresentato dalla propria azienda) attraverso il supporto di sistemi informativi efficienti. Sono quattro i paradigmi di questo scenario evolutivo delineato dall’anlista. Primo fra tutti, il baricentro dell’impresa che sposta l’attenzione dai dati strutturati/transazionali (sistema Erp Centrico) ai dati non strutturati (il vantaggio competitivo dell’azienda oggi si crea attraverso la conoscenza che viene sempre più dalle informazioni non strutturate). Secondo paradigma, il tempo: cambia il concetto di disponibilità; non è più il real-time a portare efficienza al business ma il “just in time” (ossia disponibilità quando serve). “Il concetto è semplice ma la rigidità dell’It rende questo passaggio una sfida molto dura”, afferma Romano. Terzo cambio di paradigma attraverso il quale raggiungere nuova efficienza è legato al concetto del Tco che può (e deve) essere raggiunto e ottimizzato non solo in relazione all’acquisto di nuova tecnologia ma anche attraverso progetti di rinnovamento di ciò che già esiste (oggi l’inefficienza si è spostata sul data center, inteso come centro di elaborazione dati, indipendentemente dalle sue dimensioni o da quelle dell’azienda). Ultimo dei paradigmi, la virtualizzazione. 
Concludendo il suo intervento e prima di partecipare alla tavola rotonda, Romano sottolinea come “Per governare il cambiamento e ricavarne opportunità è oggi fondamentale capire e comprendere i nuovi paradigmi e coerentemente con questi articolare i propri investimenti”. “Prima si acquistava tecnologia sperando che questa fosse d’aiuto per cambiare l’azienda – dice Romano -. Oggi, devo prima capire come la mia azienda può evolvere e in che modo per poi selezionare la tecnologia a supporto. L’obiettivo non è avere la miglior tecnologia, ma quella più adatta ed efficiente in base alle proprie esigenze. E l’efficienza si ottiene anche imparando a gestire meglio quello che già si ha a disposizione”. 
  
Comprensione delle inefficienze
Certo non è affatto semplice imparare a gestire meglio le proprie risorse e, anche laddove si comprendono le inefficienze (che già di per sé rappresenta un ottimo risultato), la strada del cambiamento è tortuosa. Questa è un po’ l’opinione generale emersa nel corso della tavola rotonda che ha animato l’evento ZeroUno. Alessandro Bargioni (nella foto), responsabile Ict di Società Toscana di Edizioni (editore del quotidiano “Il Giornale della Toscana” – www.giornaletoscana.it), conferma la visione sottolineando come nel loro caso, l’attenzione sia soprattutto posta sui processi: “Nel nostro caso la gestione è molto complessa – dice Bargioni -. A livello di ottimizzazione, in questo momento ci stiamo concentrando sulla dematerializzazione dei documenti (con inevitabili riflessi sullo storage); riuscire ad impostare un sistema robusto ed efficiente, seppur complesso, non è tutto sommato la criticità primaria, data invece dal ridisegno dei processi che per noi significa impostare nuovi criteri di fruizione e archiviazione dei documenti e convincere gli utenti a “ragionare” in modo diverso”.    
La revisione dei processi e una politica di maggiore governance legata alla gestione delle informazioni è stato il punto di partenza anche per Banca Intesa Sanpaolo (www.intesasanpaolo.it). Claudio Faraguti, funzionario HR e organizzazione dell’istituto (nella foto), ha illustrato come questo step (all’interno di una strategia volta al maggior efficientamento dell’It) abbia “fatto emergere lo spreco di dati non strutturati, ossia l’eccesso di questi dati: quelli considerati utili per il business sono in percentuale inferiore rispetto a quelli non fondamentali. Inevitabili quindi le conseguenze sullo storage, soprattutto per quello non centralizzato”. “Fino a poco tempo fa acquistare nuovo storage era la soluzione più veloce e, tutto sommato, non implicava nemmeno costi eccessivi”, prosegue Faraguti. “Oggi il trend è cambiato anche per noi, non tanto per una esigenza di cost saving, quanto piuttosto perché ci siamo resi conto delle aree di inefficienza legate prima di tutto all’informazione (e quindi con riflesso sullo storage)”. 
“Il vero punto critico non è la gestione dello spazio fisico in sé – interviene Luigi Tunice, incaricato It di Generali Servizi Informatici (www.generali.com) -, quanto piuttosto arrivare a comprendere cosa se ne fa dello spazio, come viene utilizzato e, di conseguenza, dove sono gli sprechi”.
   Dello stesso parere Nadia Bertone (nella foto), responsabile sistemi, reti e sicurezza di Bartolini (www.bartolini.it), che pone l’accento proprio sulla visibilità, il controllo e il monitoraggio: “Fare degli assessment e delle analisi ogni tanto non è più sufficiente perché la situazione cambia molto rapidamente; riuscire invece ad avere sempre una buona comprensione di ciò che sta accadendo in azienda (a livello di storage capire come, dove, quando, da chi e in che modo viene “consumato”) è diventato necessario per riuscire a sostenere adeguatamente il business”.     
  
La reperibilità delle informazioni
   Gli interventi della tavola rotonda hanno quindi sollevato la questione legata ai dati non strutturati e all’importanza delle informazioni. Uberti Foppa ha chiesto ai Cio presenti quali fossero allora “gli interventi possibili per arrivare ad avere quel disegno strategico (nonché l’infrastruttura tecnologica a sostegno) utile a gestire la reperibilità e la fruizione corretta delle informazioni”. 
“Secondo me la base per la reperibilità delle informazioni è la business continuity – interviene Michele Pittoni (nella foto), direttore corporate organizzazione Ict di Isagro (www.isagro.it) -. Oggi le informazioni sono un elemento assolutamente fondamentale per il business, quindi business continuity e disaster recovery devono essere efficienti anche in funzione del fatto che servono a garantire la disponibilità delle informazioni. Lo storage viene dopo”. Provocatoriamente Pittoni sottolinea come, a suo avviso, “bisognerebbe non tanto bloccare l’acquisto di nuovo storage, quanto “impedire” che venga usato. L’obiettivo è ridurre il traffico dei dati non strutturati stimolando l’uso di sistemi come, per esempio, la Intranet aziendale”. Certo, riconosce Pittoni, questo comporta uno sforzo anche a livello di processi non indifferente.
“Bisogna lavorare su processi e policy – interviene Maurizio Colombo, responsabile Ict e Organizzazione di Bcc Vita (www.bccvita.it) -. Il 30% delle informazioni è eccessivamente ridondato e rappresenta uno spreco oggettivo (oltre ad impattare sui costi)”.
  

Ottimizzare lo storage: come si fa?
“Cosa fare dunque per ottimizzare?”, chiede ai Cio Uberti Foppa. “Agire sul punto di generazione delle informazioni”, risponde Pierpaolo Argiolas (nella foto), responsabile standard sicurezza e communication, direzione Ict di Ferrovie dello Stato (www.ferrovie.it). “Se creo un file sul mio pc e ne faccio poi una copia da inserire nell’archivio centralizzato (cosa assai comune) aumenta la ridondanza. Bisognerebbe creare un unico punto di generazione, fruizione, archiviazione delle informazioni”.  
Sul tema dell’ottimizzazione dello storage è intervenuto Vincenzo Costantino, Italy Presales Country Manager di Symantec (nella foto) che dalla prospettiva della propria azienda ha illustrato le 4 vie possibili per arrivare a tale traguardo: prima, smettere di comprare storage; “Solo circa un terzo dello storage acquistato è realmente utilizzato – dice il manager -. Molto spesso lo spazio assegnato è inutilizzato o c’è spreco nei dati duplicati”. Seconda via, ricorrere al thin provisioning, funzionalità dello storage che permette di “far credere” ai server di aver allocato una certa quantità di spazio (in realtà, viene usato solo quello veramente necessario, evitando quindi allocazioni fisiche che richiedono tempo e denaro). Terza via possibile, ridurre la duplicazione dei dati: “Con un semplice cruscotto si riesce oggi ad avere una mappatura completa dello storage – spiega Costantino -. Avendo una vista completa su quanto storage si ha, quanto ne viene utilizzato, quanto spazio serve ai dati replicati, ecc. posso intraprendere con maggiore efficacia la via dell’ottimizzazione”. Quarto intervento possibile, l’archiviazione dei dati ritenuti non più necessari (che occupano spazio ma non vengono fruiti). 
In Vodafone (www.vodafone.com) l’ottimizzazione dello storage è partita dall’analisi qualitativa dei dati. “Facendo un’analisi sulle informazioni, ci siamo resi conto che c’era troppa ridondanza di dati ritenuti eccessivamente “sensibili”, spiega Vincenzo Spada, responsabile Corporate Security – Ict Security&Privacy Governance della società (nella foto). “Quello che abbiamo cercato di fare è bilanciare l’esigenza di protezione delle informazioni (ridondate) con quella di razionalizzazione dello storage; l’unica via, a nostro avviso, era analizzare la qualità dei dati e verificare quali fossero davvero importanti e core per l’azienda”.  
In Sanofi-Aventis (www.sanofi-aventis.it), invece, è risultata fondamentale la virtualizzazione: “Quando abbiamo unito il parco hardware e i sistemi It a seguito di un’acquisizione – racconta Adriano Riboni, Cio della casa farmaceutica (nella foto) -, ci siamo resi conto dello spreco a livello di storage; in sostanza, usavamo il 30-35% dello storage che avevamo a disposizione. Siamo partiti dalla virtualizzazione server riducendo di 2/3 l’hardware e abbattendo significativamente i costi di manutenzione e gestione (compresi i costi energetici); già con questo intervento abbiamo ridotto i tempi di backup e ottimizzato lo storage”.
Anche per Gabetti (www.gabetti.it) la virtualizzazione ha rappresentato un elemento di efficienza molto importante: “È stato il primo step di una strategia service oriented che vuole andare verso il cloud computing”, dice Matteo Penzo (nella foto), It planning&technologies manager della società che a Costantino ha chiesto se fosse già oggi ipotizzabile un discorso di cloud storage. “Sgravare l’azienda della pesantezza dell’archiviazione (backup) attraverso scelte come il SaaS rappresenta senz’altro una buona opportunità”, risponde il manager di Symantec. “Pensare ad una esternalizzazione totale dello storage mi sembra prematuro e forse anche improbabile: avere un repository centrale è ancora fondamentale per questioni di privacy, sicurezza, compliance e aspetti legali”.

Nicoletta Boldrini

Giornalista

Articolo 1 di 5