Storage as a service, per una disponibilità intelligente del dato

Sottoposte alla pressione della crescita dei dati in volume ed eterogeneità, le architetture storage devono essere ripensate in modo da rendere i dati una risorsa disponibile in modo intelligente quando serve. Tra le diverse alternative, nel caso di gestioni massive, lo storage in private cloud può rappresentare una risposta alle esigenze di flessibilità e agilità richieste oggi dal business? Se ne è discusso nel corso di un recente Breakfast con l’Analista organizzato da ZeroUno in partnership con Fujitsu e Intel

Pubblicato il 19 Nov 2014

Terzo incontro del percorso Business Oriented Storage che ZeroUno ha intrapreso negli ultimi due mesi in collaborazione con Fujitsu e Intel per indagare i trend evolutivi dello storage, il Breakfast con l’Analista "Fruizione as a service per una disponibilità intelligente del dato" si è focalizzato sul cloud storage. Le attuali architetture storage sono sottoposte a fortissime pressioni a causa di una crescita dei dati che, se è vero che impatta fortemente tutte le realtà, per aziende come istituzioni finanziarie, società di telecomunicazioni, aziende petrolchimiche, broadcasting e video streaming, service provider (dove la diffusione di big data è ai massimi livelli) rischia di mettere a repentaglio la stessa continuità del business invece di rappresentare, come dovrebbe essere, un’opportunità.

L'articolo continua nella pagina seguente

*BRPAGE*

(segue dalla pagina precedente)

Il business ha sempre più necessità di strumenti che siano in grado di sostenere l’execution in contesti dinamici che richiedono una gestione flessibile delle risorse; l’infrastruttura tecnologica, per garantire disponibilità immediata delle informazioni al business, può offrire una risposta configurando la componente storage in una fruizione in modalità as a service. “Il punto di partenza – afferma Stefano Uberti Foppa, Direttore di ZeroUno aprendo l’incontro – è sempre quello di una gestione intelligente del dato, che deriva dalla necessità di ritagliare correttamente l’evoluzione architetturale e tecnologica dei sistemi informativi sulla variabilità del business. È necessario rispondere alla nuova esigenza competitiva delle imprese, riuscire a capire quali sono i percorsi di una innovazione di prodotto e servizio che vede nell’It una componente fondamentale”.Ma, come evidenziato non solo nei due precedenti Breakfast di questo percorso, ma in tutti i numerosi incontri con gli utenti che ZeroUno ha organizzato negli ultimi anni, i sistemi informativi non possono interpretare il processo di profonda trasformazione che sta coinvolgendo tutte le aziende solo dal punto di vista tecnologico: “La revisione tecnologica, con approcci anche di tipo as a service, è solo una faccia della medaglia; l’altra riguarda il disegno organizzativo dell’area sistemi informativi che deve essere correlato non tanto agli aspetti tecnologici, ma strutturarsi in modo organico per essere là, nelle Lob, dove il business si gestisce e si crea”, ha ricordato Uberti Foppa aggiungendo: “L’aspetto importante non è una tensione mentale a cercare di interpretare la complessità del business, ma questa deve derivare da un disegno organico, con un ripensamento digital based delle competenze It che possa permeare tutta l’organizzazione”.

Lo storage alla ribalta

I relatori (da sinistra a destra): Stefano Uberti Foppa, Direttore di ZeroUno, Stefano Mainetti, Codirettore Scientifico dell'Osservatorio Cloud; Ict as a Service della School of Management del Politecnico di Milano e Davide Benelli, Business Program Manager di Fujitsu

Spesso lasciato sullo sfondo, considerato un repository di dati, una commodity il cui unico parametro di valutazione era il rapporto tra costo e spazio disponibile, lo storage sta catalizzando sempre più l’attenzione dei responsabili dei sistemi informativi sempre alla ricerca di soluzioni che consentano di cogliere, e sfruttare, tutto il valore di quello che oggi è l’asset principale delle aziende: il dato. Lo storage, infatti, può consentire di trasformare i dati da una condizione ‘passiva’ a una condizione ‘attiva’, rendendoli una risorsa disponibile in modo intelligente quando serve. “È una consapevolezza – spiega Stefano Mainetti, Codirettore Scientifico dell’Osservatorio Cloud & Ict as a Service della School of Management del Politecnico di Milano – comprovata dai dati 2014 dell’Osservatorio Cloud, dai quali risulta che il tema all’ordine del giorno è quello della virtualizzazione dell’infrastruttura server e storage che è al primo posto nella classifica degli investimenti futuri con il 51% delle aziende che affermano di avere programmato interventi in quest’area”.

Qual è dunque la direzione verso la quale muoversi per implementare un’architettura storage allineata con la revisione in corso dell’intera infrastruttura tecnologica, a sua volta determinata dalle richieste del business? “Il paradigma è quello del software defined data center, un modello architetturale basato sulla separazione tra un livello di controllo e uno infrastrutturale, dove le risorse sono definite e gestite via software e l’integrazione è realizzata tramite Api. I vendor stanno lavorando molto su questo aspetto, esponendo modalità di comunicazione standard. Agilità, efficienza operativa, servizi gestiti dagli utenti, ribaltamento dei costi: sono questi gli elementi che caratterizzano il software defined data center e che consentono all’It di rispondere meglio alle richiesta del business”, afferma Mainetti.

Il percorso verso il software defined data center ha visto una prima focalizzazione sui server, seguita dalla rete e oggi è il momento dello storage. Nell’analisi della crescita degli investimenti, l’Osservatorio Cloud del Politecnico ha isolato le risorse infrastrutturali che abilitano una fruizione as a service dell’It: “Complessivamente, la crescita della Cloud Enabling Infrastructure è del 31% e, scomponendone le sue voci, vediamo che se al primo posto vi è la centralizzazione e il consolidamento del data center (33%) e al secondo la virtualizzazione dell’infrastruttura interna a livello di capacità elaborativa (32%), al terzo si posiziona proprio la virtualizzazione in termini di storage (29%)”, afferma Mainetti per concretizzare la crescente attenzione verso questa componente infrastrutturale.

“Quello che stiamo verificando è che ogni progetto di trasformazione porta a una rivisitazione della struttura dei dati. Quindi si sta completamente rivedendo l’architettura storage: su quali sistemi è meglio posizionare i master data? Conviene spostare continuamente quantità enormi di dati da una risorsa all’altra? Cosa ha senso tenere in casa e cosa spostare in cloud? Sono queste le domande che i Cio si pongono”, dice il docente del Politecnico.

Il dibattito

Un momento di confronto e networking

Tante le problematiche e le riflessioni sollevate dai partecipanti. Il tema delle competenze, prima di tutto. Simone Bosetti, Head of It and Organization di April Italia spiega come la sua azienda abbia implementato una infrastruttura cloud ibrida e come sia emerso subito, in modo indiretto, il tema dello storage: “È nato dal consolidamento applicativo perché gli utenti, trovandosi a lavorare in un ambiente di fruizione dell'It molto più flessibile, hanno sollevato la questione di avere un unico database per le anagrafiche. Ovviamente è corretto, ma costruire un’anagrafica condivisa da diverse applicazioni significa riprogettare il modello di dati e questo richiede competenze difficili da trovare”.

Un altro Cio, appartenente a una società di telecomunicazioni, si sofferma sul concetto di automazione: “È fondamentale capire come rendere i sistemi intelligenti affinché siano in grado di reagire in modo automatico rispetto a situazioni anomale”.

E Alessandro Lauria, Ict Integration & Technology Operations Manager di Bolton Services, la cui azienda che sta compiendo la scelta del cloud, torna indirettamente sul problema degli open standard: “Un domani mi aspetto di non dovermi più preoccupare di dove e quali sono le risorse, spero di poter comprare lo storage, la rete, i server potendoli assemblare come mattoncini”.

Coglie questi spunti Davide Benelli, Business Program Manager di Fujitsu, per affermare che: “Si tratta di problematiche riconducibili alle caratteristiche che un’offerta tecnologica deve avere per supportare l’ambiente cloud: da un lato, la riduzione della complessità che passa attraverso automazione e consolidamento; dall’altro, la scalabilità che consente di prevedere una vision di lungo periodo. Per quanto riguarda il primo aspetto bisogna affidarsi a soluzioni storage intelligenti che siano in grado di sgravare i sistemi automatizzando le attività più ripetitive. Per quanto riguarda la scalabilità, naturalmente dipende dalle caratteristiche dell’azienda, più per il settore di appartenenza che non per la dimensione, e mentre in alcuni casi l’ideale può essere gestire tutto in un’unica piattaforma, in altri è necessario affidarsi a sistemi ad elevata scalabilità”.

Marco Soldi, Marketing Development Manager di Intel

E Marco Soldi, Marketing Development Manager di Intel, si sofferma sulla questione degli open standard: “Per avere una vera automazione bisogna che la propria infrastruttura sia basata su standard. A livello hardware sono stati fatti tanti progressi e Intel da sempre è focalizzata sul rendere pubblico quello che fa oltre a partecipare a quegli organismi internazionali che si occupano di definire gli standard. Un esempio è rappresentato dagli algoritmi di encryption contenuti nei nostri processori: per agevolare una gestione software delle risorse, abbiamo reso pubblico come utilizzare questi algoritmi”.

Conclude l’incontro Mainetti riportando l’attenzione sul tema delle competenze: “Quello delle competenze è effettivamente un problema, ma le aziende si stanno dimostrando disponibili a investire in questo ambito. Dall’altra parte i vendor hanno la capacità consulenziale per supportare le aziende in una roadmap i cui step sono: standardizzazione; utilizzo delle risorse presenti in azienda, gestendo quindi anche la complessità di risorse eterogenee; affiancamento e sostituzione con risorse nuove che hanno quelle caratteristiche di automazione, flessibilità e scalabilità di cui abbiamo parlato. Ma certamente questo deve affiancarsi a uno sviluppo delle competenze interne”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati