Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Il valore dell’architettura data fabric e del software-defined cloud computing

pittogramma Zerouno

Il valore dell’architettura data fabric e del software-defined cloud computing

05 Gen 2016

di Nicoletta Boldrini

Dati sempre accessibili, portabili, flessibili e,
soprattutto, al centro delle strategie di business.
Ecco cosa può fare l’It per ‘liberare i dati’
garantendone una governance costante e sicura
in ambienti as-a-service

All’interno del percorso verso il Software Defined Data Center (Sddc) un ruolo centrale lo gioca senz’altro lo storage accompagnato oggi da nuovi modelli di gestione intelligente via software. Il paradigma architetturale si snoda attraverso la consapevolezza che, almeno dalla prospettiva del business, non importa più dove risiedono i dati; l’importante è che siano accessibili e ‘portabili’ in modo flessibile ma al tempo stesso sicuro e controllato. Che siano on-premise, vicino al cloud o nel cloud, presso un service provider o un hyperscaler, non importa (a parte i vincoli di compliance); ciò che conta è che il cloud diventi una risorsa integrabile e gestibile in maniera sicura in grado di abilitare la ‘mobilità dei dati’.

I relatori del Tech Webinar, da sinistra: Roberto Patano, Senior Manager Systems Engineering di NetApp Italia, Stefano Mainetti, Co-direttore scientifico dell’Osservatorio Cloud e Ict as a service della School of Management del Politecnico di Milano e Nicoletta Boldrini, Giornalista di ZeroUno

“Il lungo percorso di virtualizzazione dei server che ha via via portato le aziende ad avvicinarsi ai modelli di infrastruttura as-a-service oggi prosegue attraverso la virtualizzazione del network e quella dello storage la cui governance è abilitata dal software rispettivamente secondo modelli Sdn (Software defined network) e Sds (Software defined storage)”, spiega Stefano Mainetti, co-direttore scientifico dell’Osservatorio Cloud e Ict as a service della School of Management del Politecnico di Milano nel corso del Tech Webinar organizzato da ZeroUno in collaborazione con NetApp. “La gestione fisica dell’hardware all’interno dei data center tenderà a sparire sempre più per lasciare spazio a sistemi iperconvergenti governati da un unico software e a modelli di orchestrazione e integrazione di ambienti cloud ibridi. Questo perché ci si sta rendendo conto delle potenzialità del software in termini di dinamicità e flessibilità nell’allocazione ed erogazione delle risorse”.

Allo stesso modo, sta crescendo sempre più l’esigenza di trattare nella medesima maniera, ossia con la stessa dinamicità, flessibilità e mobilità, la risorsa più importante del business: il dato. Ed è qui che fornisce la sua risposta architetturale il Data Fabric, “che non è una tecnologia ma un modello di governance che fornisce un metodo coerente per memorizzare e gestire i dati in più risorse, siano esse interne al data center o nel cloud”, sottolinea Roberto Patano, senior manager Systems Engineering di NetApp Italia.

Il valore primario di un modello di Data Fabric è rappresentato dalla ‘perfetta’ gestione dei dati in più ambienti (on-premise e cloud interni od esterni) dove ‘perfetta’ significa che da un unico ‘centro di comando’ posso controllare, proteggere, rendere disponibili e gestire tutti i dati indipendentemente da dove essi risiedano spostandoli dinamicamente da un’infrastruttura ad un’altra a seconda delle esigenze (anche attraverso meccanismi di automazione).

“Riuscire a gestire i dati secondo un modello Data Fabric richiede però alla base un data center di un certo tipo – prosegue Patano -: 1) software defined, per un delivery ottimizzato dei dati e una loro gestione basta su policy, ottimizzare i carichi di lavoro e ‘movimentare’ dinamicamente i dati; 2) integrato con il cloud, per spostare rapidamente i workload da un ambiente all’altro a seconda delle necessità; 3) su certi task, ‘flash powered’ ossia, soprattutto sul fronte del data management, garantito da alte performance oggi raggiungibili nell’ambito dello storage grazie alle tecnologie flash che accelerano la migrazione dei dati nell’adozione di nuove applicazioni e database (anche in cloud)”.

Nicoletta Boldrini

Giornalista

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 2