Sistemi hyperconvergenti: i “mattoncini” per abilitare l’hybrid cloud

Centrato sulle applicazioni, software defined e cloud oriented: sono queste le caratteristiche che garantiscono al data center quella flessibilità infrastrutturale indispensabile per assicurare un accesso al dato in grado di rispondere in tempo reale e in modo affidabile alle esigenze del business.
L’architettura dei sistemi hyperconvergenti forza il superamento delle vincolanti e poco flessibili infrastrutture a silos, migliorando la governance ma, soprattutto, consentendo di esporre i servizi It da una prospettiva business (infrastruttura guidata dalle esigenze delle applicazioni) a supporto del modello hybrid cloud. Se ne è discusso in un Breakfast con l’Analista organizzato da ZeroUno in collaborazione con Fujitsu e Intel.

Pubblicato il 29 Lug 2015

“La complessità competitiva dovuta alla digitalizzazione del business si riversa a cascata sull’organizzazione It, le competenze, i sistemi informativi”, esordisce Stefano Uberti Foppa Direttore di ZeroUno, aprendo i lavori del recente Breakfast con l’Analista organizzato in partnership con Fujitsu e Intel dal titolo Cloud, open standard e integrated systems: verso il nuovo It. “Ma come faccio a creare un modello di impresa fluida, che abbia la capacità di riconfigurarsi con una certa facilità sulla base della propria dimensione tecnologica, organizzativa e culturale? Per sfruttare il business moment non è possibile avere un sistema informativo che sia di freno – ricorda Uberti Foppa – e l’organizzazione It deve saper arrivare ad una vera business orchestration delle infrastrutture tecnologiche”.

L'articolo continua nella pagina seguente

*BRPAGE*

(segue dalla pagina precedente)

Rompere con il passato

Stiamo quindi ragionando su un ripensamento globale in termini di flessibilità del sistema informativo che si sostanzia in un ripensamento tecnologico importante, dove è essenziale capire quali sono gli snodi, in termini di hardware e software, che devono connotare un’infrastruttura in grado di sostenere la trasformazione: “Siamo in una fase disruptive, non solo dal punto di vista culturale e di prospettiva, ma anche nella scelta di un sistema informativo, dal punto di vista tecnologico, che sostenga il dipartimento It nell’essere sempre più vicino alle logiche di business delle Lob. Tutto questo deve far parte di un ridisegno organico delle competenze, organizzativo, ma anche attraverso scelte infrastrutturali che eliminino molte criticità e forniscano una nuova e rinnovata capacità di gestire questo processo trasformativo. Bisogna creare infrastrutture agili, economiche, di facile governance: è indispensabile un’intelligenza diffusa nei sistemi”, prosegue il direttore, passando poi la parola a Stefano Mainetti, Co-direttore Scientifico dell’Osservatorio Cloud & ICT as a Service della School of Management del Politecnico di Milano, che conferma subito come “l’analisi che sottende alla riflessione sulla necessità di agire o meno in continuità con il passato deve partire dalle esigenze di business che bisogna abilitare. I dati evidenziano come vi sia una grande richiesta di tecnologia abilitante; continua a crescere la penetrazione dei dispositivi mobili, la diffusione dei social media, dell’e-commerce, dell’Internet of Things ecc. (figura 1).

Figura 1: La trasformazione della domanda It

Fonte: Stefano Mainetti, 2015

È quindi un momento molto importante di trasformazione digitale e le aziende, che finché si era nel pieno della grave recessione si sono concentrate sull’ottimizzazione dei costi, devono saper cogliere i cenni di ripresa che si tanno profilando in Europa. Non si può più attendere, bisogna agganciare la ripresa e per farlo non è più possibile lavorare in continuità con il passato”.

Mainetti evidenzia poi come se da un lato abbiamo assistito a una grande trasformazione della domanda, dall’altro anche l’offerta è stata fortemente investita da questo processo e oggi è ben pronta ad accoglierlo, con una proposizione che risponde alle esigenze di flessibilità e agilità richieste; quindi il professore avverte: “In un momento in cui domanda e offerta di It sono in grande trasformazione è ovvio che dobbiamo pensare a una nuova strategia di delivery dell’It. Ma per approntare questa nuova strategia, e quindi fornire risposte agili dal punto di vista applicativo, bisogna che la parte infrastrutturale sia adeguatamente strutturata per erogare servizi nei tempi e nei modi richiesti da un business in continua riconfigurazione. Quindi – chiede Mainetti – la domanda che i sistemi informativi devono porsi è: siamo riusciti a rendere più agile l’infrastruttura?”. E non è solo un problema tecnologico; ancora una volta il tema delle competenze torna alla ribalta: “Per chi si occupa di infrastruttura, il lavoro cambia molto, è una prospettiva molto diversa e come School of Management ci troviamo sempre più spesso a tenere corsi di formazione a team di sistemisti perché le aziende stesse ci stanno chiedendo un sostegno culturale a persone che devono affrontare questa forte discontinuità”, ricorda Mainetti.

Costruire un’infrastruttura agile

Basandosi sulle analisi effettuate dall’Osservatorio Cloud & ICT as a Service, Mainetti rileva che vi sono ancora importanti barriere che ostacolano il processo trasformativo e tra queste la necessità di una maturazione/evoluzione delle competenze interne è al secondo posto, preceduta dalla mancanza di una visione architetturale dell’infrastruttura e seguita dagli oneri e dalla complessità dell’intervento e dalla non adeguata standardizzazione di risorse e procedure.

Il professore evidenzia poi le priorità di investimento per supportare una cloud enabling infrastructure, tra le quali (figura 2) emerge con chiarezza l’esigenza di supportare uno dei grandi, forse il principale, driver della trasformazione: il mobile.

Figura 2: Le priorità di investimento nella Cloud Enabling Infrastructure

Fonte: Osservatorio Cloud & ICT as a Service della School of Management del Politecnico di Milano, 2014

Vediamo quindi quali sono le risposte dei vendor a questa esigenza: “La prima – afferma Mainetti – è un modello architetturale di risorse condivise che elimina i silos (elaborazione, rete e storage) costruiti per ogni singola applicazione mediante provisioning, controllo, e reporting realizzati via software. Indipendente dai vendor delle risorse sottostanti, disaccoppia il provisioning delle applicazioni delle risorse fisiche realizzando un data center che può essere programmato come un software: è il software defined data center”.

Emerge però un problema di integrazione, dato che le architetture delle aziende sono tipicamente multivendor, e se si cerca di risolvere la questione con la realizzazione di Api ecco che si presenta subito l’onerosità dell’impegno in termini di sviluppo. “L’alternativa proposta dai vendor – prosegue Mainetti – sono le infrastrutture convergenti: grazie ad accordi tra vendor diversi vengono realizzate infrastrutture nelle quali le tre componenti (server, storage e rete), sono pre-testate per assicurare la totale interoperabilità. Un ulteriore passo è stato poi quello delle infrastrutture hyperconvergenti ossia appliance nativamente integrate che racchiudono capacità computazionale, network e storage in un singolo chassis, permettono di scalare mediante l’aggiunta di moduli e dispongono di un unico ambiente di gestione”. Secondo Gartner nel 2018, il 35% degli investimenti indirizzati alle infrastrutture convergenti sarà destinato proprio alle cosiddette infrastrutture hyperconvergenti.

“Diversamente da qualche anno fa – ribadisce Danilo Salladini, Business Development Manager di Fujitsu – oggi abbiamo macchine autoconsistenti, con grandi capacità computazionali, di memoria e networking. Queste appliance abilitano quel cambiamento di ruolo del personale It e maturazione delle competenze di cui abbiamo parlato perché non è più necessaria una specializzazione sul singolo componente, si diventa gestori dell’infrastruttura”.

I sistemi hyperconvergenti si basano infatti su soluzioni come Evo-Rail di VmWare che semplifica il ciclo di vita delle macchine virtuali consentendo di passare rapidamente dalla creazione all’accensione di una virtual machine senza interrompere le attività; le appliance basate su questo componente abilitano l’implementazione di un data center gestito interamente via software. Ed è proprio su questo aspetto che si focalizza il dibattito tra i partecipanti all’incontro.

Verso l’hybrid cloud

I partecipanti dell'evento

Annarosa Farina, Responsabile Applicazioni – Progetti e Gestione, Ospedale San Raffaele, dopo avere evidenziato come le problematiche di security, particolarmente stringenti per una realtà come il San Raffaele sia per le attività cliniche sia per quelle di ricerca, stiano frenando le esplorazioni che l’azienda sta svolgendo nei confronti del cloud, ha ricordato come, per rispondere alle esigenze di standardizzazione e consolidamento dell’infrastruttura, l’istituto ospedaliero sia passato da un mainframe di vecchia generazione a un sistema informativo basato su blade server: “Ma quello che mi interessa realmente capire è come realizzare un enterprise wide management, ossia una gestione complessiva a tutti i livelli, fisici e virtuali. E quindi è importante capire come queste appliance riescano concretamente a gestire una richiesta dinamica di carico in funzione dei processi produttivi, perché – sottolinea la manager – se le devo predisporre su un picco massimo torniamo al punto di partenza con un’infrastruttura sovradimensionata”.

“Quando ci sono requisiti di riservatezza particolari e, nel contempo, sono necessarie capacità di elaborazione molto elevate e caratterizzate da picchi di lavoro estremamente variabili [un singolo file di ricerca in ambito genomico, attività della quale il San Raffaele si occupa, può “pesare” anche qualche tera, ndr], la risposta ideale è proprio il private cloud – interviene Mainetti riferendosi agli aspetti di security sollevati da Farina – affidandosi, per la parte in house, a infrastrutture hyperconvergenti che consentono un’elevata elasticità. Ovviamente devono essere gestite in modo automatico”.

Salladini si sofferma sulla specifica domanda posta da Farina: “Chiaramente, essendo tutto concentrato in un’unica macchina, la gestione è più semplice e il controllo maggiore. Per quanto riguarda più specificatamente il problema sollevato, è importante ricordare che, in questo caso, non stiamo parlando di una macchina che cresce al proprio interno, ma di un approccio scale out: l’infrastruttura cresce con l’aggiunta di nuovi nodi e ciascun nodo ha al proprio interno Cpu, spazio disco, networking. Poi, grazie a Evo-Rail, che virtualizza le singole macchine e l’intera infrastruttura, è possibile accendere o spegnere macchine virtuali per gestire in modo elastico i picchi.

Sono diversi i presenti che chiedono come avviene “concretamente” il collegamento fra le macchine.

“Lo scaling – aggiunge Mainetti – si appoggia su ‘mattoncini’ molto piccoli [i nodi di cui parlava Salladini, ndr] in modo che si possa costruire la propria infrastruttura con un approccio scalare, a piccoli passi, ed è abilitato dallo standard Evo-Rail che agisce a livello di gestione dell’intera infrastruttura, lavorando a un livello di astrazione superiore rispetto alla virtualizzazione della singola macchina. Certo – precisa il docente del Politecnico – si presenta un problema di lock nei confronti di Vmware, ma dato il market share che l’azienda detiene in questo ambito può essere considerato un falso problema” Dalle domande di altri partecipanti emerge la sensazione che questa sia una proposta tecnologica più rivolta agli utenti finali che non ai cloud provider, rappresentando una possibile alternativa al percorso verso il cloud: “In realtà – precisa Mainetti – è uno strumento in più in mano ai Cio. Il percorso verso il cloud, come abbiamo visto con il caso del San Raffaele, è spesso frenato da problematiche di sicurezza, mentre queste infrastrutture, come dicevo, agevolano il percorso verso l’implementazione di private cloud”.

“La soluzione ideale – interviene Andrea Bazzi, It Area Coordinator , di Salini Impregilo – sarebbe un provider, che definirei più outsourcer che cloud provider, in grado di offrire un’infrastruttura basata su questa tecnologia che consenta di partizionare le macchine e gestirle con questi software molto sofisticati. Inoltre, con la diffusione della tecnologia e la conseguente standardizzazione, sarebbe possibile affidare parti dell’infrastruttura ad outsourcer diversi”; verrebbe così ridotta la problematica di un rapporto troppo vincolante, e quindi rischioso, con un unico provider, altra problematica che frena la scelta di un approccio di Infrastructure as a service.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati