Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Virtualizzazione: dove siamo e dove andremo

pittogramma Zerouno

Virtualizzazione: dove siamo e dove andremo

04 Giu 2009

di Giampiero Carli Ballola

Un mercato che corre in fretta, tecnologie in continua evoluzione, nuove complessità da risolvere. La virtualizzazione è anche questo, ma è la soluzione che può aiutare i Cio a fare di tutto e di più con meno risorse. Vediamo allora come partire con il piede giusto guardando dove questa strada ci potrà portare

Come in natura, anche nel mondo delle idee perché qualcosa attecchisca, si sviluppi e diventi un pensiero diffuso e condiviso, occorre il terreno adatto. Per la tecnologia, che trasforma le scoperte di scienziati e ricercatori in soluzioni pratiche, il terreno di sviluppo è, appunto, la domanda di tali soluzioni. Se non serve a soddisfare una domanda o a crearne una nuova, una tecnologia può essere in sé eccellente ma è destinata o a restare a livello di brevetto o di prototipo, in attesa delle circostanze capaci di valorizzarne le potenzialità, o ad avere un impiego rivolto a un mercato e a una domanda particolari. È accaduto così che la virtualizzazione, un concetto che ha generato soluzioni in uso da tempo, sia salita al rango d’idea corrente dando il via a una rivoluzione tecnologica e di mercato quando le sue promesse hanno incontrato in modo puntuale le aspettative di coloro cui è destinata. Cosa chiedono infatti i vertici aziendali ai responsabili It? Quello di aiutarli ad emergere sulla concorrenza rendendo l’impresa più innovativa negli aspetti propositivi del business e più veloce e flessibile in quelli reattivi ed esecutivi. L’It, quindi, deve da una parte trovare soluzioni in grado di rendere l’azienda più competitiva (abilitando nuovi business o rendendo più efficienti e redditivi quelli in atto) e sviluppare rapidamente i progetti relativi; e dall’altra parte deve, nel contempo, fornire servizi It di qualità elevata e costante a supporto dei processi ‘core’ e garantire i requisiti di sicurezza, compliance e business continuity che oggi sono irrinunciabili per qualunque azienda che voglia stare sul mercato. Il tutto, dimenticavamo di precisare, spendendo poco; anzi, visti i tempi, spendendo meno di quanto speso sinora.

ALMENO 4 VANTAGGI
Un traguardo impossibile, a prima vista. Ma che è proprio quello che promettono le tecnologie di cui parliamo. Infatti dal consolidamento e virtualizzazione delle infrastrutture del data center (che è il primo e indispensabile passo verso una soluzione che si può estendere anche ad altre aree) l’It può trarre almeno quattro ordini di vantaggi.
Primo: si sfruttano i sistemi per tutta la loro capacità con un impiego più efficiente delle risorse. Si risparmia quindi su tre fronti: rinviando l’acquisto di nuovo hardware; migliorando il rapporto tra investimento e produttività di quello in uso; diminuendo il consumo d’energia per alimentazione e raffreddamento, una voce che a volte sfugge dal budget It perché attribuita alle spese generali ma che pesa non poco sul conto economico dell’azienda.
Secondo: si rende l’infrastruttura scalabile sui bisogni del business e si mantiene un efficace controllo dei costi, dato che in un ambiente virtualizzato le risorse si aggiungono in modo granulare, man mano che occorre potenza di calcolo o capacità di storage. L’upgrading è quindi scalato nel tempo e produce un ritorno immediato.
Terzo: un data center virtualizzato permette di fornire servizi di qualità e in modo flessibile, il che è strategico. I picchi di calcolo chiesti da un’applicazione si possono facilmente soddisfare assegnandovi risorse sottoutilizzate da altre e, soprattutto, lo sviluppo e il testing dei nuovi servizi (che risulta accelerato dal fatto di avere a che fare con una stessa interfaccia virtuale, anziché doversi adattare a macchine e sistemi operativi diversi) non ha bisogno di un’infrastruttura dedicata ma preleva quanto occorre dal pool delle risorse disponibili. Quarto: un problema ad un server fisico non interrompe un servizio: la macchina virtuale che supporta il servizio viene spostata su un altro server e l’elemento colpito si può sostituire con interventi di normale manutenzione e non d’emergenza. Risparmiando, riducendo l’impatto sull’Sla e soprattutto garantendo al business l’indispensabile continuità.

SIAMO INDIETRO, MA STIAMO CORRENDO
Stanti queste premesse, non stupisce che le tecnologie di virtualizzazione offrano uno scenario nel quale sia la mappa della domanda sia quella dell’offerta sono in rapida evoluzione. Vediamo di capire a che punto siamo e, soprattutto, dove questa evoluzione ci sta portando.
Parlando di un campo relativamente nuovo, occorre, come sempre, per prima cosa definirne il perimetro. A partire da Gartner (www.gartner.com), gli analisti di mercato comprendono nella virtualizzazione tre grandi aree: quella del software di virtualizzazione dell’infrastruttura, quella degli strumenti di gestione dei sistemi virtualizzati e quella degli ‘Hosted virtual desktop’ (Hvd). Questa definizione evita il termine ‘client’ per non fare confusione con la vecchia architettura client-server ma si riferisce ugualmente ai dispositivi usati dagli utenti finali. In questo articolo però non parleremo di quest’area, un po’ perchè si tratta di un mercato ancora piccolissimo per quanto in rapido sviluppo (vedi riquadro), e soprattutto perché, dato che prima dei client bisogna virtualizzare i server, parlarne oggi in un servizio che mira a dare indicazioni utili nel breve e medio termine a chi alla server virtualization ci deve ancora arrivare, come è la maggioranza delle nostre imprese, ci sembra prematuro.
Secondo una stima Gartner del febbraio 2009, la server virtualization (perché sia come tecnologie sia come mercato la virtualizzazione dello storage è un settore a sé), che nel 2008 toccava solo il 12% dei server installati dovrebbe raggiungere quest’anno a livello worldwide il 20%, con una crescita superiore al 60%. In Italia, secondo una stima di Microsoft, meno del 10% dei server è oggi virtualizzato, ma la situazione è in rapido sviluppo. Se guardiamo infatti non all’installato ma al venduto, cioè alle macchine nuove, una ricerca di Idc (www.idc.com) valuta nel 2008 la vendita di 48 mila server virtualizzati contro 229 mila non virtualizzati, con una penetrazione quindi, nel totale, del 17,3% (vedi figura 1). La stima degli stessi dati al 2011 mostra un rapporto di 106 a 271 mila, con una penetrazione del 28%. Siamo molto indietro rispetto alla media dei cinque più avanzati paesi europei, dove secondo la stessa indagine, già oggi più della metà delle nuove installazioni server è virtualizzata, ma siamo ugualmente di fronte ad un mercato che corre. Ma proprio per questo, anche se le promesse della virtualizzazione sono allettanti, occorre avvicinarvisi con prudenza. Perché più un mercato corre, più, ad inseguirlo, c’è rischio d’inciampare.

Figura 1
Analisi Idc dei server venduti in Italia: cresce l’acquisto dei server virtualizzati

(clicca sull’immagine per visualizzarla correttamente)

VIRTUALIZZARE È FACILE, IL PROBLEMA È GESTIRE
Brian Gammage (nella foto), vice president e Gartner Fellow, cui abbiamo chiesto di esporre i problemi che, al di là dei vantaggi attesi, si prospettano a chi pensa a un progetto di server virtualization, è categorico: “La capacità di virtualizzare oggi sta superando quella di gestire gli ambienti virtualizzati”. Quest’affermazione nasce dal fatto che secondo Gartner il mercato degli strumenti di gestione per ambienti virtualizzati crescerà tra il 2008 e il 2009 del 42% contro il 22,5% della spesa per virtualizzare le infrastrutture. In termini di valore, nel 2009 si spenderanno 1,1 miliardi di dollari per virtualizzare i data center e 1,3 miliardi per gestirli. “Con la virtualizzazione – prosegue Gammage – si introduce un fattore di complessità che cresce esponenzialmente con il numero dei server fisici virtualizzati e il numero delle macchine virtuali da gestire”. Concorda Idc secondo cui, infatti, il 56% dei Cio che hanno adottato sistemi virtualizzati su vasta scala (oltre 50 virtual machine operative) ritiene che i problemi di gestione rendano critico il raggiungimento degli obiettivi attesi, contro il 24% di chi ha soluzioni più semplici.
Questa complessità, sulla quale prospera quel mercato di tool di gestione e automazione di cui si è detto, è al momento praticamente ineliminabile. Infatti, in parte è intrinseca alla necessità di tracciare in tempo reale la posizione delle macchine virtuali rispetto ai server fisici per le operazioni che fanno capo ad una precisa risorsa hardware (tipicamente il backup e restore, ma anche il disaster recovery e la high-availability). E in parte nasce proprio dalla velocità con cui la virtualizzazione si è affermata. Oggi, osserva Gartner, la server virtualization sta attraversando una fase di espansione che vede, sotto la spinta dei vendor, la proposta di soluzioni caratterizzate dall’omogeneità delle piattaforme cui si applicano. In particolare, per una serie di motivi oggettivi che si possono sintetizzare nel fatto di fornire (specie nelle macchine di ultima generazione) il miglior rapporto prezzo/prestazioni, oggi la massima attenzione si ha nella virtualizzazione dei server x86. E non c’è dubbio che l’ingresso di Microsoft nel settore, con l’hypervisor integrato in Windows Server, e quello più recente di Cisco (www.cisco.com) con il suo Unified Computing, che integra software WMware in un’architettura x86, accentueranno tale tendenza. Ma, avverte Gartner, per quanto la virtualizzazione di un ambiente omogeneo sia la più facile e quella in grado di fornire rapidamente un ritorno immediato, non ci si può fermare ad essa. Nella grande maggioranza dei data center coesistono infatti piattaforme diverse sulle quali girano diverse applicazioni, dai sistemi legacy a quelli Web-based. Trascurare la necessità di far interoperare tali risorse porta a una virtualizzazione per silos omogenei. Con server x86 virtualizzati dalle soluzioni VMware (www.vmware.com), Microsoft o Citrix (www.citrix.com) e server non x86 (su piattaforme Power, Itanium e Sparc) dalle soluzioni di logical partitioning proprie dei rispettivi Unix di Ibm (www.ibm.com), Hp (www.hp.com) e Sun (www.sun.com). Per non parlare dei mainframe, da sempre virtualizzati, ma a modo loro. Una situazione che divide i vantaggi per il business e moltiplica i problemi per l’It a seconda del numero di piattaforme e soluzioni adottate.

PARTIRE ORA, MA GUARDANDO AVANTI
Per questo Gartner vede lo sviluppo delle tecnologie di virtualizzazione passare per un percorso a tre fasi  (vedi figura 2) che pone il momento attuale nel punto di passaggio dalla prima fase di omogeneità ad una seconda di mobilità delle Vm tra server virtualizzati. Questa fase per Gartner è già in atto, con le funzioni di migrazione e interoperabilità date dalle soluzioni basate su VMware Vmotion, su Microsoft Hyper-V e su Xen, ma a nostro parere, per quanto riguarda l’Italia registriamo un ritardo di almeno un paio di anni. Il che ci colloca ancora nella fascia ‘verde’, con l’invito a cogliere subito il ‘low hanging fruit’ della virtualizzazione pur senza perdere di vista quelli che stanno maturando.

Figura 2
Percorso a tre fasi della virtualizzazione secondo Gartner

(clicca sull’immagine per visualizzarla correttamente)

E quella che, in una prospettiva di lungo termine (almeno cinque anni), sta maturando è la virtualizzazione di un’infrastruttura eterogenea, che consenta all’It di pianificare la distribuzione dei carichi di lavoro in funzione della potenza e disponibilità dei diversi sistemi reagendo in modo elastico alle variazioni della domanda di erogazione dei servizi. “Ad esempio – dice Gammage – un software per paghe e stipendi potrebbe girare per 24 giorni al mese su server dove girano altre applicazioni sfruttando le frazioni di potenza ‘in avanzo’ ed essere spostata nei giorni di paga su un server dedicato”. Una cosa non facile, che presuppone la riscrittura delle applicazioni business in un ottica Soa con servizi eseguibili in concorrenza, ma non impossibile nell’arco di tempo di cui si è detto.
Nel frattempo, non è che si deve stare con le mani in mano. Nella ‘fase gialla’ in cui, con il ritardo di tempo citato, sta per entrare quest’anno il nostro mercato bisogna monitorare con attenzione, nell’ottica d’interoperabilità di cui si è detto, sia l’approccio tecnologico dei fornitori hardware di server non x86 (Hp, Ibm e Sun), sia quello delle funzioni di gestione delle piattaforme hypervisor. Gartner ne fa una sintetica rassegna, allo stato dell’arte dello scorso novembre, nelle tabelle della figura 3 e 4.

Figura 3
Gartner: analisi dell’approccio tecnologico dei fornitori hardware di server non x86 (Hp, Ibm e Sun)
(clicca sull’immagine per visualizzarla correttamente)

Figura 4
Gartner: analisi delle funzioni di gestione delle piattaforme hypervisor

(clicca sull’immagine per visualizzarla correttamente)


DESKTOP VIRTUALIZATION: È PICCOLA MA CRESCERÀ

I princìpi della virtualizzazione si applicano anche ai Pc, con uno strato di software che disaccoppia le applicazioni dal sistema operativo e colloca entrambi, applicativo e OS, in una macchina virtuale (VM) ed un secondo strato di software che interfaccia la VM con l’hardware. Se le applicazioni sono conservate e manutenute in un ‘deposito’ centralizzato e inviate al Pc dell’utente ‘impacchettate’ nella VM assieme al sistema operativo, si parla di Hosted virtual desktop (Hvd). I vantaggi dell’Hvd stanno nella drastica semplificazione delle operazioni di manutenzione hardware, applicativo e di sistema, che sono svolte separatamente e indipendentemente tra loro, nell’eliminazione dei problemi di compatibilità e nel maggior controllo e sicurezza che il modello offre all’It aziendale. Anche se oggi gli Hvd sono adottati da pochissime imprese e Gartner (www.gartner.com) stima che nel 2009 non superino le 500 mila unità in tutto il mondo, nel 2013 dovrebbero essere 49 milioni, con una crescita di cento volte in cinque anni, per un valore di 66 miliardi di dollari, pari al 40% del mercato mondiale dei Pc professionali.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5