Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Se non si gestisce, virtualizzare non basta

pittogramma Zerouno

Se non si gestisce, virtualizzare non basta

16 Mar 2011

di Giampiero Carli Ballola

Governare un’infrastruttura virtualizzata su server ‘industry standard’ in modo da sfruttarne tutte le potenzialità di flessibilità ed efficienza non è facile e occorrono strumenti ad hoc che bisogna saper scegliere in un’offerta in rapida evoluzione tecnologica e di mercato. Soprattutto, la complessità delle operazioni richiede processi solidi e molto ben strutturati, che si integrino con quelli pre-esistenti in una progressione di obiettivi che va rispettata

Dire oggi, nel 2011, che la virtualizzazione è la parola del giorno fa sorridere. O almeno, dovrebbe far sorridere, dato che le soluzioni di server virtualization (perché è di queste che si parla e più precisamente di quelle per i server x86, Wintel o ‘industry standard’, come preferite), sono disponibili da una decina d’anni e da cinque si possono considerare ‘mainstream’. Ma non è così: sebbene le tecnologie siano ormai consolidate e abbiano dimostrato di poter rispondere alle promesse, la server virtualization è ancora un problema di attualità. Un problema che, a detta degli analisti e delle aziende che ne hanno fatto l’esperienza, non nasce tanto al momento del progetto e della sua realizzazione, quanto al momento di far funzionare la piattaforma virtualizzata per avere quei vantaggi di flessibilità ed efficienza operativa che si sa che essa può dare ma che, a quanto pare, non si riescono sempre a esprimere al massimo.
La causa è quasi sempre la stessa: si è sottovalutata la complessità di governo e gestione degli ambienti virtuali, che cresce in modo più che proporzionale al numero dei server fisici, delle virtual machine e delle applicazioni. Ciò diventa evidente quando, avendo realizzato un primo progetto di server virtualization (di solito per lo sviluppo e testing) e avendone apprezzato i vantaggi, si decide di passare alla produzione consolidando e virtualizzando una parte consistente del data center. Mano a mano che le applicazioni business vengono migrate sulla nuova piattaforma, cominciano a nascere problemi di Sla e la produttività del comparto It rallenta.
Governare e gestire un ambiente virtualizzato presenta una complessità oggettiva che nasce dal prodotto di due fattori concomitanti. Il primo, che riguarda più l’area di governo, nasce dal fatto che, sebbene in uso da tempo, le tecnologie di virtualizzazione richiedono capacità relativamente nuove, che non tutti ancora hanno. Non è nelle nostre intenzioni trattare qui il tema della formazione dello staff It e delle relative pratiche, ma è un aspetto che va valutato. In particolare, vanno sviluppati gli skill relativi al capacity management e al load balancing, una problematica che non riguarda solo la gestione dei sistemi ma anche la relazione con il business. Infatti per impedire che le risorse fisiche siano sovraccaricate da macchine virtuali e applicazioni concorrenti occorre, prima ancora di metter mano agli strumenti di gestione e controllo dell’infrastruttura, organizzare l’erogazione dei servizi alle funzioni utenti e i relativi Sla, in modo da limitare per quanto possibile picchi di lavoro imprevisti e fronteggiare quelli prevedibili. Se l’ambiente è abbastanza grande, il capacity management è un lavoro a tempo pieno per una persona specializzata.
Il secondo fattore, che riguarda gli aspetti di gestione e amministrazione, nasce dagli obiettivi stessi della server virtualization in termini di flessibilità ed efficienza operativa, che non si possono raggiungere senza adeguati strumenti tecnologici. Ma per quanto la cosa sia intuibile, la diffusione di questi tool è limitata. Secondo una ricerca svolta da Forrester circa un anno fa in aziende di diverse dimensioni in Europa e Nord America, contro l’86% dei responsabili It intervistati che dichiarava di avere adottato la server virtualization per migliorare flessibilità e gestibilità dell’infrastruttura, solo il 26% usava strumenti per facilitare e automatizzare l’allocazione delle risorse. Oggi il divario si è probabilmente ridotto, ma lo stacco resta evidente.

Dove va il virtualization management
In realtà, il ritardo tra la diffusa adozione di una tecnologia e quella dei relativi strumenti software di gestione e controllo è fisiologico. Nel caso, Forrester stima che questo ritardo sia stato di un paio d’anni. Infatti, considerato che l’uso di piattaforme virtualizzate basate su macchine x86 negli ambienti di produzione ha incominciato a diffondersi attorno al 2006, il mercato dei tool di gestione ha assunto una dimensione significativa soltanto nel 2008 e da allora è in costante fase di crescita. Questa crescita è ovviamente un fattore positivo, perché avere strumenti in grado di gestire in modo efficiente un ambiente virtuale ne accresce il valore per l’It e per il business innescando un ciclo virtuoso che porta alla moltiplicazione degli ambienti stessi. Lo scorso novembre Gartner ha pubblicato una stima che, valutando che nel 2009 il totale delle macchine virtuali installate nel mondo sia stato attorno agli 11 milioni, ne proietta il totale nel 2012 a 58 milioni: una crescita di più di cinque volte in tre anni a un tasso medio quasi dell’85% anno su anno (vedi figura 1).


Figura 1 – Diffuzione delle virtual machine nel 2009 e nel 2012
(cliccare sull’immagine per visualizzarla correttamente)

Questa crescita, trattandosi come detto di un ciclo virtuoso, porta con sé quella degli strumenti di gestione e controllo, che non è parallela ma più che proporzionale, trattandosi anche di recuperare il ritardo da parte della domanda di cui si è detto. Ne risulta un mercato molto vivace, per non dire tumultuoso, sia riguardo le soluzioni di offerta sia riguardo i fornitori, nel quale si possono però identificare tre linee di tendenza. La prima è che i tool per gli ambienti virtuali non sono più rivolti a mercati e utenti di nicchia ma entrano a far parte dell’offerta ‘mainstream’ degli strumenti di gestione dei data center.
Il secondo trend, che riguarda la tecnologia, vede il passaggio da strumenti singoli dedicati a una data piattaforma (intesa come l’insieme dell’hardware e del software che lo virtualizza rispetto alle applicazioni) a suite multiplatform. Questo spostamento, avvisa Forrester, non è dovuto al fatto che in un data center possano coesistere ambienti virtuali diversi, cosa improbabile dati gli evidenti vantaggi della standardizzazione, ma alla utilità di disporre di strumenti che, potendosi usare per qualsiasi operazione su qualsiasi piattaforma (quindi anche non virtualizzata), vengono ad assumere il ruolo di uno standard di fatto rispetto ai sistemi.
La terza tendenza riguarda il mercato ed è il rapido consolidamento dell’offerta attorno a un numero relativamente ristretto di grandi fornitori che stanno assorbendo molte delle software house specializzate (più di metà delle quali è nata dopo il 2005) oggi ancora sul mercato. Questo processo è comune a tutti i mercati nascenti, ma qui è accentuato dal fatto che il mercato di destinazione, che è l’installato delle macchine virtuali, è dominato da due vendor, VMware e Microsoft, che nel 2009 si sono divise il 95% di quegli 11 milioni di VM di cui si è detto, con quote rispettive dell’84% e dell’11%. Entro il 2012 il rapporto tra le due cambierà (secondo Gartner VMware scenderà al 65%, Microsoft salirà al 27% e si farà strada Citrix con un 6%) ma la situazione di duopolio resterà in pratica invariata (vedi ancora figura 1).

Partire oggi in previsione del ‘cloud’
Il fatto che la server virtualization sia dominata da pochi nomi ha un effetto anche sulla tecnologia degli strumenti, nel senso che le funzioni di gestione di base dell’hypervisor di una data piattaforma si stanno integrando nella piattaforma stessa, fruendo di un mercato ‘captive’. Lo ha fatto per prima VMware integrando VMotion, toool per spostare il carico di lavoro da un VMware server a un altro, e operazioni analoghe sono state fatte o sono in corso presso altri player. È probabile quindi che VMware, Microsoft, Citrix, Novell, Oracle e altri fornitori di software di virtualizzazione raggiungano importanti posizioni nel mercato dei relativi tool, dove in parte e a vario titolo sono già presenti ma dove cercheranno di emergere nell’area dell’automazione delle operazioni.
Quanto alle funzioni di gestione più avanzate, che superano i task degli hypervisor (come nell’analisi degli eventi), o che si devono poter applicare a piattaforme eterogenee (come nel capacity management), queste saranno svolte dalle suite di It management dei grandi vendor del settore. Cioè al quartetto formato da Bmc Software, Ca Technologies, Hp e Ibm. Secondo Forrester, nel medio-lungo termine, vale a dire entro il 2013, saranno questi quattro player a dominare il mercato del virtualization management, anche grazie alle sinergie che sono in grado di sviluppare con l’offerta di gestione dei servizi It, che già controllano.
Un discorso a parte riguarda il cloud computing. Poiché la virtualizzazione è il punto chiave di ogni strategia di cloud privato o ibrido, c’è da attendersi che l’area d’intervento dei tool di gestione si espanderà ad abbracciare il governo dell’infrastruttura a supporto del cloud. Di conseguenza anche i fornitori dovranno far evolvere la propria offerta in modo da proporre soluzioni integrate di automazione per i servizi di cloud computing. Ciò significa che se i responsabili dei data center adotteranno già ora gli strumenti software e le pratiche necessarie a gestire automaticamente gli ambienti virtuali, accumuleranno un’esperienza che metterà la funzione It in posizione di vantaggio nel momento in cui l’impresa deciderà di muoversi verso i servizi cloud.

Un processo a quattro stadi
L’evoluzione tecnologica e di mercato che abbiamo sommariamente tracciato porta al consiglio di puntare a suite che offrano un ampio spettro di intervento, evitando l’acquisto di prodotti mirati, a meno che non si debba assolutamente fronteggiare uno specifico e contingente problema la cui soluzione non si può rinviare. Nella scelta della suite o del pacchetto di soluzioni proposte dal fornitore vanno tenute presenti le seguenti funzionalità fondamentali, che elenchiamo in un ordine non tanto d’importanza quanto di priorità di intervento, nel senso che ciascuno dei quattro punti seguenti va considerato e risolto prima che si possa pensare di passare al punto successivo.
La prima è il configuration management, indispensabile per orchestrare le relazioni tra un numero elevato di server fisici, macchine virtuali, sistemi storage e risorse di rete i cui rapporti cambiano in modo dinamico. Gli strumenti dedicati a questo compito sono spesso chiamati “di provisioning”, a indicare un stato più elevato delle usuali attività di change management. Segue il capacity planning e l’assegnazione delle macchine virtuali. Con la crescita del numero di risorse virtualizzate nasce il bisogno di strumenti che analizzino la richiesta di capacità di calcolo (ma anche di storage e di rete) e ne anticipino gli sviluppi gestendo le VM in modo da ridurre il carico sull’hardware. Gli stessi strumenti controllano anche che le risorse non siano sottoutilizzate in modo da evitare inutili sprechi. Sempre con il crescere delle macchine virtuali aumenta il bisogno di un controllo delle prestazioni. Secondo Forrester il performance monitoring diventa uno strumento critico per evitare cadute prestazionali che rallentino l’erogazione dei servizi in modo avvertibile dall’utente quando si supera la soglia delle 20-30 VM per server fisico. Infine, come punto di arrivo, vi è la real-time automation, ossia la capacità d’intervenire automaticamente, in base ad algoritmi e modelli di previsione predefiniti, sullo stato dell’infrastruttura fisica e virtuale dei sistemi modificandolo in modo da ovviare a un possibile cedimento nel momento stesso in cui questo si verifica. Questo obiettivo, che come si è detto procede dalla somma dei punti precedenti, diventa indispensabile quando il sistema raggiunge un livello di complessità tale da rendere difficile eseguire gli interventi manuali in tempo utile a evitare una caduta delle prestazioni.
Se si considera con attenzione quanto è stato esposto, emerge una considerazione di fondo: e cioè che la gestione degli ambienti virtualizzati non necessita di nuovi processi, ma piuttosto esige che quelli esistenti vadano accuratamente strutturati. L’analisi Forrester cui abbiamo fatto riferimento in queste pagine si conclude con due raccomandazioni. La prima è, appunto, di non introdurre processi centrati a un livello tale sulla virtualizzazione da risultare indipendenti dagli altri. La seconda è di espandere l’implementazione dell’Itil sino a coprire i problemi di gestione che la virtualizzazione comporta. La gestione degli incidenti, per fare un esempio di processo Itil, è la stessa sia che l’incidente sia dovuto alla rete, alle applicazioni o a un server virtuale mal configurato. Ci potrà essere bisogno di tool specifici, ma i processi, e buona parte degli strumenti software, restano uguali.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5