Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Come virtualizzare con successo

pittogramma Zerouno

Come virtualizzare con successo

24 Nov 2009

di Giampiero Carli Ballola

Un’analisi Forrester individua tre gruppi di best practice che i responsabili It possono seguire per avere successo nei progetti di virtualizzazione delle infrastrutture e operazioni. Vediamo insieme il primo e fondamentale gruppo: le cose da fare per portare i responsabili del business dalla propria parte e convincerli che investire nella virtualizzazione è un vantaggio per l’intera impresa

Se guardiamo allo sviluppo dell’offerta di prodotti e soluzioni di virtualizzazione in termini di adozione da parte del mercato, non vi è dubbio che siamo entrati, anche in Italia, nella fase ‘acuta’, o ‘delle massime attese’, che ha il ciclo di vita di ogni nuova tecnologia. Nel quinquennio 2007-2011 il tasso di crescita dei server virtualizzati è stimato al 55% contro il 9% dei server fisici (fonte: Idcwww.idc.com); mentre nell’anno in corso si avrà una crescita del 42% per le soluzioni di gestione degli ambienti virtualizzati e il mercato dei virtual desktop potrà triplicare (fonte: Gartner per entrambi i dati – www.gartner.com). Questa situazione è confermata anche da una ricerca Forrester (www.forrester.com) sull’interesse da parte delle imprese (sia grandi sia piccole e medie, negli Usa come in Europa) verso la virtualizzazione dei server x86, che è l’aspetto più indicativo delle tendenze in atto nel settore. Il 55% degli intervistati l’ha già implementata o lo farà nei prossimi 12 mesi, mentre il 29% l’ha in programma. E anche nel 16% restante, ci sarebbe una metà che è interessata, ma non ha budget, lasciando solo all’8% l’onere di dichiararsi incerti o non interessati.

Un processo indolore?
Ma che la virtualizzazione abbia un largo consenso non significa che sia un processo indolore. In molti casi le tecnologie di virtualizzazione hanno comportato per l’area I&O (Infrastrutture e Operazioni), ossia la ‘base’ responsabile del supporto ai processi aziendali e che assorbe i tre quarti dei budget It, problemi di tipo tecnologico e, soprattutto, organizzativo, con i quali le imprese stanno combattendo e che per i costi nascosti che comportano rischiano di compromettere i vantaggi economici e il Roi delle soluzioni implementate. Un’indagine basata su interviste svolte in profondità a professionisti ed esperti di virtualizzazione presso una dozzina di imprese, ha permesso agli analisti di Forrester di cogliere situazioni ricorrenti sia nel sorgere dei problemi sia nello sviluppo delle soluzioni trovate. Di conseguenza, la casa di Cambridge ha pubblicato un rapporto nel quale si identificano ‘best practices’ riguardanti tre punti fondamentali del processo di allineamento alla virtualizzazione dell’area I&O.
Questi sono: ottenere l’appoggio del business; fornire allo staff It gli skill necessari a gestire la virtualizzazione con successo; ottenere il massimo beneficio dalle soluzioni implementate tramite team It più efficienti. Come si vede, mentre le seconde due coprono attività interne all’organizzazione It, la prima riguarda i rapporti di questa con il business, punto imprescindibile per ogni storia di cambiamento di successo. In questo articolo cominceremo quindi da qui.
Convincere i responsabili del business che la virtualizzazione porta vantaggi economici all’intera impresa e che le applicazioni da cui dipendono i processi aziendali possono ‘girare’ su macchine virtuali allo stesso modo, e anzi meglio, che su server fisici dedicati non è facile. Forrester consiglia, in base a quanto raccolto, quattro possibili strade.

Provare che funziona. Il maggior interesse da parte del business verso l’I&O riguarda, come è ovvio, i livelli di disponibilità e di prestazione delle applicazioni.
E’ utile quindi iniziare virtualizzando l’ambiente di sviluppo e testing di un’applicazione non business-critical e stabilire, prima di cominciare, il livelli di servizio (Sla) accettabili per il business. Sarà poi relativamente facile provare che in un ambiente virtualizzato questi Sla possono essere stabilmente raggiunti e anche superati. Si tratta insomma di partire in piccolo e andare avanti fino ad essere certi di aver raggiunto l’esperienza adeguata ai progetti che si hanno in mente, prima d’impegnarsi nella realizzazione di questi ultimi.
Molto utile è anche introdurre metriche di valutazione e metodi di tracking e reporting per tutti i sistemi, in modo che sia facile individuare le vere cause di eventuali problemi di prestazioni e dimostrare la corretta operatività delle piattaforme virtuali. La trasparenza sulla misura delle prestazioni è un ottimo strumento per guadagnare la fiducia del business.

Avere una consulenza di analisi finanziaria. Prima di presentare un progetto di virtualizzazione al business è opportuno potersi avvalere di un consulente esterno, specialmente per gli aspetti finanziari e di ritorno dell’investimento.
Il supporto fornito da un partner credibile e di collaudata esperienza può aiutare l’approvazione del progetto ed in ogni caso è importante avere un secondo parere, basato su diverse metodologie. Infatti è possibile che ai responsabili I&O sfuggano i vantaggi economici che non derivano tanto dal migliore utilizzo dei server quanto da altre possibilità abilitate dalla virtualizzazione.
Infatti si può guadagnare tempo e/o denaro, ad esempio, dalle operazioni di disaster recovery facilitate, attraverso la riduzione delle connessioni Ethernet o Fibre Channel, dal provisioning delle applicazioni accelerato e dalla maggiore availability delle applicazioni stesse. In tutti questi casi, è importante per l’It poter quantificare i possibili risparmi potendo contare su una metodologia riconosciuta e convalidata.

Usare l’incentivo delle attribuzioni di costo. I meccanismi di attribuzione di costo delle attività I&O agli utenti interni sono uno strumento potente di persuasione. Nel senso che caricare a una business unit le cui applicazioni poggiano su un ambiente virtualizzato un costo per server virtuale del 10% (per esempio) inferiore rispetto a quello caricato per un server fisico dedicato, aiuta ad estendere questa tecnologia.
Il concetto funziona anche se l’organizzazione non prevede sistemi di attribuzione dei costi interni. In questo caso si tratta semplicemente di incominciare a notificare ai responsabili delle business unit quanto viene da essi consumato delle risorse (tecnologiche e umane) dell’area I&O. Anche se l’uso di queste risorse non viene fatto pagare (almeno per ora), cioè non entra nel loro conto economico, si crea ugualmente una sensibilizzazione al problema che ne può influenzare positivamente il comportamento.

Puntare sulla availability dei sistemi. I sistemi di replicazione e disaster recovery non sono, ovviamente, appannaggio degli ambienti virtualizzati, ma sono affidati a soluzioni costose per cui finiscono per essere riservati alle applicazioni critiche. Un ambiente I&O virtualizzato offre invece delle capacità intrinseche di recovery che rendono altamente disponibili tutte le applicazioni che vi poggiano. Garantire al business una ripresa rapida delle operazioni, misurabile in termini di minuti anziché di ore e giorni, a seguito di un qualsiasi problema, può essere una motivazione determinante.
Ma per aver successo, conclude Forrester, occorre anche evitare di cadere in alcuni errori tipici del processo di allineamento tra business e operazioni It. Un errore tipico, da parte dei responsabili del business, è quello di sovrastimare i veri o presunti rischi connessi alla virtualizzazione, bloccandone il roll-out nell’impresa. Con il risultato che talvolta, purtroppo, è necessario che capiti un incidente grave perché il management capisca che restare legati agli ambienti fisici è un rischio anche maggiore. Un tipico errore dell’It è invece quello di non garantirsi l’appoggio dei top manager. In tutte le società dove i progetti di virtualizzazione hanno avuto successo, gli executive sono stati sempre coinvolti nel definire e nel sostenere le regole che determinano quali applicazioni virtualizzare e in vista di quali risultati. Solo loro, inoltre, possono chiedere ai business manager cui sono destinate le applicazioni di accettare una deviazione dalle soluzioni raccomandate o stabilite con la funzione It.



Gartner: ecco l’hype cycle per la virtualizzazione

Arriva, inevitabile, un focus Gartner sulle tecnologie di virtualizzazione che avranno un importante impatto di trasformazione sul business nei prossimi due-cinque anni. Tra le declinazioni più promettenti, gli x86 server hypervisor e le pc software appliance

Anche la virtualizzazione ha un’analisi dell’Hype Cycle dedicata da parte di Gartner (www.gartner.com). L’Hype Cycle è una rappresentazione grafica dell’evoluzione di una tecnologia e delle sue sotto componenti o derivazioni, attraverso le fasi di invenzione, picco di attenzione, ridimensionamento delle aspettative e dispiegamento delle sue effettive potenzialità presso il mercato. Gartner pubblica periodicamente l’Hype Cycle dell’It in generale e quelli delle tecnologie più importanti e di quelle emergenti che promettono di avere un importante impatto nel futuro.
La società di analisi prevede che la virtualizzazione nel suo complesso avrà un impatto trasformativo di business nei prossimi due-cinque anni. Per Gartner, la virtualizzazione rappresenta l’astrazione delle risorse It agli occhi dell’utente delle stesse. In pratica, la virtualizzazione maschera all’end user la natura fisica e i confini delle risorse. L’utente accede a software e servizi senza doversi più preoccupare di quali siano i server, client, sistemi storage, network, programmi applicativi, sistemi operativi e motori di ricerca sottostanti. “La virtualizzazione – avverte Thomas Bittman, vice president e Distinguished Analyst di Gartner – non è una semplice tecnologia, ma un insieme di molte tecnologie che si evolvono a ritmi differenti. Esistono diversi tipi di virtualizzazione, per cui l’utente ha di fronte a sé la sfida di scegliere quali forme più idonee adottare. Le aziende devono però assumere un atteggiamento cauto nei confronti dei fornitori che propongono un singolo tipo di virtualizzazione per gestire tutto. In realtà si va verso architetture che prevendono diversi livelli di virtualizzazione con meccanismi di gestione differenti”. Il tema è comunque destinato ad essere sempre più abbracciato perché consente ai responsabili It di erogare soluzioni in tempi più rapidi, abbassare le barriere di accesso alle tecnologie e fornire agli utenti solo ciò di cui effettivamente necessitano. Questo implica una pressione sugli end user a definire meglio le applicazioni e i servizi utili per le proprie mansioni di business.
Tra le tecnologie di virtualizzazione che Gartner ritiene abbiano un potenziale di trasformazione maggiore nel prossimo futuro vi sono gli x86 server hypervisor e le pc software appliance. Gli x86 server hypervisor permettono di consolidare i server e di ottimizzare l’uso dell’hardware, riducendone nel contempo i costi. Secondo Phil Dawson, research vice president di Gartner, “gli hypervisor consentiranno di effettuare l’implementazione di server in tempi fino a 30 volte più rapidi di quelli attuali”. Dal momento che gli hypervisor permettono di gestire i carichi di lavoro in modo più flessibile e veloce, la loro diffusione favorirà la migrazione di carichi di lavoro in virtual machine (Vm) installate presso fornitori di servizi cloud.
Le pc software appliance sono partizioni di un pc dedicate all’installazione ed esecuzione di determinate applicazioni eliminando i problemi e i rischi legati alla gestione “on top” di un sistema operativo tradizionale e condiviso. Esempi di applicazioni che possono essere isolate e gestite in modo dedicato, semplificato e sicuro sono quelle di firewall, asset management, riproduzione di contenuti multimediali, registrazione tv, crittografia, gestione energetica. “La diffusione del modello delle pc appliance – afferma Brian Gammage, vice president e Gartner Fellow – eserciterà un’accelerazione dei cicli di innovazione di prodotto dei vendor e si tradurrà in tempi più rapidi di caricamento delle applicazioni per gli utenti”. Secondo l’analista, “questa tecnologia si rivelerà una metodologia di configurazione dei pc competitiva rispetto all’integrazione basata su sistema operativo”. Per favorire la penetrazione di questo approccio occorrerà l’introduzione di appositi hypervisor che, sottolinea Gammage, “già iniziano a vedersi”. Grazie alle pc software appliance si svilupperanno nuovi prodotti in grado di condividere lo stesso supporto hardware. (Riccardo Cervelli)

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5