Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Virtualizzazione: la sfida è sicurezza e governance

pittogramma Zerouno

Virtualizzazione: la sfida è sicurezza e governance

03 Mag 2010

di Giampiero Carli Ballola

Nel momento in cui le soluzioni di consolidamento e virtualizzazione passano dagli ambienti di sviluppo e testing a quelli di produzione, i paradigmi di sicurezza e soprattutto di gestione dei servizi It cambiano di colpo, portando la funzione It in un percorso che ne coinvolge tutti gli elementi: tecnologie, processi, risorse umane. Con l’aiuto di una indagine presso chi ha già imboccato tale strada cerchiamo di tracciare i possibili sviluppi di questa evoluzione

Se c’è un fatto che dobbiamo prendere come un punto fermo al quale ancorarci per ogni successivo ragionamento, è che l’adozione delle soluzioni di consolidamento e di virtualizzazione sulle quali si basa lo sviluppo e l’erogazione dei servizi It al business è un processo irreversibile. Non faremo molte elucubrazioni sul perché: semplicemente, è successo che soluzioni e problemi si siano incontrati nel momento giusto. Da un lato, una tecnologia software esistente e collaudata ha trovato un ideale campo d’applicazione in ambienti che si vanno normalizzando su sistemi sempre più standardizzati; dall’altro, i vantaggi ottenibili da questa felice sinergia tecnologica risolvono problemi di flessibilità e di efficienza operativa sempre più pressanti e offrono vantaggi economici che, soprattutto in questo momento, sono quanto mai apprezzati.
Il risultato è che i progetti di virtualizzazione di infrastrutture consolidate su piattaforme standard (server e blade server x86, per intenderci) crescono rapidamente in una progressione che non è soggetta a inversioni di tendenza, ma solo alla naturale curva di saturazione del mercato. Questo duplice aspetto, crescita e irreversibilità, appare evidente confrontando quanto emerso dalle ricerche che Gartner effettua periodicamente sulle priorità dei Cio. Se in un anno, dal 2009 al 2010, i progetti di virtualizzazione sono passati dal secondo al primo posto, quelli relativi al cloud computing, nelle varie forme in cui si può declinare questo modello, sono balzati dal 14° al terzo posto, entrando a pieno titolo, assieme all’eterno problema della sicurezza, nelle massime priorità dei responsabili It. Ciò significa una sola cosa, o meglio due. Primo: che la virtualizzazione dell’infrastruttura è vista come l’indispensabile premessa allo sviluppo di un progetto ‘cloud’; che nella gran parte dei casi sarà interno, ma che può anche essere ibrido, aperto cioè al Web. Secondo: che in conseguenza di ciò, la stessa virtualizzazione non va più vista come soluzione adatta ad un gruppo di server a supporto dell’ambiente di sviluppo o di applicazioni particolari, ma come soluzione infrastrutturale per l’intero Data center. In una parola, la virtualizzazione diventa tecnologia di supporto al business.
L’adozione negli ambienti di produzione rappresenta, per le tecnologie di virtualizzazione, un importante passaggio, che esige un altrettanto importante salto di qualità. Il punto fondamentale è quello della gestione operativa dell’infrastruttura virtualizzata. Problema di non facile soluzione e che investe ambienti molto diversi tra loro per architetture e sistemi impiegati. Se i Centri dei Service provider sono in genere standardizzati, a livello di azienda non esistono praticamente due Data center uguali. E se è un fatto che i massimi vantaggi della virtualizzazione si hanno in ambienti standard, il che spiega il successo dei server x86 e dei relativi hypervisor, è pure un fatto che un progetto di virtualizzazione a supporto del business non può escludere i sistemi virtualizzati legacy, ossia mainframe e Unix, come non può escludere la gestione delle risorse fisiche. Se a un certo punto un server si blocca (succede) devo poterlo sostituire senza fermare la produzione. In un ambiente classico, con server dedicati per ogni applicazione, il problema si risolve (per modo di dire) sovradimensionando le risorse hardware. Ma l’overprovisioning è proprio uno dei fattori di costo per eliminare il quale si virtualizza e dovervi tornare è un controsenso. Va creato un pool delle risorse disponibili e la gestione delle macchine virtuali va orchestrata con quella delle macchine fisiche sottostanti. Ma non è un problema da poco. E non è il solo.

VIRTUALIZZANDO SI LAVORA MEGLIO
Nel novembre 2009 Forrester ha svolto su incarico di CA una ricerca a livello worldwide presso 257 imprese di grandi dimensioni e di vari settori d’industria nelle quali la server virtualization è stata implementata ed è attualmente in uso, per valutare le sfide che questa pone alla gestione delle operazioni. Lo scorso gennaio i risultati sono stati resi noti, evidenziando come l’avvento della virtualizzazione negli ambienti di produzione abbia portato, assieme ai noti vantaggi, anche una serie di problemi e complessità, in parte reali in parte percepiti. Vediamoli in breve.
Il primo punto, decisamente confortante, anche se prevedibile, è che la virtualizzazione mantiene le sue promesse, soprattutto nell’efficienza del comparto It, intesa come produttività delle operazioni, e nella qualità del servizio erogato al business (vedi figura 1). La produttività risulta migliorata o molto migliorata rispettivamente per il 56 e 16% degli intervistati, che insieme fanno il 72%. Cui si somma un 23% per i quali le cose non sono tanto cambiate ma restano buone. In definitiva, solo il 5% ha avvertito dei peggioramenti. Anche meglio i risultati riferiti alla qualità: il 21% dichiara un forte miglioramento e il 53% un miglioramento avvertibile, per un totale del 74%. E anche questo si poteva prevedere.

Figura 1: Effetti della virtualizzazione sulla qualità del servizio (fonte: Forrester)

(clicca sull'immagine per ingrandirla)


Quello invece che ci ha lasciato in una certa misura sorpresi, è il fatto che risulti migliorata la soddisfazione degli addetti e l’atmosfera generale dell’ambiente in cui si svolgono le operazioni It. Sono cose importanti per la qualità della vita/lavoro, e sono molto o abbastanza migliorate rispettivamente per il 17% e il 39% degli intervistati. E a questo totale del 56% si può aggiungere il 36% di chi è comunque soddisfatto. Solo il 7% non è contento o pensa di star peggio di prima.
Chiedendo ai responsabili It di elencare, in ordine d’importanza, i tre problemi principali rilevati, si è ottenuto un grafico (vedi figura 2) dove, con attribuzioni di gravità al primo o secondo posto dichiarate con frequenze tra il 21 e il 23%, emergono tre questioni principali: le difficoltà inerenti il capacity planning & management; quelle inerenti la valutazione e realizzazione di un sistema di sicurezza e risk management e, infine, i problemi per trovare e trattenere persone dagli skill adeguati. A distanza da queste tre criticità, ma con quote non trascurabili, troviamo due problemi riguardanti la gestione dei carichi di lavoro: la migrazione dei workload tra le macchine virtuali e il bilanciamento dei carichi di lavoro su macchine fisiche e virtuali. All’estremo opposto della scala, troviamo che problemi seri, in grado di creare situazioni pericolose, di rallentare l’erogazione dei servizi al business o di abbatterne la qualità, sono citati da meno del 9% degli intervistati e, a conferma della generale serenità sul lavoro citata a proposito dei vantaggi, c’è una sorprendente quota del 14% di It manager che proprio non ha nulla di cui lamentarsi.

Figura 2: Principali problemi relativi alla sicurezza affrontati nei processi di virtualizzazione (fonte: Forrester)

(clicca sull'immagine per ingrandirla)

RISORSE UMANE: UN PROBLEMA
In sintesi, le considerazioni che si possono trarre dall’esperienza di chi ha già portato i sistemi di produzione in ambienti virtualizzati se confermano alcune opinioni correnti in merito ai possibili problemi ne sfatano altre e ne introducono di relativamente nuove. Capacity management e sicurezza restano nodi da sciogliere. La separazione della macchina logica dall’infrastruttura fisica rende incerto garantire che la prima abbia dalla seconda tutte le risorse di elaborazione, storage e rete di cui può aver bisogno. Ciò porta a temere che le prestazioni e l’availability delle applicazioni che girano su macchine virtuali possano decadere. Di conseguenza, un numero abbastanza alto di applicazioni critiche resta su server fisici dedicati. Quanto alla sicurezza, a parte il fatto che ogni nuova tecnologia porta con sé nuovi timori, nel nostro caso la stessa natura ‘nascosta’ delle soluzioni di virtualizzazione induce a temere, e forse a sopravvalutare, i rischi di instabilità dell’intera infrastruttura. In particolare, si teme che un’improvvisa richiesta di capacità da parte di una macchina virtuale non adeguatamente controllata interferisca negativamente sulle prestazioni delle altre VM riferentesi allo stesso server fisico. È un problema critico nello studio dei progetti di cloud, dato che in tale ambito le richieste di servizio sono, per la natura e le finalità stesse del cloud computing, imprevedibili.
Con tutto ciò, la paura di incorrere in gravi errori determinati dalla oggettiva complessità delle tecnologie risulta bassa, inferiore a quanto si poteva prevedere. Questo si può in parte spiegare considerando una concomitanza di eventi: da un lato l’adozione di sistemi virtuali per le applicazioni business-critical è ancora agli inizi, frenata dai timori di cui si è detto. Dall’altro, l’importanza delle soluzioni di management automation a supporto della gestione degli ambienti virtuali è sempre più rilevante e le relative tecnologie sono sempre più avanzate e mature. In altre parole: nel momento in cui il responsabile del Data center decide di fare il ‘gran passo’ e virtualizzare l’ambiente di produzione, si trova a disporre di soluzioni collaudate capaci di automatizzare gran parte delle operazioni; ne constata l’efficacia e l’affidabilità e il timore di un disastro per colpa di qualche errore dei system administrator scompare. E quest’ultima considerazione ci porta al ruolo dell’elemento umano. Cioè al problema degli skill.
La virtualizzazione rappresenta un punto di rottura notevole rispetto ai modelli operazionali precedenti. Trovare gente già esperta è difficile e quindi occorre che lo staff esistente abbia una formazione sui nuovi compiti. Questo richiede tempo e ciò, assieme alla complessità della tecnologia, impone l’adozione di soluzioni automatizzate. Queste, si è detto, sono efficaci e il risultato è che i sistemi funzionano e diminuisce quindi il bisogno di risorse capaci. Nel breve termine la situazione è positiva, ma in prospettiva crea un gap crescente tra lo sviluppo delle tecnologie e quello degli skill relativi che è potenzialmente molto pericoloso. Inoltre, la mancanza di skill non è solo limitata alla tecnologia. Un problema innescato dalla virtualizzazione è il suo inserimento in un piano generale di gestione dei servizi It nei confronti delle business unit (priorità, controllo degli Sla, billing e così via). È un lavoro oltre che tecnologico organizzativo, e anche qui, per l’area IT ci sono molte cose ancora da imparare.

LE TENDENZE IN ATTO
Sebbene l’adozione di infrastrutture virtualizzate nei sistemi di produzione sia oggi ancora agli inizi, si tratta, come si è detto, di una scelta irreversibile, che influisce parecchio sullo sviluppo delle tecnologie e dei processi della funzione It. Si tratta di cambiamenti che sono comunque in atto, ma nei confronti dei quali la virtualizzazione funge da acceleratore e dove gli strumenti di system management, come si è visto, hanno un ruolo chiave. Queste soluzioni sono pertanto oggetto di un’evoluzione della quale gli analisti Forrester danno le tendenze emergenti.
In primo luogo, vi sarà, ed in parte è in atto, una forte spinta alla standardizzazione, sia  delle infrastrutture sia delle soluzioni stesse di virtualizzazione. Oggi migrare un carico di lavoro dalla piattaforma hypervisor di un fornitore a quella di un altro è difficile, e perciò gli utenti tendono a restare fedeli alla scelta inizialmente fatta. Ma i vantaggi di flessibilità e di semplificazione delle operazioni dati, dal poter gestire l’erogazione dei servizi al business in modo indipendente dalle piattaforme sottostanti, sono tali da portare a risolvere il problema attraverso soluzioni software di system management indipendenti dalla piattaforma e capaci quindi di gestire ambienti eterogenei tramite strumenti di provisioning delle risorse e di migrazione dei carichi di lavoro da una piattaforma all’altra.
In secondo luogo, è intuibile che un qualsiasi sistema di automazione delle operazioni è tanto più efficace quanto più viene consolidato in un’architettura unificata. Fondamentale quindi la capacità di gestire, con il servizio che poggia sulla macchina virtuale, anche l’infrastruttura sottostante: sistemi fisici, storage, rete. La virtualizzazione infatti rende invisibili i confini tra questi dominii e una gestione unica diventa cruciale. Vi sarà, di conseguenza, una tendenza al consolidamento degli strumenti di system e di service management e sarà necessario fare un riesame critico dell’intero portafoglio dei tool disponibili, da quelli già da tempo in uso a quelli di nuova generazione che compaiono sul mercato. Il criterio-guida di questo esame dovrà essere solo l’effettiva capacità dello strumento in causa di migliorare la cosiddetta “visione applicativa” dell’It, che si traduce poi nel fornire al business il miglior servizio possibile.
Non bisogna infatti dimenticare, ed è il terzo punto di evoluzione considerato, che i requirement degli utenti riguardano le applicazioni, non l’infrastruttura. È ovvio che se l’infrastruttura non è robusta ne risentono stabilità e prestazioni dei servizi, ma sono le applicazioni e i relativi strumenti di gestione che devono guidare le scelte, secondo una visione top-down, che parta cioè dal servizio per arrivare all’infrastruttura e non viceversa. In tale visione, occorrono strumenti in grado di mappare le applicazioni (comprese le relazioni intercorrenti nelle applicazioni multi-tier), monitorare le transazioni e collegarle all’infrastruttura e al software sottostante. Secondo Forrester gli algoritmi che permettono di svolgere un tale compito sono ancora in sviluppo, ma i ‘building block’ ci sono già. Aiuterà molto anche il rapido sviluppo degli strumenti analitici, un’area sulla quale convergeranno molti dei prossimi investimenti relativi al governo delle operazioni It.

 

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 3