Virtualizzazione

Perché virtualizzare le applicazioni mission critical è più sicuro e conviene

La virtualizzazione può offrire molti benefici per i carichi di lavoro mission-critical. L’importante è che le aziende affrontino la migrazione tecnologica risolvendo tutti i loro dubbi

Pubblicato il 03 Nov 2015

virtualizzazione-151103103510

A livello di server la virtualizzazione ha cambiato il panorama dei sistemi operativi e la sicurezza delle performance.

Gartner stima che nel solo anno 2012, a livello mondiale, il 70% dei sistemi operativi per server era installato su macchine virtuali e per il 2016 si parla di una crescita pari all’86%. Questo dato evidenzia come ci sia stato e sia ancora in atto un cambiamento significativo su come vengono implementati i sistemi operativi in azienda.

Sebbene la virtualizzazione sia in auge da oltre una decina d’anni e molte organizzazioni abbiamo iniziato a pensare a questa nuova strategia per la realizzazione dei loro data center, sussistono ancora molte paure rispetto a questo approccio.

Virtualizzare i server: mai più senza

La virtualizzazione è diventata il metodo predefinito dei server. Rispetto ai vantaggi, alla velocità e all’efficienza, infatti, oggi ci deve essere un motivo ben specifico per avere un sistema operativo installato su un hard disk tradizionale. Web

server, file server, applicazione server: tutto sta andando verso il virtuale. Tutto, fanno notare gli esperti, tranne le applicazioni mission-critical. Croce e delizia di ogni azienda, le applicazioni core essendo le più importanti per il business sono considerate intoccabili. La cautela suggerisce un approccio tradizionale e conservativo. Le aziende in realtà non hanno mai ben compreso le ragioni per virtualizzare anche questo tipo di applicazioni. Rispetto alla maturità tecnologica e all’evoluzione del panorama IT, questo tipo di operazione oggi è una strada decisamente percorribile. Le applicazioni mission critical che vengono virtualizzate, infatti, offrono diverse garanzie importanti: ad esempio possono essere recuperate dopo interruzioni pianificate, ma, cosa più importante, possono essere ripristinate senza problemi anche in caso di interruzioni impreviste. In poche parole si potrebbe scoprire che le applicazioni mission-critical di un’azienda possono essere eseguite in modo migliore in un ambiente virtuale.

Virtualizzare offre maggiore disponibilità

Quando un server fisico, per qualsiasi motivo, smette di funzionare, è necessario ripristinare i dati. In molti casi, il backup di un sistema operativo diventa inutile se il ripristino non può essere eseguito su un hardware identico a quello che si è rotto. Per questo motivo, i team IT devono reinstallare da zero il sistema operativo su un altro server con hardware differente da quello che ha smesso di funzionare, e passare molte ore per ripristinare dati e applicazioni software sul nuovo server. Un’operazione che non è lo scenario ideale per le applicazioni mission-critical.

Con un server virtualizzato, invece, il failover è una questione di pochi minuti. Questa operazione può essere eseguita nello stesso centro dati dove si è verificato il problema o, volendo, in qualsiasi parte del mondo si trovi il team IT che gestisce i server. La virtualizzazione, infatti, è un processo ad alta efficienza: quando un server virtuale si ferma, oltre a inviare una notifica all’amministratore di rete che qualcosa non sta funzionando, la macchina procede ad autotrasferirsi su un nuovo host fisico in modo da essere nuovamente operativa. I servizi sono così perfettamente recuperati e nuovamente online in tempi brevissimi, rispetto a quanto avviene con gli strumenti di monitoraggio deputati a rilevare dei problemi su server fisici, a notificare a tutte le persone interessate i guasti avvenuti (che comunque hanno bisogno dell’intervento di un tecnico per tornare operativi).

L’effetto delle virtualizzazione sulle prestazioni

Molto spesso i team IT temono un rallentamento delle prestazioni del software che viene eseguito in un ambiente virtuale. In alcuni casi questi timori infondati derivano da amministratori di database o da qualche altro tecnico che hanno dedicato anni di lavoro nel mettere a punto i parametri del kernel e dello stack TCP per avere il massimo delle prestazioni dall’hardware a disposizione e quindi ragionano su un’esperienza pregressa, ma ormai datata.

Il realtà la potenza delle CPU attuali affiancate da moltissimi Gigabyte di memoria hanno reso queste operazioni di settaggio molto meno importanti. In ambiente con server fisici, i data center in media utilizzano meno del 10% della potenza fornita dalle CPU. Da questa percentuale immaginate di poter quadruplicare la velocità della CPU e aumentare la RAM da 16 a 512 GB perché, in estrema sintesi, è questo che fanno i moderni server. Questa potenza è praticamente inespressa, con costi e risorse sprecate. Installando più sistemi operativi su un server, tuttavia, si potrebbe avere un migliore utilizzo delle risorse e probabilmente avere anche un miglioramento delle prestazioni.

Immaginate un singolo server con 256 GB di RAM, con installato Microsoft Exchange, che deve gestire 16 mila caselle di posta elettronica. La manutenzione di cosi tante caselle di posta elettronica, tutte su un unico server sarebbe davvero una bella sfida per il team IT. La soluzione migliore sarebbe quelle di avere lo stesso server con le stesse risorse hardware, lo stesso sistema operativo, ma con un hypervisor e quattro server virtuali installati su questo server fisico.

Ogni server virtuale avrà lo stesso sistema operativo e software installato, ma le caselle di posta elettronica saranno gestite in egual misura (4000 caselle per server virtuale) su un unico server fisico. Da questo è facile intuire come le prestazioni subiranno un miglioramento evidente, senza sprecare risorse. Dividendo tali risorse, il sistema operativo e il software possono così sfruttare la loro porzione di hardware assegnato per lo svolgimento dei processi di elaborazione.

Qualche esempio concreto

I database Oracle per molti anni non erano stati studiati per essere virtualizzati. La stessa Oracle non aveva mai pensato di modificare i modelli di licensing per invogliare la virtualizzazione, ma anzi la scoraggiava. Ma anche questo, col passare dei tempi è cambiato. Anche Oracle ha dovuto adattarsi al nuovo corso, adottando un modello di licensing in cui è previsto l’utilizzo dei propri database in ambienti virtualizzati.

Nel 2013 i server con database Oracle e IBM DB2 virtualizzati erano il 55%. Da questa percentuale la prestigiosa community Wikybon ha raccomandato come migliore soluzione per l’utilizzo di questi database la virtualizzazione. Nel 2016 il numero di virtualizzazioni di database Oracle e IMB DB2 ha raggiunto l’84% a livello mondiale. Il mercato ormai, senza ombra di dubbio, sta riconoscendo come la virtualizzazione migliora le prestazioni e rende più semplice la gestione di applicazioni mission-critical.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2