Client virtualizzati: opportunità e roadmap

La virtualizzazione applicativa favorisce scelte e tempistiche più libere da condizionamenti. A dirlo è Brian Gammage, analista di Gartner intervistato da ZeroUno. Lo stesso analista, però, pone l’accento sui rischi: nel client computing è sempre importante cogliere le opportunità, ma vanno bene analizzati i tempi e i rischi.
Tra questi ultimi, anche il lock-in insito nella virtualizzazione

Pubblicato il 07 Giu 2010

p40-gammage

ZeroUno ha intervistato Brian Gammage, vice president e research fellow di Gartner in ambito “Pc, Laptop e Handheld device” (nella foto) per avere un quadro e un’analisi di uno dei temi caldi dell’It: i Pc aziendali e il loro dispiegamento virtualizzato.
Lo scenario di riferimento (vedi figura 1), è la progressiva maturazione di tecnologie di virtualizzazione via via più sofisticate: a livello macchina (isolamento del sistema operativo dall’hardware, con Client Hypervisor e Hosted Virtual Desktop) e a livello applicativo (isolamento delle applicazioni dal sistema operativo con Virtual machine e Virtual workspace).
Cosa fare dunque per districarsi fra opportunità e necessità, e con quali tempi?
“Il client computing è un viaggio”, esordisce Gammage, “e quel che serve è costruirsi la propria roadmap, per indirizzarvi i propri requirement reali e per non essere ostaggio di quella dei fornitori”.

Figura 1: Scenario della virtualizzazione: progressiva maturazione di tecnologie di virtualizzazione via via più sofisticate. Fonte: Gartner
(Cliccare sull’immagine per visualizzarla correttamente)

ZeroUno: Che cosa spinge le aziende a scegliere un’architettura virtualizzata nei client?
Gammage: Il primo motore è la domanda di minor Tco a pari usabilità e performance. E dato che l’economicità (e la sicurezza per inciso) si fonda sulla predicibilità, le leve per abbassarlo sono standardizzazione (delle interfacce) e automatizzazione (del management delle risorse). Quindi l’obiettivo è che le configurazioni di applicazioni e di dispositivi client presentino un aspetto consistente e permanente in termini di interfacce applicative e di management delle risorse. Un bersaglio, questo, finora in movimento: la legge di Moore detta ogni 18 mesi migrazioni dell’hardware e rende sempre più arduo e costoso far assorbire la crescente complessità (e i costi) di “mantenimento dello status quo” da un sistema operativo sempre più titanico (il riferimento è a Windows – ndr).
La virtualizzazione dei client inverte questo trend perché è una tecnologia di disaccoppiamento che trasforma i “vecchi legami” (cioé gli strati che compongono un’architettura standard – hardware, sistema operativo e applicazioni – che dipendono da reciproche interazioni: il software applicativo dipende dal software di sistema e questo dall’hardware). La client virtualization taglia questi legami creando delle “bolle di software” a livelli intermedi: tra l’hardware e il sistema operativo (desktop virtualization) e tra il sistema operativo e le applicazioni (application virtualization) (sempre figura 1).
In questo scenario, la virtualizzazione applicativa indirizza problematiche di compatibilità, mentre la virtualizzazione a livello macchina, cruciale per gestibilità, flessibilità e sicurezza del client computing, diventa di fatto un componente “in the box” di hardware e sistema operativo x86.

ZeroUno: Questa tendenza porta a ripensamenti del client computing aziendale? Vedremo la diffusione massiccia di progetti abilitati dalla virtualizzazione applicativa? E converrà una migrazione a Windows 7 contemporanea o separata?
Gammage: La virtualizzazione va a rafforzare due “shift” fondamentali nei requirement per il client computing che come Gartner ormai da due anni osserviamo presso grandi aziende leader.
Primo, la crescente consapevolezza che alla fine le necessità di molti gruppi utenti sono meglio servite da approcci di client computing più centralizzati, come il server based computing e lo streaming on demand di applicazioni o di sistema operativo; o come gli hosted desktop reali (i blade Pc) o virtuali (Hosted virtual desktop) e le loro derivazioni.
Secondo, il riconoscimento che il client computing aziendale è un insieme di asset in evoluzione; gli investimenti devono quindi andare nella direzione di in una sorta di “libreria di applicazioni desktop” raggiungibile attraverso roadmap pensate e non “subite” (se si vuole poter valutare le implicazioni future di ogni decisione di investimento).
Pensiamo perciò che la migrazione a Windows 7 non vada vissuta come costo, ma come opportunità per ri-dispiegare desktop progrediti sulla strada della virtualizzazione. Più che contemporanea o separata, la migrazione a Windows 7 va messa nel contesto di questa roadmap, che va studiata e messa a punto per coprire i requirement evolutivi per un futuro prevedibile di almeno 5 anni. Del resto è probabile che la migrazione a Windows 7 costituisca un’opportunità “necessaria” anzichenò per il 2010, specie per quanti hanno differito la migrazione da Xp, magari anche per le avverse condizioni 2009. Vista non è ormai che una “deviazione”.

ZeroUno: Quali approcci di ricentralizzazione sono i più promettenti come funzionalità e gestibilità?
Gammage: Un’evoluzione della tradizionale distribuzione centralizzata del software è lo streaming on demand di applicazioni o di sistema operativo, che distribuisce (a thin client o a Pc tradizionali) solo i componenti applicativi necessari, quando servono: gli eseguibili e le componenti Dynamic Link Libraries (Dll) subito, il resto in background ad un’ora prefissata. Con la virtualizzazione applicativa, questa gestione “ricentralizzata” di eseguibili sul client consente di isolare l’applicazione dalle diverse configurazioni e versioni dei sistemi operativi. Ma attenzione, servono reti robuste e con ridondanza di larghezza di banda. Tra gli altri offrono lo streaming, per esempio, Citrix, Microsoft e Symantec.
Il server based computing ricentralizza sul server applicativi desktop condivisi fra più client, tipicamente tra 80 e 100. Offerto da un vasto ecosistema di vendor, è ben conosciuto, testato e scalabile (è il vecchio approccio mainframe), anche se ci sono limiti di performance con qualche applicazione. Con la virtualizzazione applicativa e l’intelligenza di riconoscere il dispositivo, applicazioni ricentralizzate hanno un futuro anche se fruite da dispositivi utenti diversi, dal desktop a dispositivi cellulari.
Ci sono poi i desktop “hosted” nei data center: se reali, sono i Pc su blade, che offrono la piena funzionalità di un Pc dedicato, con vantaggi di sicurezza, ridondanza, affidabilità, e separazione dell’utente dall’hardware.
Tutti benefici che hanno un alto costo capitale (c’è un blade dedicato per ogni utente); ma una soluzione Pc su blade, pur se di nicchia, è giustificabile ed è la preferita in ambienti finanziari (trading), medici (ad esempio dove ci sono pericoli di contaminazione), o nei grandi network operation centre.

ZeroUno: E se sono virtuali?
Gammage: Sono gli Hosted Virtual Desktop (Hvd), l’equivalente architetturale del Pc su blade: si “mette il desktop nel server” non come (una fra tante) mother board fisiche, ma come (una fra tante) “bolle virtuali” (codice applicativo, impostazioni, dati, file temporanei e Dll o, semplificando, applicazioni). Una “bolla” (intesa come uno strato software) “accomoda” il sistema operativo e le applicazioni desktop, cioè l’intera immagine dello “thick client” (dove la logica applicativa è distribuita in modo intermedio tra client e server), poi resa disponibile con un modello di delivery “thin client” (in questo caso il client propone esclusivamente funzionalità di presentazione) al dispositivo dell’utente.
Con questi strati di software intermedi si riaccentrano sul data center anche costi diretti e responsabilità: cruciale un accordo che rifletta i nuovi confini fra le responsabilità amministrative delle librerie applicative desktop e quelle gestionali dell’ambiente Hvd. Abbiamo visto piani di dispiegamento ambiziosi di ambienti Hvd, ma pensiamo che le aziende che ne sovrastimano le capacità raggiungeranno meno del 40% degli utenti target nel 2010.
L’Hvd potrà poi evolvere in quello che noi chiamiamo “Workspace portabile”: scenario in cui la “bolla virtuale delle applicazioni personali” viene richiamata dal data center e viaggia al seguito dell’utente, che la ricrea in qualunque dispositivo periferico supportato (ossia, è l’estensione dei Virtual Workspace aziendali ai lavoratori mobili). Uno scenario ancora più evoluto sarà quello del “Workspace composito” dato da: sistema operativo standardizzato, Workspace portabile (che potrà essere resa persistente nel dispositivo target separandola dall’applicazione, attraverso lo streaming), applicazioni isolate (interoperabili, portabili e rinfrescabili al log-on, separate dalla workspace resa persistente), e, infine, controlli di policy (come profili e opzioni di delivery e di connettività).
Ecco, questo è già un esempio di roadmap aziendale per un pieno dispiegamento, in cinque anni, delle tecnologie di client computing virtualizzato di tipo Hvd (figura 2). Sottinteso il caveat (dal latino, significa “stai in guardia!”, ndr) che è da pensare sempre nel proprio contesto aziendale.

Figura 2: Ipotetica mappa per un pieno dispiegamento, in cinque anni, delle tecnologie di client computing virtualizzato di tipo Hvd, Hosted Virtual Desktop. Fonte: Gartner
(Cliccare sull’immagine per ingrandirla)

ZeroUno: Qual è il rischio maggiore che si corre nelle scelte di desktop virtualizzato?
Gammage: Un lock-in inconsapevole in una o più condizioni attraversate. Esempi di possibili scenari di lock-in? Avere strumenti di distribuzione software in uso che non lavorino con le “bolle applicative” virtualizzate (gli strati di software per la virtualizzazione); il formato delle Virtual machine che non sia compatibile con il Client Hypervisor che si prevede di scegliere; l’effetto “enlightened Os” (Windows Server 2008, Vista e Windows 7 sono “sistemi operativi illuminati”, con estensioni a supporto dei dispositivi che possono non esser compatibili con l’adozione di qualsiasi tipo di Hypervisor). Il lock-in in una data condizione non è affatto un male in sè, a patto di esserne consapevoli e di averne previsto il costo di uscita, quando esso diventasse incompatibile con i successivi obbiettivi nella propria roadmap.

ZeroUno: E c’è una finestra di opportunità nel dispiegamento virtualizzato dei Client?
Gammage: A cinque anni la maggioranza delle aziende avrà scelto una qualche forma di virtualizzazione per rendere il client computing più gestibile, affidabile e sicuro. Ma come per ogni tecnologia It, anche le tecnologie client computing hanno vita più o meno longeva, con un tempo del vantaggio competitivo (fase di emersione-sviluppo) e della scelta quando partono mercato di massa e standard (Mainstream iniziale); e un tempo del costo in cui la produzione industriale al picco commoditizza il prodotto (Mainstream maturo) e alla fine del rimpiazzo con l’obsolescenza (fase del Legacy). È importante capire in quale posizione del ciclo di vita tecnologico ci si trova.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati