Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Hyperconvergence: semplificare e accelerare le infrastrutture ‘cloud-like’

pittogramma Zerouno

Hyperconvergence: semplificare e accelerare le infrastrutture ‘cloud-like’

26 Mag 2015

di Nicoletta Boldrini

I sistemi ‘iperconvergenti’ sono ormai pronti a supportare un ampio spettro di workload di tipo enterprise, garantendo significativi benefici dal punto di vista operativo, con ripercussioni evidenti sulla capacità dell’It di rispondere alle richieste del business. A sostenerlo è Forrester, che sottolinea tuttavia alcune difficoltà ancora da superare, per esempio sul piano degli skill specializzati.

Per far fronte alle esigenze di scalabilità delle infrastrutture a supporto di determinati workload aziendali, in costante crescita per via di business model sempre più digitali, molti professionisti It hanno adottato massivamente la virtualizzazione facendo evolvere le proprie infrastrutture verso sistemi sempre più ‘cloud-like’, secondo l’espressione utilizzata dagli analisti di Forrester Richard Fichera e Henry Baltazar. Il risultato? Livelli di complessità sempre maggiori che minano la capacità di innovazione delle aziende, “costringendo l’It a governare l’esistente dedicando poco tempo alla Business Technology Agenda”, scrivono i due analisti in un loro recente report (“Simplify and accelerate your infrastructure with hyperconvergence”). “La complessità è quasi sempre un ‘male auto-inflitto’. Le infrastrutture sono tipicamente disegnate con i migliori tool tecnologici e modellate secondo le metodologie disponibili ‘al momento’, ma spesso senza un chiaro e completo quadro dei requirement futuri. Nel momento in cui gli ambienti operativi e applicativi cambiano e ‘scalano’, le limitazioni delle tecnologie sottostanti diventano più apparenti manifestando crescente complessità e instabilità. Tale criticità ha la tendenza a diventare ‘non-lineare’ al crescere del numero delle potenziali interazioni ‘non-isolate’ tra i vari componenti delle architetture e a non essere adeguatamente affrontata laddove mancano adeguati skill. Il risultato è un ‘mostro di Frankenstein’ che ritorna dal suo creatore senza aver generato alcun beneficio”.

Una delle principali vie seguite da molte aziende per fronteggiare tale scenario è stata quella di ‘inserire’ all’interno dei propri server virtualizzati lo strato tecnologico dello storage (infrastrutture storage virtualizzate e relativi software di gestione); un primo approccio ai cosiddetti sistemi convergenti che, però, come descritto dai due analisti, ha generato ulteriore complessità sia sul piano della gestione e mantenimento dei sistemi sia sul fronte della loro capacità evolutiva e scalabilità.

Verso l’iperconvergenza

La risposta più efficace si trova oggi nei cosiddetti hyperconverged system che garantiscono maggiore flessibilità trattando l’intero pool di unità fisiche (server, network, storage) come un unico e unificato sistema virtuale che può ‘morfologicamente’ assumere svariate e flessibili configurazioni, gestito come ‘oggetto nativo’ del livello di astrazione della virtualizzazione e quindi con il minimo sforzo ‘amministrativo’.

La differenza con le prime converged infrastructure risiede nel fatto che queste ultime combinano risorse virtuali all’interno di un’unica unità fisica, mentre nei sistemi ‘iperconvergenti’ esiste un hypervisor on top a tutto lo stack tecnologico integrato, sia hardware sia software.

“Un pool di risorse ‘fluido’ è l’elemento centrale del cloud computing”, descrivono Fichera e Baltazar. “Se le aziende intendono sviluppare servizi cloud-like sopra le proprie infrastrutture, la piattaforma su cui costruire tale strategia è senz’altro quella dei sistemi hyperconverged. Quando ci si sforza di ‘manipolare’ componenti tecnologiche individuali, i processi diventano complessi e ‘fragili’, anche in presenza di software di gestione e automazione degli ambienti cloud. Bisogna lasciare che siano le infrastrutture stesse a produrre le capability necessarie”.

Perché ciò ‘avvenga’, suggeriscono i due analisti, un sistema hyperconverged dovrebbe essere così strutturato:

  1. risorse computazionali e storage integrate: il valore di queste infrastrutture risiede nella semplicità con cui il sistema è in grado di scalare il cluster (capacità computazionale + storage) che in parte deriva dal co-provisioning delle risorse preintegrato in un unico modulo (nelle converged infrastracture di prima generazione, benché le unità server e storage siano pre-integrate, la scalabilità è ‘separata’ e, nel caso dello storage, ‘prefissata’ dai limiti dell’eventuale capacità computazionale necessaria);
  2. software-defined storage: un sistema iperconvergente deve fornire un accesso ‘federato’ alle risorse storage nelle virtual machine che deve essere perfettamente integrato nel tool di gestione dell’hypervisor.
  3. configurazione e discovery automatizzate: le terza gamba del concept che sottende un sistema iperconvergente riguarda la capacità di discovering e aggiunta di nuove risorse all’interno dell’ambiente tecnologico con la minima interazione umana. È sicuramente difficile poter quantificare, in termini oggettivi (soprattutto economici), cosa possa e debba voler dire ‘minima’ interazione umana, tuttavia secondo Forrester in un sistema di questo tipo si deve essere in grado di aggiungere nuovi moduli storage da 20 a 100 terabyte (Tb) in meno di 15 minuti con interventi sul fronte della configurazione/gestione ridotti solo a casi straordinari di necessità;
  4. gestione unica dalla console dell’hypervisor: perché risulti realmente efficace sul piano della semplificazione dei sistemi e della loro evoluzione verso ambienti cloud, la gestione ‘locale’ deve essere ridotta al minimo indipensabile; tutto deve essere controllato e governato (con i più elevati livelli di automazione possibile) da un un’unica console, quella dell’hypervisor.

Non è una panacea!

Se da un lato la seconda generazione dei sistemi convergenti promette grandi benefici sul fronte della semplificazione dei sistemi, della loro gestione e manutenzione e, soprattutto, della loro evoluzione a supporto di architetture cloud-like, gli analisti di Forrester mettono in guarda i professionisti I&O (Infrastructure and Operations): “Non sono una panacea! È fondamentale capirne i limiti, primi fra tutti le rigide configurazioni che fissano il rapporto Cpu-Storage, da un lato, e la latenza imposta dall’ambiente dell’hypervisor, dall’altro. Applicazioni High-performance (per esempio quelle basate su avanzati algoritmi numerici), il processing media e in streaming o le transazioni online che hanno Sla veramente molto stringenti, probabilmente non sono ‘buoni candidati’ per le piattaforme hyperconverged”.

Secondo i due analisti, esiste comunque un ampio spettro di ‘casi d’uso’ all’interno dei quali questo tipo di sistemi riesce ad esprimere al meglio tutte le sue potenzialità:

  1. Virtual desktop infrastructure (VDI): in questo caso i sistemi iperconvergenti possono offrire una piattaforma di deployment veramente molto efficiente. La deduplicazione ‘embedded’ è un prerequisito fondamentale: questa è vantaggiosa in moltissimi casi ma nelle VDI diventa un fattore critico a causa dell’elevato livello di replica di dati identici in immagini desktop multiple. La deduplica diventa quindi un elemento determinante rispetto all’efficienza dello storage, soprattutto tenendo conto che dal punto di vista delle performance il processo non risulta intensivo e, quindi, non vi sarebbero impatti secondari sulla Cpu;
  2. ambienti Iaas che archiviano numerose VM: si tratta di un ‘use case’ molto simile al precedente, con la sola differenza che qui la deduplica dei dati riguarda i numerosi file che racchiudono i template delle virtual machine (i ragionamenti sulla deduplica embedded per evitare impatti critici sullo storage sono quindi i medesimi);
  3. alti volumi di ‘istantanee’ della VM: gli snapshot delle macchine virtuali rappresentano un elemento importante per le strategie di Disaster Recovery e Business Continuity ma queste ‘istantanee’ hanno un effetto ‘palloncino’ sullo storage (continua a riempirsi) nonché sulle risorse di networking; un sistema iperconvergente con deduplica integrata non solo rende più efficiente l’utilizzo dello storage ma consente di bilanciare in modo adeguato anche la rete;
  4. Iaas e cluster di VM: indipendentemente dalla deduplica, un sistema iperconvergente fornisce una via efficace in termini di costi per il rilascio di risorse e capacità (cpu, storage, network) a supporto di ambienti Iaas e cluster di virtual machine. La gestione semplificata delle risorse, abilitata anche da meccanismi di automazione, ne consente un rapido provisioning a supporto di qualsiasi ambiente tecnologico e workload di business;
  5. Analytics cluster: gli analytics rappresentano uno dei workload dove la disponibilità dei nodi all-flash sarà l’elemento discriminante; i primi ‘rilasci’ di Hadoop e altri tool di analytics su sistemi hyperconverged mostrano risultati efficaci sul piano della scalabilità nonché benefici sul fronte della semplificazione di gestione degli ambienti, al punto da spingere gli analisti di Forrester a prevedere un’impennata di adozione di questi sistemi come alternativa ai generici cluster tecnologici basati su Hadoop (appliance analitiche).

“In altre parole – concludono Fichera e Baltazar -, qualsiasi use case guidato dalla necessità di una rapida allocazione di risorse infrastrutturali potrà essere supportato dai nuovi hyperconverged system”.

Nicoletta Boldrini

Giornalista

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 4