TECHTARGET

L’iperconvergenza è la chiave dei data center ad alta densità

Sebbene lo sviluppo dei data center ad alta densità non sembri mettere in difficoltà i fornitori hyperscale non si può dire lo stesso delle aziende. Tante le sfide a livello di sistema e di gestione delle infrastrutture

Pubblicato il 15 Nov 2017

Iperconvergenza-Datacenter-alta-densita

L’hyperscale computing è il modello di riferimento dei data center ad alta scalabilità: la flessibilità è tale per cui non c’è limite di risposta a livello di risorse di calcolo, di rete, di memoria o di archiviazione. Qualsiasi nodo o insieme di nodi che costituiscono un ambiente informatico centralizzato, distribuito o a griglia, infatti, grazie all’hyperscale computing può contare su un cloud robusto e scalabile, su un big data management allo stato dell’arte e su di uno storage nativamente flessibile. È grazie a questo approccio che l’evoluzione dei data center sta dimostrandosi virtuosa: oggi le infrastrutture IT possono gestire più carichi di lavoro senza impattare sulle dimensioni fisiche della sala macchine. Come avvertono gli esperti, tecniche e strategie a monte di questo sviluppo comportano comunque diverse sfide per la gran parte delle organizzazioni.

La mission di un cloud provider hyperscale

Un cloud provider hyperscale che ha piena conoscenza dei propri carichi di lavoro può facilmente progettare e gestire una piattaforma ad alta densità. Ciò è particolarmente vero quando si parla dei provider che hanno una base utenti massiccia e gestiscono ogni giorno milioni di carichi di lavoro diversi e hanno una base utenti massiccia: è il caso dei cloud provider del calibro di Amazon Web Services (AWS) e Microsoft Azure o dei carichi di lavoro che stanno dietro a brand come Netflix, Facebook o Twitter. Per queste realtà è abbastanza semplice creare una singola piattaforma logica che utilizza una quantità enorme di nodi di calcolo, di archiviazione e di rete, in quanto seguono un approccio ormai precombinato e standardizzato. Quando AWS deve aggiungere risorse, ad esempio, è molto poco coinvolto nell’architettura dei sistemi.

… e gli approcci hyperscale di un’azienda

Un approccio hyperscale è certamente molto più impegnativo per un’organizzazione dotata di una propria piattaforma IT dedicata a supportare i data center ad alta densità. Generalmente un’organizzazione non fa girare migliaia di server come un’unica piattaforma logica a supporto di tutti i carichi di lavoro. Molto più probabile che la strategia della governance sia orientata a un modello che vede un’applicazione per ogni server (OAPS – one-application-per server) oppure un approccio per cluster, tramite server virtualizzati che trasportano uno o più carichi di lavoro e cloud privati che trasportano carichi di lavoro diversi, mediante una condivisione dinamica delle risorse. L’HCI (Hyper-Converged Infrastructure) costituisce il modo migliore per supportare i data center ad alta densità.

Come impostare un’infrastruttura iperconvergente e hyperscale

I vendor HCI ingegnerizzano server, storage e componenti di rete in modo che le risorse lavorino insieme, ottimizzando sistemi di raffreddamento e riducendo al contempo i costi, permettendo così alle organizzazioni di supportare rapidamente i data center ad alta densità. Tuttavia, avvertono gli esperti, ci sono ancora molti aspetti da valutare.

Attenzione alla gestione dell’energia e al cooling

Energia e raffreddamento sono problematiche abbastanza facili da risolvere. I sistemi di distribuzione dell’energia in modalità standard sono già in grado di supportare la maggior parte dei sistemi HCI presenti in un data center. Più critico è il caso in sui si desidera creare una piattaforma capace di supportare il calcolo ad alte prestazioni (HPC), dove la densità di potenza potrebbe superare la capacità di distribuzione esistente. Decidere se e come intervenire sul potenziamento dell’alimentazione e delle capacità di cooling a livello di investimento oppure passando a una soluzione di colocation non è comunque sempre una scelta facile.

Attenzione alle capacità di carico

Più difficile ancora risulta risolvere le capacità di carico complesse. Se si dispone di applicazioni che girano direttamente su una piattaforma, con una partizione complessa delle risorse assegnate, è necessario pianificare con grande attenzione lo spazio in modo da riuscire a supportare i picchi di lavoro senza problemi.
Quando si lavora con applicazioni relative a delle macchine virtuali non bisogna mai dimenticare che ognuna è un’entità autonoma, che trasporta uno stack di servizi che richiedono grandi risorse. I container, ad esempio, condividono molti degli stessi servizi di una virtual machine. Bisogna dunque considerare quante macchine virtuali e quanti container girano su una piattaforma HCI. Ecco perché è importante prestare attenzione alle configurazioni fornite dai venditori, poiché i carichi di lavoro utilizzati per raccogliere quei numeri sono spesso descritti in maniera basica e generalista. Ad esempio, i fornitori HCI che vendono un sistema incentrato su una virtual desktop infrastructure (VDI) potrebbero indicare che possono essere eseguiti oltre 200 desktop, il che può essere vero solo nel caso non ci sia più di un sistema operativo coinvolto e con utenti che non hanno bisogno di accessi contemporanei tutti i giorni. Bisogna dunque individuare vendor che gestiscono sistemi HCI chiedendo dei proof of concept che permettano di mettere i carichi di lavoro sulla loro piattaforma in modo da testare quante virtual machine e container è possibile realmente a gestire attraverso la piattaforma proposta.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3