Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Server blade nei data center: l’architettura a lame attaccata dall’iperconvergenza

pittogramma Zerouno

Iperconvergenza

Server blade nei data center: l’architettura a lame attaccata dall’iperconvergenza

07 Set 2016

di TechTarget

I server blade sono stati l’incipit di quell’approccio legato a una convergenza gestionale sempre più evoluta. Oggi è l’ora delle personalizzazioni e della convergenza. Le aziende stanno realmente cercando più flessibilità, densità e semplicità gestionale nelle loro server farm rispetto a quello che hanno già?

I server blade sono il cuore dell’architettura a lame e rappresentano un’evoluzione rispetto alla governance elaborativa dei data center.

Gli esperti sottolineano come, dal punto di vista storico, i server a lame sia all’origine delle architetture convergenti. Che cosa significa? Che la razionalizzazione della gestione, attraverso una normalizzazione delle attività di monitoraggio e di controllo, consente maggiore visibilità rispetto ai carichi di lavoro e quindi maggiore capacità decisionale rispetto ai modi e ai tempi di sfruttare al meglio le macchine a disposizione.

Il mercato è maturo e offre una serie di opzioni diversificate. A seconda del vendor, è possibile scegliere una sola macchina e impostare la quantità di lame necessaria, oppure combinare più modelli di server e di switch ridondati per connettere le varie unità tra loro e associare una serie di dischi, in rapporto alle necessità del business. Ognuna di queste opzioni ha comunque un costo importante: solo lo chassis di base, ad esempio, costa più di 18mila euro.

Server blade: vantaggi e limiti dell’architettura a lame

Scegliere uno chassis fisso limita la dimensione del cluster che, tipicamente, arriva a ospitare una decina di server blade. In realtà c’è tutto un mondo in continua evoluzione rispetto all’architettura blade. Le componenti sfuse, chiamate in gergo COTS (Commercial off the shelf) stanno progredendo a livello tecnologico. Gli esperti fanno notare come i blade server tendono a evolversi a un ritmo molto più lento perché qualsiasi cambiamento interessa molti elementi diversi, il che richiede cicli di progettazione e di test più lunghi. A questo proposito, l’architettura blade server assomiglia più a quella di un mainframe rispetto ai server x86.

Rispetto alla configurazione di un’infrastruttura IT, l’opinione comune ritiene che un gruppo di lame preconfigurato e pretestato in fase di installazione sia molto meno impegnativo il che ne fa un motivo di grande interesse per i resposabili dei data center. Gli esperti, però, fanno notare come oggi sia possibile ottenere rack e chassis chiavi in mano, cablati, testati e pronti per essere utilizzati il che rende meno evidenti i benefici delle architetture blade server.

La personalizzazione dei server, idealmente, corrisponde un po’ a quella customizzazione dei pc che dimostra una grande maturità ICT da parte dei responsabili dei data center che, per risparmiare o per avere ciò che vogliono, si configurano i server a proprio uso e consumo.

Le componenti chiave di un’architettura convergente

L’approccio convergente svincola i data center dalla necessità di scegliere un’architettura proprietaria e dei costi legati agli chassis a lame.

È possibile utilizzare architetture di server caratterizzate da un classico insieme di schede madri, riducendo i costi. Gli IT manager possono scegliere anche una serie di switch standard. Gli esperti fanno notare come i due più grossi vantaggi dell’approccio convergente delle lame sia lo storage, dove molte unità sono alloggiate in un nodo di convergenza, fatte convergere e alloggiare su un unico nodo con una GPU (un’unità di elaborwzione grafica) come add on.

Che cos’è l’iperconvergenza e come funziona

Oggi si parla sempre più spesso di architettura convergente o iperconvergente, ma che cosa significa? Un’infrastruttura iperconvergente è costituta da un gruppo di computer, di storage e di sistemi di rete (cluster). In parte questo approccio si ispira al fatto che le storage appliance oggi sono molto simili a dei server. Hanno lo stesso numero di unità ( da 10 a 12), lo stesso motore COTS e più o meno lo stesso concept progettuale. 

Se sono così simili, sottolineano gli esperti, perché differenziare questi sistemi come se fossero tasselli diversi dello stesso mosaico? A questo punto, perché non utilizzare gli stessi elementi per la governance dei server e degli storage? Il punto di arrivo, infatti, è sempre la massima efficienza e flessibilità delle risorse IT con un occhio al contenimento dei costi. Ci sono moltissime strategie per abbattere le spese. Ad esempio in pochi sanno ancora come il condizionamento di precisione sia in grado di garantire un ambiente ottimale per le sale macchine, consentendo di ridurre guasti dei componenti ed evitare costose interruzioni del servizioCiò che è importante è capire come funziona un’architettura iperconvergente per applicarla nel migliore dei modi, senza sbagliare.

Tornando al tema delle piattaforme convergenti, è vero che avvantaggiano i vendor di apparecchiature IT, non tanto l’utente del data center. I cluster portano le aziende a vincolarsi a dei vendor per quanto riguarda dischi, DRAM DIMM e altre componenti analoghe. I contratti di acquisto formulati dai fornitori dei cluster possono aumentare considerevolmente il TCO.

Il tema è che la flessibilità e la crescita del cluster a lungo termine sono importanti per una buona governance ma adottando diverse configurazioni costituite da più sistemi convergenti, le aziende rischiano di vincolarsi alle proposte del venditore. Ogni nuovo dimensionamento di qualche modulo può essere complicato. Aggiungere una soluzione di array all in flash, ad esempio, può costituire un problema. Nel caso di un’applicazione per l’analisi dei big data servono tutta una serie di operazioni di memoria, oltre a una grande velocità del disco e capacità di rete adeguate con una GPU massimamente efficiente. Un cluster convergente standard non è dunque la soluzione adatta a questo genere di task. 

La rigidità dei nodi pone delle restrizioni rispetto alle modalità con cui il cluster gestisce i carichi di lavoro. Il problema che si origina da qualsiasi approccio convergente è che il data center evolve in una sorta di compartimentazione per silos indipendenti, soprattutto se i team IT optano per una molteplicità di soluzioni convergenti e iperconvergenti di vendor diversi con l’obiettivo di gestire carichi di lavoro distinti.

Convergenza o iperconvergenza aperta: come sta evolvendo il mercato 

Per avere cluster convergenti funzionali ed efficienti, avvertono gli esperti, è necessario risolvere i vincoli con i vendot e i problemi di compartimentazione. Le componenti COTS realizzate da produttori come Supermicro o Quanta, permettono al reparto IT di personalizzare i cluster e i sottoinsiemi di cluster per uno scopo specifico, senza creare isole. Lato software, ci sono fornitori come DataCore e Springpath sche supportano una convergenza che rende i team IT liberi di personalizzare e bilanciare le risorse applicative e l’hardware in base alle esigenze, includendo anche opzioni open source come, ad esempio, Ceph. 

Cambiare le politiche di acquisto consente anche di scegliere liberamente gli add-on come, ad esempio, le unità dei dischi oppure i drive dei vendor che offrono soluzioni convergenti, con variazioni nei costi da 1 a 10.

Il mercato dell’iperconvergenza vede brand come Nutanix e Maxta che offrono sia solo soluzioni software che soluzioni bundle software e hardware. In sintesi, i cluster convergenti aperti sta dando vita a un mercato effervescente, dinamico ed estremamente più flessibile rispetto a una soluzione tradizionale che vede come riferimento un solo vendor. Tenendo conto delle riserve che le aziende hanno nei confronti dei vendor dalle soluzioni chiuse, le soluzioni convergenti aperte stanno ponendosi come valida alternativa alle architetture blade tradizionali, garantendo maggiore flessibilità ai data center.

TechTarget

Articolo 1 di 5