Sistemi iperconvergenti: quando sono la scelta migliore per l’IT modernization

Aumentano i workload per i quali le aziende acquistano HCI, Hyper Converged Infrastructure: dalla VDI alla Big Data analytics, dal customer engagement all’implementazione di soluzioni per l’Internet of Things. Molto apprezzate la semplicità di installazione, la robustezza, la gestibilità e l’interoperabilità con gli ambienti legacy

Pubblicato il 02 Mag 2017

sistemi-iperconvergenti

Nell’era del software defined data center (Sddc) l’hardware fa la differenza. Se è vero che le infrastrutture IT su cui le aziende implementano, sviluppano, testano e mettono in esercizio le applicazioni tendono ad essere sempre più definite via software, anche con pochi click del mouse, è altresì vero che, per essere possibile e attuabile nei migliori dei modi, tutto questo richiede uno strato hardware sottostante tutt’altro che indifferente. Ecco che parallelamente all’adozione di nuovi modelli di deploying e provisioning di applicazioni (come l’hybrid cloud, la mobility o l’Internet of things o IoT) e di sviluppo (agile software development, DevOps, containerization ecc.) i responsabili IT valutano e propongono la modernizzazione delle infrastrutture aumentando (oltre ad altri nuovi device e servizi) la presenza di sistemi iperconvergenti, o, per usare un’altra definizione, appliance di Hyper-converged infrastructure (HCI).

I sistemi iperconvergenti sono appliance hardware al cui interno sono pre integrate e preconfigurate risorse di computing (server), archiviazione (storage), networking, unitamente a software di virtualizzazione, storage management, protezione dei dati e – in alcuni casi – applicazioni. Si tratta di un mercato sorto sulla scia della rivoluzione delle infrastrutture per i data center iniziata con la virtualizzazione, che ha abituato i responsabili IT alla possibilità del consolidamento in un minor numero di risorse hardware fisiche “virtualizzate” (server, sottosistemi storage, apparati di rete) di sistemi operativi diversi, applicazioni, dati e così via. Di per sé la virtualization non ha intaccato però, più di tanto, il modello architetturale a tre strati (3-tier), nel senso che nella maggior parte dei casi, i sistemi IT continuano a essere basati sull’interazione fra client, server e uno strato storage costituito da sistemi Network attached storage (NAS) e Storage area network (San). Tutto questo è interconnesso da reti di networking costituite da switch più o meno grandi, numerose schede e cavi, e controllato da software di system management troppo spesso non unificati e con, di conseguenza, console diverse a seconda dei sistemi operativi e/o dei diversi silos verticali in cui l’infrastruttura è cresciuta nel tempo.

L’ideale per workload molto specifici ed esigenti

Il primo beneficio degli HCI è di evitare alle persone IT il lavoro di installazione, collegamento e collaudo di risorse server, storage e networking fisicamente a fronte della richiesta di una nuova infrastruttura IT a supporto o di nuove applicazioni, o di specifiche Line of Business (Lob), o di uffici o sedi periferiche (Remote Office-Branch Office, Robo). La ragione è che i sistemi iperconvergenti sono pronti a funzionare praticamente non appena viene premuto il pulsante di accensione. Per questa ragione, questo tipo di architettura ha avuto subito successo a supporto di applicazioni o workload specifici. Spesso diversi vendor specializzati soprattutto in uno stack (virtualization, storage, computing, networking e applicazioni) si presentano sul mercato con un’offerta di HCI “chiavi in mano”.

Uno scenario molto diffuso di implementazione di sistemi iperconvergenti di questo tipo sono le VDI (Virtual desktop infrastructure), per cui, sulle appliance è caricato tutto quello che serve (software di virtualizzazione, sicurezza e connettività; applicazioni; connessione a database e a internet) per fornire agli utenti remoti l’accesso ai propri desktop esattamente come se questi fossero memorizzati sui propri client, fissi o mobili.

Un secondo scenario è quello della business intelligence (inclusi data mining e big data analytics), attività per le quali HCI singole o in cluster sono in grado di fornire tutto il supporto necessario in termini di memorizzazione di grandi set di dati e di processing. Quella che hanno in comune i due scenari citati è la necessità di disporre di sufficienti capacità di storage preinstallate, elevate performance di elaborazione e bassissima latenza.

Nuovi mattoni per la modernizzazione dei data center

Oggi è in continua crescita il numero di applicazioni mission critical che necessitano di elevate performance, alta affidabilità (high availability) e che utilizzano dati sia di tipo strutturato che non strutturato. In molti scenari, inoltre, il contesto competitivo richiede che le Lob sviluppino, testino, mettano in esercizio, potenzino o dismettano nuove applicazioni in tempi rapidi, per esempio nell’ambito del customer engagement, attraverso i social, la mobility o i punti vendita. Oppure che si creino rapidamente nuove filiali in altre regioni di un Paese o all’estero. O ancora che inizino a sfruttare i vantaggi dell’Internet of thing integrando intelligenza a impianti o a singoli macchinari che, interagendo con i data center locali o centrali, consentano di effettuare analisi predittive ai fini di anticipare gli interventi di manutenzione o di rifornimento.

Tutti questi workload oggi si prestano a essere gestiti dalle nuove generazioni di sistemi iperconvergenti. Perché?

Innanzitutto per la semplicità di installazione, alla portata di personale IT di tipo “generalista”. In secondo luogo, le HCI sono costruite con hardware e software di livello “enterprise” (quindi performanti, robusti e funzionalmente ricchi: anche per lo storage management e la data protection).

Un’altra ragione è che lo stack software dispone di API (application programming interface) standard e di funzionalità di predictive analytics e di orchestration che consentono agli utenti di connettere rapidamente più HCI fra loro, con la certezza che il nuovo cluster si autoconfigurerà e continuerà a essere gestibile da un’unica console.

Last but not least, alcuni vendor propongono HCI che possono essere integrate con ambienti legacy ed essere “viste” e controllate dagli strumenti di system management preesistenti. Per questo motivo, oltre che per supportare specifici workload (VDI, Big Data, etc.) o costituire piccoli data center in scenari Robo, gli HCI hanno iniziato a diffondersi come nuovi building block nella modernizzazione dei data center, e per creare hybrid cloud, man mano che le infrastrutture legacy arrivano a fine corsa.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3