Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Architetture flessibili e convergenti

pittogramma Zerouno

Architetture flessibili e convergenti

23 Feb 2011

di Giampiero Carli Ballola

I sistemi che combinano, integrano e gestiscono unitariamente risorse di calcolo, storage e networking rappresentano una soluzione in grado di coniugare gli irrinunciabili requisiti di affidabilità e prestazioni tipiche di un ambiente mission-critical con una flessibilità d’impiego che supera i vincoli derivanti dalla complessità delle tecnologie. Nel new generation data center i componenti dell’infrastruttura convergono in un insieme dove le risorse devono essere: standardizzate, integrate in modo nativo, monitorate e gestite in modo unitario.

Tra chi, a qualsiasi titolo e livello, si occupa professionalmente di IT per l’impresa, vi è la sensazione generale e diffusa che per tutto ciò che riguarda il concetto e la funzione del data center si sia a un punto di svolta. Che si stia per assistere, cioè, a un nuovo ciclo di evoluzione spinto, come tutti i cicli evolutivi, dalla difficoltà del modello attuale ad adattarsi e rispondere alle esigenze imposte dall’ambiente. Una ricerca svolta a livello mondiale da Forrester circa un anno fa metteva al primo posto tra i problemi che i Cio si trovano a dover affrontare la difficoltà nel sostenere le attività dell’impresa in modo adeguato alle attese del top management, di cui sempre più spesso lo stesso Cio fa parte. E se questa era la situazione un anno fa, non c’è motivo di credere che oggi appaia più rosea. Al contrario, aumenta la sensazione che in molte organizzazioni il centro dati sia vicino al punto di saturazione, quello in cui anche un modesto aumento del carico di lavoro si traduce in un aumento sproporzionato dei tempi di risposta e delle risorse assorbite, tale da portare al decadimento, se non al collasso, dell’erogazione dei servizi.
Si tratta, evidentemente, di una situazione che mette in difficoltà qualsiasi impresa, ma che in molti casi comporta un rischio semplicemente inaccettabile.
Le attività per le quali la disponibilità e le prestazioni dei sistemi informatici sono un fattore assolutamente critico sono parecchie. I servizi richiesti da un aeroporto, un ospedale o un mercato finanziario sono esempi eclatanti, ma anche le attività produttive a ciclo continuo (e sono tante in tanti settori, dal petrolchimico all’alimentare, dal siderurgico al farmaceutico) esigono sistemi di totale affidabilità. Lo stesso vale per i centri su cui poggiano siti di e-commerce e, come ovvio, per i centri degli Isp, dove il livello di servizio “è” il business.
A queste infrastrutture si chiede: una disponibilità estremamente elevata (cosiddetta “five-nine”, cioè del 99,999%, pari a non oltre 5 minuti di downtime in un anno) assicurata da componenti ridondanti e automaticamente intercambiabili (“hot swap”); un sistema di disaster recovery che in caso di danno fisico ai sistemi assicuri l’immediata ripresa del servizio da un sito secondario (che per garantire la necessaria continuità dev’essere costantemente aggiornato in tempo reale); la capacità di rispondere in tempi brevissimi (near-real time) a carichi di lavoro che per volume e tipologia possono variare anche molto rapidamente in funzione dei servizi supportati. Una somma di requisiti alla quale, specie per quanto riguarda la flessibilità coniugata al mantenimento dei livelli di prestazione, gran parte delle attuali infrastrutture non risponde in modo adeguato.
La scarsa flessibilità dei data center non è però che il sintomo evidente di un problema diffuso e profondo nell’IT, vale a dire la crescita della complessità connaturata allo sviluppo della stessa infrastruttura. Questa complessità nasce da due fattori concomitanti: il progresso delle tecnologie disponibili e l’organizzazione e architettura del centro dati.
I servizi al business che l’It può erogare e gli strumenti che ne permettono l’erogazione si rapportano in un ciclo che si autoalimenta. Ogni progresso tecnologico tende a migliorare il rapporto tra il valore del servizio e il suo costo, il che ne comporta la maggior diffusione presso gli utenti. Ciò accelera il Roi dei fornitori, che sono quindi stimolati a reinvestire in R&D per offrire nuove tecnologie più vantaggiose delle precedenti e il ciclo si ripete.
Questo processo, che di per sé sarebbe virtuoso, porta però al secondo fattore di complessità: l’architettura del data center. I progetti dei servizi It sono eventi discreti, nel senso che hanno un inizio e una fine. Usano quindi le tecnologie disponibili al momento. Ma queste, si è detto, si rinnovano continuamente. Per cui quando un progetto si conclude e il servizio va in produzione, spesso la tecnologia su cui si basa è già superata o sta per esserlo, ed è probabile che sarà una nuova tecnologia ad abilitare il servizio successivo. Il data center viene quindi quasi necessariamente a svilupparsi per ‘silos’ dove servizi diversi sono serviti da piattaforme diverse che hanno le loro specifiche di gestione e amministrazione e richiedono skill dedicati.
Le soluzioni middleware consentono, fino a un certo punto, di gestire piattaforme diverse in modo unificato, ma a loro volta introducono un ulteriore livello di complessità; e se permettono di erogare in modo integrato o quanto meno coordinato servizi di origine composita, non risolvono le rigidità legate alla presenza di piattaforme e infrastrutture hardware eterogenee, dovute appunto allo sviluppo a ‘silos’ informativi. Questi aspetti incidono pesantemente negli ambienti critici di cui si è detto, dove la disponibilità e il livello dei servizi è un elemento irrinunciabile, imponendo un diverso approccio all’architettura.

La server virtualization non basta
La server virtualization risponde a molti dei problemi citati (il che ne spiega il successo), ma non è, da sola, sufficiente. Infatti, se da un lato gli hypervisor e gli strumenti di gestione delle Virtual machine permettono di consolidare i carichi di lavoro fronteggiandone la variabilità e di conseguenza riducono drasticamente anche tempi e costi del recovery, d’altra parte rimangono i problemi relativi alla gestione dello storage, che va assegnato in parallelo al provisioning delle macchine virtuali e consistentemente alle loro richieste, e al networking, che va riorganizzato in tempo reale in funzione delle diverse configurazioni.
Occorre un nuovo approccio all’architettura stessa del data center, e la strada che si sta dimostrando più efficace è quella di far convergere i componenti dell’infrastruttura (converged infrastructure) in un insieme dove le risorse di elaborazione, di storage e di rete siano: 1) standardizzate; 2) integrate in modo nativo (factory integrated) ma non rigido (loosely-coupled), in modo da essere ricombinabili con facilità; 3) monitorate e gestite in modo unitario. Un sistema che risponda a questi criteri offre consistenti vantaggi su almeno quattro fronti.
In primo luogo, porta al massimo grado il concetto e i vantaggi della virtualizzazione assicurando che le risorse di calcolo, storage e rete siano messe a disposizione delle macchine virtuali nel modo più efficiente e coordinato secondo le richieste di un servizio che può distribuire i carichi di lavoro dalle Cpu allo storage e all’I/O a seconda del bisogno. Questo concetto di approccio unificato si estende inoltre all’amministrazione del sistema, che integra gli strumenti di gestione delle risorse.
In secondo luogo promuove il deployment, l’amministrazione e le prestazioni delle risorse: raccogliendo l’input/output in un impianto connettivo unico e condiviso si semplifica il provisioning delle risorse hardware. Switch e adattatori sono fisicamente fissi, ma le loro funzioni sono virtualizzate, per cui la riconfigurazione è fatta via software, senza dover intervenire sui cablaggi (cosa che, tra l’altro, aumenta l’affidabilità del sistema).
Un’infrastruttura convergente rappresenta, ed è il terzo punto, la strada più facile per un progetto di cloud privato, architettura che soddisfa i requisiti di disponibilità e di recovery degli ambienti critici. In questi sistemi sono infatti presenti, e già pre-integrati, i “building block” fondamentali di un cloud interno, dalle soluzioni per l’automazione del monitoraggio e della gestione delle risorse sino ai portali self-service per le richieste di deployment.
Infine, vantaggio non trascurabile per l’It aziendale, la scelta di un’infrastruttura che è già integrata e testata per la configurazione di una quantità di elementi software e hardware semplifica di gran lunga tutti gli aspetti relativi al supporto da parte del fornitore. Che è uno solo e la cui organizzazione è tenuta a farsi carico di ogni possibile problema. E questo, sia dal punto di vista tecnico sia da quello della relazione, è un aspetto il cui valore, anche economico, non va sottovalutato.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5