Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Il software che fa risparmiare

pittogramma Zerouno

Il software che fa risparmiare

19 Feb 2013

di Giampiero Carli Ballola

L’impiego degli strumenti di pianificazione e gestione dell’infrastruttura non solo potenzia l’operatività del data center ma, grazie all’impiego razionale delle risorse, permette di realizzare consistenti risparmi sul consumo di energia

L’incremento sensibile e generalizzato della complessità che investe praticamente ogni attività della funzione It di un’impresa comprende, come è ovvio, la crescente complessità delle attività I&o (Infrastrutture e Operazioni) per la gestione e l’esercizio del data center. A quest’impegno, per così dire istituzionale, dell’I&o si aggiungono poi oggi quelli derivanti dalla trasformazione in atto nel ruolo stesso dell’It come funzione proattiva del business. Evoluzione che per l’I&o, ma soprattutto per le Operazioni, si traduce in una doppia sfida: da un lato organizzare l’attività del data center in modo che possa erogare i servizi richiesti nel modo più rapido ed efficace possibile; dall’altro lavorare sull’efficienza interna per ridurre quei costi d’esercizio che, come sappiamo, fanno delle Operazioni la voce di spesa di gran lunga più pesante per l’It. Indirettamente nel primo caso, direttamente nel secondo, le attività I&o potranno così influire positivamente sui profitti, contribuendo a fare dell’It e del data center un centro generatore di valore per l’impresa.

Se l’obiettivo è strategico, la sua realizzazione, per chiunque ne sia incaricato, è davvero una sfida: dominare la complessità delle operazioni, eseguendole meglio di prima e con costi minori sembra un’equazione irrisolvibile. In realtà, un aiuto, anzi, una soluzione, al problema esiste, ed è quella categoria di strumenti software di gestione che va sotto il nome di Dcim (Data center Infrastructure management). Nati per sopperire alla gestione della complessità fornendo mezzi di controllo e d’intervento sulle risorse fisiche del centro dati ed automatizzandone in parte i processi in modo da ridurre il tempo (e quindi il costo) delle operazioni manuali, gli strumenti Dcim si prestano benissimo anche ad ottimizzare l’impiego delle risorse stesse. Ciò permette di realizzare consistenti risparmi alla voce ‘alimentazione e raffreddamento’, direttamente legata, come è ovvio, sia all’operatività dei sistemi (server, soprattutto, ma anche storage e, in minor misura, networking) sia ai carichi di lavoro cui questi sono sottoposti.  Queste capacità sono state rapidamente colte dai responsabili I&o, tanto che secondo l’Uptime Institute (ente che svolge consulenza per data center) il mercato del Dcim dovrebbe passare dai 500 milioni di dollari del 2011 ai 7,5 miliardi nel 2020, con un aumento di 15 volte in dieci anni.

A questo punto, prima di proseguire nella trattazione, corre l’obbligo di fare una piccola ma importante precisazione. Nonostante il miglioramento tecnologico dei sistemi, il consumo d’energia dei data center è diventato sempre più rilevante. Tanto che in certe realtà dotate di grandi centri dati (come le banche) il consumo per l’It supera quello per l’illuminazione degli uffici. Ciò nonostante, in molte imprese il consumo di energia viene addebitato alle spese generali come voce unica, non ripartita tra le funzioni utenti o ripartita secondo parametri (area occupata, numero dipendenti…) che poco hanno a che vedere con l’uso che se ne fa. Non vogliamo criticare questa scelta, solo far notare che si tratta di una pratica sempre più abbandonata in favore della ripartizione per funzione e attività. Cosa che peraltro, per il Cio, è anche un’opportunità: dato che l’energia in ogni caso si paga, diventarne responsabili permette di far valere in seno all’organizzazione ogni risparmio che si può fare.

 

Pianificazione, implementazione, analisi

Nell’ambito del software di Dcim, quello che risulta più utile ai fini di cui si è detto è rappresentato dagli strumenti cosiddetti di ‘Planning & Implementation’ (figura 1). Questi tool aiutano infatti i responsabili I&o a svolgere tre attività fondamentali per il buon funzionamento del centro dati. La prima (di pianificazione) è lo studio di come organizzare il layout del data center collocando i sistemi di alimentazione e raffreddamento in modo da ottimizzarne il rendimento. La seconda (d’implementazione) consiste nel gestire le operazioni per prevedere gli effetti di un malfunzionamento o di una caduta di una parte del data center sulla sua operatività e, di conseguenza, predisporre le misure necessarie per mantenere l’erogazione dei servizi It entro i livelli concordati. La terza (di analisi) è quella che, tramite appunto l’analisi delle condizioni di cui al punto 1 e degli eventi di cui al punto 2, permette di agire su pianificazione e operazioni per migliorare il rendimento generale del centro dati.

A queste tre attività corrispondono tre gruppi di strumenti specifici, talvolta reperibili come software stand-alone, talaltra come funzionalità di soluzioni integrate.

Figura 1: Gli strumenti cosiddetti di ‘Planning & Implementation’nell’ambito del software di Dcim. Fonte: Uptime Institute

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1-Pianificazione

Questi strumenti rappresentano graficamente il layout e le condizioni di funzionamento del data center e sono in grado, elaborando le informazioni di base che vi vengono immesse, di simulare l’effetto di aggiunte, eliminazioni, spostamenti e modifiche sia dei sistemi fisici sia degli ambienti che li ospitano (le cosiddette ‘facility’, cioè gli spazi corredati dei servizi essenziali). Aiutano quindi a rispondere a questioni comuni, come: Dove sistemare un nuovo server? Che impatto avrà sui flussi d’aria e i circuiti d’energia? Saranno adeguati gli attuali sistemi di alimentazione e raffreddamento? Che effetto potranno avere i nuovi apparati sulla ridondanza e sulla sicurezza? E così via. Dare una risposta a questi quesiti serve a mantenere la funzionalità del data center anche nel caso di guasti o inefficienze dell’infrastruttura fisica, sia abbreviando i tempi d’intervento e ripristino sia, soprattutto, attuando un’efficace opera di prevenzione (impedendo, ad esempio, di sistemare un rack ad alta densità dove non arriva abbastanza aria fredda). In ultima analisi, i tool di pianificazione assicurano, o aiutano ad assicurare, l’erogazione dei servizi al business, che è poi il fine ultimo della funzione I&o, per non dire della stessa It.

 

2-Operazioni

Questa classe di strumenti automatizza la gestione delle attività in modo da poter assegnare gli ordini di lavoro, riservare spazi e risorse, tracciare lo stato dei sistemi e produrre una documentazione degli interventi e delle modifiche apportate (tipo aggiunta o rimozione di dispositivi). Le questioni cui rispondono riguardano quindi lo stato dei flussi di lavoro correnti, quello generale del Ced, il consumo di energia dei rack (e quindi il livello di Pue-Power usage effectiveness, il rapporto tra l’energia erogata e quella assorbita dai sistemi informatici, che se tracciato su base storica verifica se e quanto le strategie di risparmio energetico stiano funzionando), le perdite di energia, la presenza di punti di concentrazione del calore, il funzionamento e l’efficacia del sistema di condizionamento.

Alcuni strumenti possono anche interfacciare le informazioni riguardanti l’infrastruttura fisica con quelle sulla gestione delle macchine virtuali. Si tratta di una funzionalità preziosa in un ambiente altamente virtualizzato, dove le Vm sono frequentemente spostate in funzione della variabilità dei carichi di lavoro, perché assicura che le macchine virtuali poggino su host fisici capaci di garantirne alimentazione e raffreddamento. In tal modo si può aumentare l’availability dei servizi It anche senza dover ridondare le risorse fisiche.

 

3-Analisi

Si tratta di strumenti atti a supportare decisioni e interventi non automatizzabili basandosi su dati di fatto. Questi sono individuati sia ex-post, raccogliendo e analizzando i dati operativi riguardanti l’infrastruttura, sia ex-ante, attraverso funzioni di simulazione predittiva. Inoltre, forniscono agli operatori un quadro di riferimento indispensabile per dare un valore alle metriche rilevate (evidenziando quindi i gap di efficienza) e per stabilire le regole di alert per gli interventi ‘per eccezioni’, cioè a seguito di deviazioni dal quadro così determinato. Dati, analisi e proiezioni permettono, in pratica, di sapere chi, quando e su quali sistemi sono stati fatti degli interventi, quando si dovrà aggiornare il firmware degli apparati di servizio, se e quando occorre caricare le batterie degli Ups, e così via. Si può anche arrivare a prevedere le future esigenze dell’infrastruttura e quindi a programmare eventuali nuovi investimenti.

Tra le analisi dei dati è specialmente utile quella relativa alla capacità di alimentazione o raffreddamento inutilizzata. La sua importanza sta nel fatto che lo scarto tra la capacità potenziale e quella effettiva è sempre difficile da giustificare. In altri termini: non è facile spiegare agli utenti o al Cio perché il data center non possa ospitare nuovi rack quando, sulla carta, dovrebbe poterlo fare. Le cause sono diverse. Per esempio, il condizionatore è potente ma il flusso d’aria non segue quello dei carichi di lavoro; c’è lo spazio a terra, ma non vi arriva l’alimentazione; l’energia è sufficiente ma non ci sono spazi liberi. Conoscerle e poterle prevenire risparmia al responsabile I&o ‘un’esperienza tra le più frustranti’.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 3