Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Green Data center: percorsi, tecniche e idee

pittogramma Zerouno

Green Data center: percorsi, tecniche e idee

22 Mar 2010

di Giampiero Carli Ballola

Consumare meno energia fa bene alla natura e al portafoglio. Per questo, e per poter soddisfare le crescenti esigenze di potenza e flessibilità richieste ai data center, occorre elaborare un percorso che porti a uno sviluppo dell’It aziendale sostenibile in chiave sia economica sia ambientale.

Da alcuni anni a questa parte il data center è oggetto di una serie di profondi mutamenti sia per le funzionalità sia per l’infrastruttura. Per quanto riguarda le funzionalità, i cambiamenti sono indotti dal nuovo ruolo assunto dall’It nell’impresa che ormai, nella maggioranza dei casi, si va evolvendo da mero strumento operativo a elemento a supporto del business e della competitività. Sul data center aziendale confluiscono quindi compiti e servizi nuovi, ad alto valore per il business, mentre quelli tradizionali sono spesso dati in outsourcing, con relativo impatto sui Centri dei service provider. Mentre le prospettive del SaaS e del Cloud computing stanno per avviare un’evoluzione ulteriore, capace in teoria di portare alla scomposizione del data center in punti dispersi e specializzati per funzione, uniti solo dalle logiche di gestione e controllo.
Per quanto riguarda l’infrastruttura, i mutamenti in atto, che investono server, storage e network, sono volti a soddisfare sia le esigenze di potenza imposte dai nuovi servizi It (che devono gestire enormi volumi di dati fornendo risposte sempre più veloci), sia soprattutto quelle di flessibilità determinate dal contesto operativo in cui questi servizi vanno erogati. Di questa evoluzione intendiamo appunto trattare un aspetto specifico ma fondamentale, e cioè l’impatto economico e ambientale derivante dai consumi energetici dell’infrastruttura del centro dati, problematica che va sotto il nome di ‘Green Data center’.
Di Green Dc si parla da tempo. Secondo un’indagine di un paio d’anni fa svolta presso le aziende ‘Global 2000’, sebbene più del 70% degli intervistati si dichiarasse interessato al problema, solo il 14% aveva attuato delle iniziative su questi aspetti. Oggi però i problemi economici, più che la sensibilità all’ambiente, hanno cambiato la situazione. Perché è vero che consumando meno energia s’immette meno CO2 nell’aria e si rallenta l’innalzamento della temperatura del pianeta, ma è ancor più vero che si risparmia un sacco di soldi. La ‘bolletta’ di uno dei maggiori gruppi bancari italiani è di 150 milioni di euro all’anno, equamente ripartita tra riscaldamento, illuminazione e ‘macchine d’ufficio’; i suoi computer, cioè, assorbono 50 milioni di euro l’anno in energia; ogni punto percentuale di riduzione  porta 500 mila euro a casa. Vale la pena provare. Ma anche per una Pmi il gioco vale la candela. Consolidando e virtualizzando anche pochi server, si realizzano risparmi che in generale ripagano già entro il primo anno gli investimenti fatti. E in più ci si può fregiare del titolo di ‘azienda green’, che nel marketing non guasta mai.

Software e hardware, uniti al risparmio
Abbiamo parlato di virtualizzazione perché le soluzioni software per il consolidamento e la virtualizzazione dei server sono gli strumenti preferiti per ottenere, oltre ai noti vantaggi in termini di flessibilità operativa, un notevole risparmio energetico. Questo deriva dalla maggiore efficienza con la quale le macchine fisiche sono utilizzate, che permette di ridurne drasticamente, anche di un ordine di grandezza, il numero, con guadagni diretti (minore alimentazione e raffreddamento) e indiretti (meno spazio occupato e quindi meno illuminazione e condizionamento) sull’energia. Sono fatti noti, tanto che da una recente indagine Symantec risulta che la riduzione dei consumi energetici gioca un ruolo chiave nel decidere l’avvio del 68% dei progetti di server virtualization. Lo stesso discorso si applica ai sistemi storage dove, oltre alle soluzioni di virtualizzazione i cui vantaggi energetici derivano dallo stesso principio di sfruttamento ottimale delle risorse fisiche utilizzato per i server, hanno grande importanza le soluzioni di de-duplicazione dei dati. Soluzioni che riducono non solo il fabbisogno di spazio su disco ma anche il numero degli accessi ai dati,  risparmiando su quella che è la maggior fonte di consumo di un disk array. 
Per proseguire nel risparmio d’energia, dopo le soluzioni di server e storage virtualization, occorre però mettere mano all’hardware. Qui le strade sono due, che procedono spesso in parallelo: l’adozione delle architetture ‘blade’ e di Cpu ad alta efficienza energetica da un lato e l’adozione di sistemi parimenti ad alta efficienza per la gestione dell’alimentazione e soprattutto del raffreddamento dall’altro. Dell’architettura blade abbiamo già scritto in dettaglio (vedi ZeroUno n. 325). In sintesi, i vantaggi energetici che questa offre, che a parità di potenza di calcolo disponibile possono ridurne anche del 30% il consumo, derivano principalmente dall’elevata densità (minore spazio occupato a parità di Cpu) e dalla maggiore efficienza dei gruppi di alimentazione, che servono più Cpu nello stesso tempo. Purtroppo, il rovescio della medaglia è che la densità delle unità di calcolo e, nelle singole unità, dei processori multi-core, aumenta il bisogno di raffreddamento, che in un data center è responsabile di più della metà della spesa totale in energia elettrica.
Il problema è noto e l’approccio per poterlo superare è duplice. Sul lato server i costruttori di processori hanno sviluppato una nuova generazione di chip multi-core (i cui più recenti esempi sono gli Xeon 5500 di Intel, per i server x86, e i Power7 di Ibm per i server Aix-Unix), che grazie a una elevata parallelizzazione dei thread sui diversi nuclei di calcolo e alla variazione del clock in funzione del carico di lavoro forniscono prestazioni elevate consumando meno energia. Sul lato raffreddamento Apc (che fondendosi con Schneider Electric è oggi praticamente l’unico vendor di Ups di classe Data center) ha sviluppato sistemi integrati che gestiscono in modo ‘intelligente’ sia l’alimentazione sia il raffreddamento in funzione dello stato di attività delle macchine, riducendo gli sprechi di energia.
Esiste però una ‘terza via’ al Green Data center, ed è quella che, attraverso un progetto tuttora in corso ma che ha già fornito importanti risultati, promette una riduzione dei consumi energetici ottenibile sfruttando il materiale esistente senza dover sostituire né i server né i sistemi di raffreddamento. Il progetto Energ-It, promosso dalla Fondazione Politecnico e dal Dipartimento di Elettronica e Informazione del Politecnico di Milano, finanziato dalla Regione Lombardia e svolto in partnership con tre società (Beta80, Enter e Neptuny) cui sono state affidati specifici compiti e ruoli. Si basa su un’idea di partenza tanto semplice quanto innovativa: portare l’elaborazione più intensiva dove più efficace è il raffreddamento.
Come spiega Eugenio Capra (nella foto a destra), professore di Sistemi Informativi presso il Politecnico, “Stiamo mettendo a punto una metodologia che si traduce in uno strumento software destinato a chi gestisce il data center. Tale strumento usa una base dati, costruita tramite benchmark realizzati empiricamente da Neptuny, che per diverse tipologie di macchine fisiche ne stabilisce il consumo in base al carico di lavoro. Il software provvede quindi a distribuire i carichi di lavoro alle macchine virtuali considerando non solo la disponibilità delle risorse necessarie, che non sarebbe una novità, ma anche la loro collocazione fisica nel centro dati”. Tramite un modello, sviluppato dal Dipartimento di Matematica del Politecnico, che evidenzia la temperatura dei flussi di circolazione dell’aria all’interno del Data Center, lo strumento di cui si parla è quindi in grado di assegnare alle macchine virtuali che svolgono compiti con pesanti carichi di lavoro quelle risorse (Cpu e disk array) che si trovano fisicamente dove il flusso d’aria è più freddo, spegnendo o alleggerendo il carico di quelle che si trovano in posizione meno avvantaggiata. In breve, integra nella gestione delle macchine virtuali gli aspetti di efficienza sia operazionale sia energetica con un approccio, sottolinea Capra, che è quello di utilizzare l’esistente.
Un vantaggio non da poco per qualsiasi impresa. 

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 8