Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Smart data center: per gradi e con una roadmap

pittogramma Zerouno

Smart data center: per gradi e con una roadmap

11 Ott 2011

di Nicoletta Boldrini

Applicare i concetti e le strategie di Smart&Green ai sistemi informativi centrali delle aziende significa fare scelte che vanno dalla server consolidation, alla virtualizzazione, muovendosi verso gli ambienti cloud. Ma non solo. Pensare a un data center in chiave “smart” implica anche una forte attenzione a componenti come le fabric architecture, i network intelligenti, I nuovi sistemi di controllo e governo architetturale e delle performance, ecc. L’approccio, comunque, è sempre quello graduale.

A dare l’esempio è niente meno che la Casa Bianca. L’amministrazione Obama, attraverso il progetto “21st Century Government” prende di mira l’inefficienza dei data center e ordina “il taglio”.
L’iniziativa si chiama “Campaign to cut waste” e il bersaglio sono ben 178 data center da dismettere entro il 2012 (più di 800 entro il 2015) in uso dalle agenzie federali di circa 30 stati.
Jeffrey Zients, Federal Chief Performance Officer della Casa Bianca, in un post del suo blog, lo scorso 20 luglio ha categoricamente scritto: “Sono infrastrutture ritenute non necessarie”.
E il motivo non è affatto da ricondurre all’obsolescenza tecnologica; tutt’altro. Zients scrive, infatti, che i data center americani sono diventati sempre più efficienti, sia dal punto di vista energetico sia sotto il profilo dell’archiviazione dei dati, della sicurezza e dell’innovazione. “Il problema è, semmai, che l’amministrazione americana non ha saputo sfruttare queste innovazioni tecnologiche per risparmiare denaro; anzi, ha continuato a costruire nuovi data center, anziché sfruttare in modo più efficiente quelli già esistenti”, si legge nel post. “Dal 1998 al 2010, il Governo Federale Americano ha quadruplicato il numero dei propri data center; sistemi che però sfruttano solo il 27% della loro potenza di calcolo”, continua Zients.
Obiettivo, dunque, lavorare su sistemi ancora più efficienti e più “smart”, all’insegna dello “spendere meno ma spendere meglio”. Una tendenza che è tutt’altro che americana e relegata alle grande amministrazioni pubbliche. Anche nel Vecchio Continente si parla ormai da tempo di efficientamento dei sistemi informativi centrali, con politiche e approcci differenti ma che vanno in un’unica direzione: smart&green data center.
Ma cosa significa esattamente? Ne abbiamo discusso con Giorgio Richelli (nella foto) systems architect di Ibm Italia che esordisce sottolineando come “l’efficientamento dei sistemi informativi riguardi principalmente strutture già in essere: infrastrutture sempre più eterogenee e complesse. Progettare un data center in chiave ‘smart’ da zero è decisamente più semplice perché l’acquisto e la progettazione degli spazi (terreni e immobili), dell’equipaggiamento tecnologico (dai server alle reti, dai condizionatori ai sistemi di controllo e misurazione, ecc.), nonché la definizione delle policy di gestione, sicurezza, controllo, ecc., seguirebbero un plan che già dalla sua nascita dovrebbe racchiudere la strategia ‘smart’ di base. Inoltre, la progettazione e l’acquisto ex novo implicano di per sé l’accesso a tecnologie e sistemi innovativi e d’avanguardia, quindi progettati per essere più efficienti”.
“I problemi si riscontrano sull’esistente, ossia sulla trasformazione dei data center già attivi che – spiega Richelli – nel corso del tempo si sono evoluti in modo disomogeneo e disorganizzato. La maggior parte dei sistemi informativi centrali delle grandi aziende (così come quelli della pubblica amministrazione centrale, ma anche di alcune realtà minori) è caratterizzata da una pletora di soluzioni (architetturali, infrastrutturali, applicative, ecc.) sulle quali, spesso, non esistono un controllo e una gestione dall’alto. Con conseguenti aree di inefficienza, a volte nemmeno facilmente individuabili”.

Semplificare, ma con uno sguardo attento
In uno scenario simile, diventa fondamentale riuscire a definire un percorso evolutivo del data center indirizzando adeguatamente i punti critici delle infrastrutture (server, storage, network, power and cooling, software and service management, It governance, performance e sicurezza).
“Il data center ha assunto negli ultimi anni una funzione sempre più strategica per le aziende, diventando il centro dal quale si erogano servizi al business, e non più un mero centro operativo. Motivo per cui è cresciuta l’attenzione verso questi ambienti e la loro capacità e proposta di valore”, evidenzia Richelli che sottolinea come i sistemi informativi centrali siano oggi, concretamente, al centro di una rivoluzione/evoluzione guidata principalmente da tre direttive:
– miglioramento dei servizi (attraverso l’integrazione dell’infrastruttura fisica e digitale per gestire processi di business e risorse sempre più intelligenti);
– gestione del rischio (che significa attenzione a monitoraggio, controllo, governance, miglioramento delle performance, gestione e protezione delle informazioni, qualità del servizio, ecc.);
– riduzione dei costi (tra i quali quelli dell’energia).
“Il tema del consumo energetico interessa i data center ormai da oltre una decina d’anni – evidenzia Richelli – anche se devo ammettere che questa attenzione è maggiore nelle medie/piccole aziende che non nelle grandi realtà, nelle quali i costi vengono ripartiti tra più unità e l’attenzione è focalizzata sulle tematiche dell’efficientamento e della semplificazione”.
Passi affrontati nella maggior parte dei casi attraverso alcune scelte primarie di consolidamento dell’hardware, in particolare delle sale server.
“Fare un assessment infrastrutturale – prosegue Richelli – per capire quali sono (e dove sono) le aree di spreco e dove c’è la maggior perdita di controllo (e, quindi, inefficienza), tuttavia, non è un procedimento semplice; tutt’altro. A volte richiede molta più attenzione, pazienza e cura certosina rispetto alle fasi successive di trasformazione vera e propria”.
Questo perché ciò di cui parla Richelli è un assessment globale, che coinvolge non solo le macchine server, ma anche tutto ciò che è ad esse connesso (connettività quindi reti dati, switch, router, servizi; reti elettriche e consumo energetico per il funzionamento ma anche per il raffreddamento; piattaforme e ambienti tecnologici utilizzati compresi sistemi operativi, ambienti applicativi, ecc.).
“Molto spesso l’approccio non è affatto globale e si tende ad agire ‘per isole’, facendo un assessment ridotto e confinato solo all’area che si intende analizzare ed evolvere (per esempio facendo solo l’analisi dell’efficienza delle macchine server e delle prospettive di miglioramento attraverso la virtualizzazione)”, sottolinea Richelli. “Benché sia comprensibile e naturale procedere gradualmente, sarebbe sempre meglio avere un piano dettagliato di riferimento in modo da non perdere mai di vista le priorità e i reali step evolutivi. Va benissimo ragionare sul consolidamento e la virtualizzazione dei server, ma se queste poi si traducono in un’ulteriore complessità di gestione, il risultato è che la semplificazione tecnologica non porta a quella maggior efficienza verso la quale si vorrebbe tendere pensando d un sistema smart”.

Approccio “ad isole”. Corretto, ma serve una roadmap
Se la semplificazione è quindi la parola d’ordine per applicare concretamente i paradigmi dello smart&green data center, l’assessment strategico, come dicevamo, è il primo step di quella che Richelli individua come “roadmap evolutiva”. Una sorta di “cartina geografica” attraverso la quale individuare i punti chiave della trasformazione. “Una trasformazione che – va sottolineato – non è mai di natura solamente tecnologica ma ha un impatto importante anche sull’organizzazione It, sugli skill e le competenze e, di riflesso, anche sulle Lob e il business, che dall’It vengono serviti”.
Ma quali sono oggi le attività concrete per realizzare un sistema informativo realmente smart&green?
La server optimization (consolidamento, virtualizzazione, automazione, share grid e passaggio verso ambienti di cloud computing) – ricorda ancora Richelli – è senza dubbio una delle applicazioni principali, che ancora oggi vede impegnate molte realtà. Peraltro, pensare alla server optimization come a un tassello di una roadmap/strategia verso lo smart data center, significa prendere decisioni e gestire progetti che vanno ben oltre la riduzione delle macchine e la virtualizzazione, coinvolgendo anche elementi come lo storage e il network”.
L’esplosione delle nuove tecnologie per il settore consumer, quali Web 2.0, IpTV, il gaming online, ma anche le tecnologie per il mondo enterprise quali processori quad-core, la virtualizzazione e la nascita degli ambienti di cloud computing, stimolano la domanda di tecnologie di interconnessione ad elevata ampiezza di banda, per consentire il traffico di dati tra reti ad alta capacità. Negli ultimi anni si è sviluppata la tecnologia “Fabric” che, a livello di switch di networking e sistemi storage, ha decisamente portato una forte innovazione all’interno dei data center, soprattutto quelli altamente virtualizzati.
“Muoversi verso un ambiente ‘smart’ significa evolvere verso architetture più semplici e unificate. L’obiettivo, dunque, dovrebbe essere quello di sviluppare un’architettura fortemente interconnessa; un data center, in sostanza, che, grazie all’unificazione delle diverse tecnologie di comunicazione e networking (che facilita il passaggio, la disponibilità, la fruizione, l’archiviazione dei dati) consente di ridurre il numero di porte e cavi necessari al funzionamento delle architetture, accrescere la scalabilità e, al tempo stesso, ridurre il downtime e abbassare i tempi di latenza. Oltre a facilitare l’automazione dei processi legati ai workload e tradursi perciò in maggiore efficienza e qualità del servizio It erogato al business”, osserva Richelli. “Con conseguente riduzione anche del consumo energetico”.
Di per sé già questa direzione occupa non uno ma diversi step della roadmap evolutiva. “Muoversi verso un’architettura unificata a livello server, storage, networking, non è affatto semplice – precisa Richelli – ma è tuttavia una strada ‘obbligata’ per chi intende sfruttare l’innovazione tecnologica (dalla virtualizzazione al cloud computing) ai fini del proprio business”.

Controllo, governo, gestione
Dopo la parte architetturale, merita attenzione l’infrastruttura applicativa. “Strato sul quale oggi c’è davvero molto da fare – sostiene il manager Ibm -. Siamo solo all’inizio della virtualizzazione desktop e stiamo vedendo alcuni timidi approcci della virtualizzazione del layer applicativo. Aree certamente molto delicate ma sulle quali l’efficienza (It ma soprattutto di business) è evidente. Anche in questo caso, il disaccoppiamento dell’architettura (sia essa fisica o virtuale) dal livello superiore, cioè dall’infrastruttura data da sistemi operativi, piattaforme e ambienti applicativi , rende il data center molto più agile ed efficiente”.
“Attenzione però – osserva Richelli – muoversi verso questa agilità/dinamicità non significa riuscire ad avere maggior controllo e capacità di gestione. Come già accennato, la prima vera parola d’ordine è ‘semplificazione’, ma la seconda è ‘governance’. Senza gli strumenti analitici e di controllo adatti (anche questi possibilmente in chiave ‘smart’ ossia in grado di recepire le informazioni da più fonti, connetterle ed analizzarle in real-time, per fornire i dati più idonei a supporto delle decisioni, siano esse It o di business), anche il data center più performante da un punto di vista tecnologico potrebbe non risultare sufficientemente intelligente per erogare i servizi più adatti al business”.

Leggi anche "Workplace optimization: l’efficienza passa anche dal risparmio energetico" e "Razionalizzare l'uso dell'energia nel data center"

Nicoletta Boldrini

Giornalista

Articolo 1 di 2