Controllare e gestire le prestazioni del data center

Per far fronte alla crescente complessità generata da fenomeni quali Big data e IoT nella gestione dei dati, le aziende devono rivedere le proprie infrastrutture Data Center affinché siano performanti rispetto alle ‘nuove’ esigenze di business e gestibili da un unico punto con una vista olistica.

Pubblicato il 25 Lug 2013

Big data e Internet Of Things sono alcuni dei trend oggi in fortissima e continua crescita che generano un impatto critico sulla capacità delle aziende di gestire efficacemente i dati a disposizione. “Il numero dei dispositivi connessi aumenta in modo esponenziale anno su anno così come il volume dei dati che vengono immagazzinati o resi disponibili da fonti nuove e destrutturate” dice Fabrizio Landini, Vice President della business unit IT di Schneider Electric, che prosegue: “Situazione per altro accelerata da fortissimi driver alla digitalizzazione quali la mobility, l’It consumerization, il social business, fino ad arrivare al cloud”.

Fabrizio Landini, Vice President della business unit IT di Schneider Electric

Questo scenario implica una forte criticità sul fronte delle infrastrutture data center, avendo un impatto diretto sulle prestazioni delle architetture che si traducono spesso in un calo delle performance applicative con un impatto diretto sul business quando, come accenna Landini, “le infrastrutture ‘inadeguate’ generano downtime, rallentamenti dei servizi It e applicativi, cattiva connessione alla Rete…”.

“Secondo una recente inchiesta di Idc [The Datacenter's Role in Delivering Business Innovation, indagine condotta su oltre 500 It manager in Nord America, Europa Occidentale e America Latina – ndr] – asserisce Landini – l’84% dei data center mostra problematiche di performance, minando seriamente il valore dell’It per il business”. Non solo, sono gli intervistati stessi, nel 57% dei casi, a dichiarare che le proprie infrastrutture data center sono da considerare ‘inefficienti’ o ‘moderatamente efficienti’.

A generare questa situazione critica, si legge nel report Idc, sono le inconsistenti informazioni circa lo ‘stato di salute’ del data center: “Senza una chiara visibilità e le giuste metriche di misurazione – osserva Landini – diventa complesso riuscire a pianificare correttamente e adeguatamente, rispetto alle esigenze del business, la capacità e le prestazioni delle infrastrutture”.

“La problematica è più ‘facilmente’ gestibile nel caso di data center nuovi, di ultima generazione, all’interno dei quali le soluzioni di Dcim (Data Center Infrastructure Management) si possono integrare senza grandi difficoltà – puntualizza Landini -. Tuttavia, anche in questi casi, è importante non focalizzare l’attenzione sull’efficienza e l’affidabilità dei singoli componenti, quanto, piuttosto, sul quadro generale e sulle performance dell’intera infrastruttura integrata (dai sistemi di power and cooling, al network, alle infrastrutture server ai componenti It) che andrebbe poi gestita nel suo insieme da un unico punto in modo da avere una visione d’insieme chiara di tutto il data center”.

Per i data center esistenti, frutto di svariati investimenti e ‘agglomerati’ di tecnologie differenti, le cose si complicano un po’ ma il ‘segreto’, secondo Landini, “è affidarsi a piattaforme di gestione e controllo basate su protocolli standard e open, perfettamente in grado di integrarsi con tutti i sistemi già esistenti all’interno dei data center, anche quelli più obsoleti o che non si basano su protocolli tipici e uniformati”.

“L’importante – conclude Landini – è partire sempre da un’ approfondito assessment iniziale che consenta di avere una fotografia chiara dello ‘stato di salute’ del data center per identificare poi le aree su cui è necessario intervenire e le azioni indispensabili per migliorarne le prestazioni, l’affidabilità e la gestione”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3