Data center: manutenzione e monitoring per garantire la business continuity

pittogramma Zerouno

Sponsored Story

Data center: manutenzione e monitoring per garantire la business continuity

Il ruolo del CED oggi è sempre più centrale nella gestione dei processi digitali delle aziende. Per questo occorrono una manutenzione e un monitoraggio con cui assicurarne il corretto funzionamento e la piena efficienza. Gli stessi offerti da GCI System Integrator a imprese di tutti i settori, carrier e organizzazioni della pubblica amministrazione

06 Lug 2022

di Carmelo Greco

Se c’è un’infrastruttura al cuore della fase odierna dominata dalla digitalizzazione costante dei processi aziendali questa si chiama data center, vale a dire quell’entità fisica che contiene apparecchiature di calcolo, sistemi di storage e di rete, soluzioni di security, UPS (Uninterruptible Power Supply) e così via. Senza i data center non sarebbe possibile per aziende e realtà della pubblica amministrazione operare nel mondo contemporaneo, cioè utilizzare applicativi, scambiare informazioni e portare avanti la relazione con clienti e cittadini. Questa è la ragione per cui chi è impegnato nella gestione di un data center deve assicurare innanzitutto la business continuity.

Lo sa bene Luca Modica, CTO di GCI System Integrator, azienda leader nel settore che progetta, realizza e gestisce la manutenzione e il monitoraggio di infrastrutture di rete.

“La prerogativa principale di un data center è quella di avere i servizi sempre online, disponibili 24 ore al giorno, 7 giorni su 7, con un indice di affidabilità pari al famoso 99,9%” sottolinea Modica, ricordando che non a caso esistono degli indicatori che identificano la fascia di prestigio a cui appartengono i data center al cui livello più alto (Tier IV) corrispondono le migliori garanzie riguardo a continuità di servizio, logiche di costruzione antisismiche, protezione fisica dagli accessi non autorizzati e simili.

La percezione che i data center funzionino sempre

Se ci pensiamo, noi stessi in quanto utenti di svariati servizi digitali abbiamo una percezione che si fonda sulla certezza che non possa mai avvenire un downtime, specialmente quando i servizi di cui usufruiamo provengono dalla pubblica amministrazione o da organismi come gli istituti bancari. Pur non sapendo dove si trovano i sistemi, confidiamo nel fatto che questi possano funzionare in qualsiasi momento, notte e giorno.

Un convincimento che in effetti non è del tutto peregrino, visto che i data center dispongono di una serie di apparecchiature con cui minimizzare il rischio di guasti e malfunzionamenti, a cominciare ad esempio dagli apparati di condizionamento che consentono di mantenere una temperatura costante delle macchine al di sotto dei 24 gradi per evitare che si surriscaldino.

Questo aspetto, insieme a tanti altri presenti in una server farm, necessita che sia associato a una corretta manutenzione. Proprio una delle attività su cui è specializzata GCI System Integrator e che offre ad aziende di svariati comparti, dai carrier al manifatturiero, dalle utility a quelle che appartengono alla Pubblica amministrazione. “Per garantire la continuità del servizio occorre sia la ridondanza che si ottiene con i gruppi di continuità o UPS, sia la pulizia costante nonché un monitoraggio dell’efficacia dei sistemi, che si serve di vari strumenti, tra cui il rilevamento del fumo o di altre potenziali anomalie” evidenzia Luca Modica, invitando implicitamente le organizzazioni a non sottovalutare la qualità dell’infrastruttura a cui si decide di affidare i propri critical data.

Perché manutenzione e monitoring vanno insieme

Non bisogna immaginare attacchi terroristici o terremoti come fattori eccezionali contro cui mettere al sicuro il data center. Spesso è sufficiente un banale distacco di tensione, magari dovuto a dei lavori di escavazione svolti in strada che causano involontariamente il trancio di un cavo sotterraneo. Basta questo a interrompere l’operatività di un’azienda le cui perdite sono parametrate al prolungarsi del tempo di inattività fino al ripristino. Problema a cui si potrebbe ovviare se i sistemi fossero protetti e ridondanti, muniti di gruppi di continuità e di generatori di corrente.

Al di là del caso limite citato, la manutenzione deve andare di pari passo con il monitoring che può essere effettuato utilizzando delle sonde per la rilevazione di determinate soglie con cui intervenire in maniera predittiva. Questo approccio deve contemperare gli aspetti correlati al “ferro”, cioè alla componente hardware (dischi o power supply che si guastano), con quelli di natura applicativa che, a loro volta, potrebbero provocare un possibile fault.

Un esempio classico è quello del disco rigido che si riempie e sul quale, in assenza di una soglia di massima occupazione, si continua a scrivere con il risultato di perdere tutti i nuovi dati. Per questo, manutenzione e monitoraggio devono convergere. In un caso risolvendo un problema segnalato a seguito di un ticket aperto, nell’altro rilevando automaticamente un’anomalia prima che si trasformi in un problema più grave.

A ogni azienda il suo data center (e la sua manutenzione)

“Nell’arco di 30 anni, abbiamo portato avanti una crescita euristica che oggi ci consente di presidiare tecnologie come il deep learning e il machine learning con cui abbiamo costruito una forte automazione che non sostituisce l’operato di una persona, ma permette di ridurre molte situazioni di crisi, abbattendo fra l’altro il numero di quei tanti ‘falsi positivi’ che c’erano in passato” dice ancora il CTO.

Il fattore umano resta determinante, anche perché è l’unico in grado di intervenire in contesti che possono presentare diverse affinità, ma che non sono né sovrapponibili né standardizzabili. “Ogni azienda ha delle caratteristiche peculiari che la distinguono da un’altra che magari opera nello stesso settore” sostiene Luca Modica servendosi di un esempio: “Se prendiamo due imprese che producono scarpe, potrebbero avere esigenze molto diverse: in una ci potrebbero essere delle turnazioni per le quali occorre un monitoraggio condotto specialmente durante la notte, nell’altra la fascia da monitorare potrebbe concentrarsi nell’orario 9-18. La prima potrebbe avere delle interazioni EDI che l’altra non ha, mentre la seconda a sua volta potrebbe avere un sistema di automazione PLC totalmente differente rispetto a quello della sua omologa”.

Tutto questo significa che, oltre alle funzionalità comuni in un data center, quali ridondanza, affidabilità e stabilità, la sua progettazione prima e la sua manutenzione dopo devono seguire regole specifiche, frutto di uno “studio incredibilmente complesso” conclude il CTO di GCI System Integrator.

Carmelo Greco

Giornalista

Giornalista professionista, si occupa come freelance e formatore di temi connessi all’innovazione digitale, all’economia civile e alle trasformazioni del mercato del lavoro. È anche autore di opere teatrali e di narrativa. Ultimo romanzo pubblicato, Focara di sangue, Edizioni Fogliodivia, 2020.

Argomenti trattati

Aziende

G
GCI System Integrator

Approfondimenti

B
Business Continuity

Articolo 1 di 5