Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Data quality management e capacity planning per la nuova It

pittogramma Zerouno

Data quality management e capacity planning per la nuova It

30 Apr 2010

di Giampiero Carli Ballola

Nell’estrema complessità delle architetture dei sistemi informativi, la qualità dei servizi It dipende da una catena di elementi tra loro correlati, e tra questi la data quality, con temi legati all’univocità del dato e alla sua sicurezza, riveste un ruolo centrale, come emerge da una recente ricerca Forrester. Vediamo ciò che si chiede a chi è delegato a gestire le prestazioni e pianificare la capacità di un sistema per rispondere al meglio ai bisogni del business.

Perché, nel parlare comune, si dica che qualcosa “funziona”, bisogna che quella cosa non solo faccia ciò che deve fare, ma che lo faccia bene. In altre parole: le prestazioni non si possono dissociare dalle funzionalità, e perché il sistema informativo di un’azienda, un ente, una qualsiasi organizzazione, funzioni bisogna che le sue prestazioni siano adeguate alle esigenze del business. Esigenze che crescono sempre più: se nel mondo dell’e-business un cliente si perde o si guadagna per lo scarto di un click, rallentamenti e cadute nel funzionamento del sistema informativo hanno effetti deleteri sull’attività di ogni impresa.
Sebbene il buon funzionamento di un sistema informativo dipenda da molti fattori, a partire dalla qualità dei processi aziendali che deve servire, nel mondo delle architetture client-server (il che significa fino a un passato recente e che in molte aziende resiste ancora), l’incremento delle prestazioni passava per il potenziamento delle capacità di elaborazione, storage e rete; in base alla semplice equazione: più capacità = più performance. Ora, pur restando, come è ovvio, la capacità alla base delle prestazioni, il quadro sta cambiando. Negli ambienti sempre più interconnessi, componentizzati e virtualizzati verso cui evolvono i sistemi informativi aziendali, le prestazioni di ogni singolo servizio It sono il frutto di un’articolata catena di elementi ciascuno dei quali ha proprie prestazioni e capacità. Se vogliamo che il sistema funzioni bene occorre saper gestire le prestazioni, garantire la qualità dei dati e pianificare la capacità di ciascuno di questi elementi. Un compito irrinunciabile, date le esigenze di business di cui si è detto, ma che stante la rapida crescita del numero dei componenti, sia applicativi sia infrastrutturali, interessati dai processi aziendali, si fa sempre più difficile.
Un altro punto critico ai fini di una ottimale governance dei sistemi informativi e della gestione applicativa, nonché di uno sviluppo coerente alle diverse esigenze funzionali riguarda la data quality. Sul tema del data management e data quality, Forrester ha realizzato una ricerca a livello mondiale dalla quale emerge in primis la difficoltà di poter ottenere budget It dedicati a questi aspetti: circa il 68% delle imprese dichiara di aver bisogno di dettagliati business case per procedere con progetti di data quality dai quali deve chiaramente emergere il Roi. Il dato molto positivo riguarda il tema della considerazione della data governance valutata per il 95% delle aziende molto importante per il successo del data quality management. Tuttavia circa il 46% delle aziende dichiara uno scarso livello di maturità in tema di data quality e data governance all’interno delle proprie aziende. Infine un altro aspetto degno di nota che emerge dalla ricerca riguarda l’aspetto di corporate culture: prima ancora che investimenti di tipo tecnologico, le aziende rilevano come l’importanza della qualità del dato debba far parte di un’attenzione diffusa orientata alla univocità, alla sicurezza e alla gestione condivisa.

Processi di consolidamento dell’infrastruttura
Un primo elemento di complessità che va ad impattare sulla governance dell’It e, di conseguenza, sull’IT performance management e il capacity planning (attività diverse ma così interdipendenti da non poter essere trattare disgiuntamente) è quello derivante dai processi di consolidamento dell’infrastruttura. Secondo una recente ricerca condotta da Gartner, il 39% delle organizzazioni ha consolidato o sta consolidando i propri data center e il 33% ha deciso di farlo. I perché sono noti e non staremo a ripeterli, ma è un fatto che a fronte degli attesi vantaggi in termini di Tco ed ottimizzazione delle risorse e flessibilità nei confronti dei servizi al business, si va a creare una struttura dalla complessa topologia fisica e logica le cui capacità e prestazioni non sono né prevedibili né gestibili senza un approccio sistematico al problema ed adeguati strumenti di monitoraggio.
    
Virtualizzazione e complessità: gli impatti sulle applicazioni
Ma soprattutto, la strada del consolidamento è quella che porta alla virtualizzazione. Ed è questa la vera sfida. Infatti, i diversi livelli di astrazione introdotti dalla virtualizzazione delle risorse infrastrutturali consentono non solo di scomporre e ricomporre le risorse disponibili in funzione delle richieste dei processi di business, ma anche di considerare diverse fonti di fornitura. Per esempio, ricorrendo a risorse di elaborazione o di storage fornite come servizio da provider esterni. Tutto ciò moltiplica la reattività e flessibilità della funzione It, ma al prezzo di un tremendo aumento della complessità relativa al capacity planning, e quindi del performance management. Come fare per pianificare, misurare, prevedere e garantire un costante livello prestazionale in ogni configurazione resa possibile dalla virtualizzazione dell’infrastruttura? Senza metodologie e strumenti (sia di governance sia di intelligence) in grado di affrontare la complessità introdotta dalla server e storage virtualization, i risultati attesi da quest’ultima rischiano di essere annullati.
All’aumento della complessità dell’infrastruttura, si somma anche quello delle applicazioni, le cui architetture si sono spostate da un’impostazione monolitica e altamente integrata alle piattaforme hardware, verso una organizzata a componenti “loosely coupled”, orientata a funzionare in ambienti virtualizzati. La conseguenza è che i modelli costruiti dai capacity planner per le applicazioni in architettura client-server non sono più adatti alle applicazioni componentizzate per la Soa e il Web 2.0. Non solo: all’orizzonte delle opzioni per gli It manager si stanno già affacciando i nuovi modelli applicativi basati su servizi di cloud computing. Ciò moltiplica ulteriormente la complessità di una gestione end-to-end delle prestazioni dei servizi It.

Data management: livello di maturità
Per quanto riguarda l’impatto sulle applicazioni, la problematica della gestione e qualità dei dati è una di quelle maggiormente critiche. A questo riguardo, Forrester ha analizzato i risultati della propria ricerca alla luce di un modello di maturità del data quality management elaborato dalla stessa società di analisi (figura) .


Figura – Il modello di maturita del Master Data Management

Dalla ricerca, basata su un campione di 113 professionisti It,  emerge che solo il 4% ritiene di avere raggiunto un livello elevato di governance dei dati (ossia una governance che sia cross-enterprise e cross-functional con il coinvolgimento sia delle figure It sia di quelle di business e una forte sponsorship del top management; in questo livello, inoltre, vengono implementati sistemi di misurazione delle performance). Il 17% considera “alto” il livello di governance (rispetto al livello precedente, il coinvolgimento delle figure di business non è pervasivo su tutta l’azienda e, pur essendo ancora caratterizzato da un approccio top-down, non si parla di vera e proprio sponsorship del top management ma di un “supporto” dello stesso ai progetti di master data management; inoltre non vengono considerati sistemi di misurazione delle performance). Il 29% rientra nel livello definito “medio”, dove la governance dei dati è gestita interamente dall’organizzazione It seppur con un coinvolgimento significativo di alcune figure di business chiave. Ma il dato che Forrester rileva come preoccupante è quel 34% che si identifica in un livello “basso”, dove la governance e l’ownership del dato è interamente di appannaggio dell’organizzazione It, senza partecipazione attiva delle figure di business e con un coinvolgimento minimo del top management; allarme che si eleva ulteriormente per quel 12% che addirittura considera “molto basso” il proprio livello di governance, il che significa, in pratica, che non è stato sviluppato alcun progetto e non vengono effettuate significative attività per garantire una data governance.

Capacity planning e performance management: quali operazioni
L’inevitabile conseguenza di quanto abbiamo sinteticamente descritto sta, secondo le analisi di Gartner, nella necessità da parte dei responsabili delle operazioni It di creare una struttura dedicata al performance management, capacity planning e data quality dotata di processi e strumenti in grado di rispondere a sette punti fondamentali:
    1) assicurare e garantire in modo efficace i livelli di servizio concordati (Sla) e gli indicatori di performance stabiliti (Kpi) riguardo la disponibilità e le prestazioni dei servizi It indipendentemente dall’aumento della domanda da parte del business;
    2) ottimizzare un piano progressivo d’investimenti It che eviti un sovradimensionamento dell’infrastruttura;
    3) modellare le future richieste del business in termini di servizi e d’infrastruttura;
    4) fornire al business un modello finanziario in grado di prevedere capitali e costi operativi dei servizi It;
    5) darsi un modello di crescita organica che sia indipendente dall’aumento della domanda da parte del business;
    6) cogliere l’impatto sull’infrastruttura It dei cambiamenti dovuti a consolidamento, virtualizzazione, manutenzione, correzioni software (patches), aggiornamenti tecnologici e potenziamento delle applicazioni;
    7) stabilire quali cambiamenti nella domanda da parte del business possano avere un rapporto elastico o anelastico rispetto all’It.
     Gartner però raccomanda, prima di affrontare un percorso di analisi delle tecnologie e del mercato degli strumenti di performance management e capacity planning, di comprendere bene i processi che vi stanno alla base e che, nell’insieme, ne realizzano il ciclo di vita.

Questo si compone di quattro fasi. La prima è il Real time monitoring, nella quale si raccolgono i dati su prestazioni della Cpu, uso della memoria, uso della rete, capacità di disco e tempo di risposta delle transazioni. Questi valori, misurati in tempo reale, si confrontano con livelli di soglia prestabiliti, generando allarmi nel caso questi siano violati. A questa segue l’Historical data analysis, dove i dati raccolti nella prima fase sono analizzati per individuarne i trend. A queste due prime fasi, che possiamo considerare reattive, segue la terza, il Capacity planning, dove in base alle tendenze prestazionali identificate viene elaborata una previsione delle performance (attraverso strumenti di business analytics) secondo i modelli di simulazione “what-if”. Infine, nella quarta e ultima fase si provvede al Performance Tuning, si mettono in atto gli interventi necessari alla messa a punto dei vari componenti al fine di dare all’applicazione le migliori prestazioni. Va notato che la terza fase si suddivide in risorse, servizi e business capacity planning a seconda che le previsioni si applichino alla pianificazione delle prestazioni dei componenti infrastrutturali, del livello dei servizi It e della capacità di risorse e servizi di rispondere all’evoluzione degli scenari di business.

Uno strumento tecnologico che Gartner considera fondamentale per abilitare il workflow delle operazioni inerenti al ciclo di vita del performance management e capacity planning è il Performance Management Database (PMDb). Le prestazioni dei componenti infrastrutturali sono infatti monitorate in genere da strumenti dedicati, con tool per ambienti Unix, altri per Windows, altri per la rete; e lo stesso accade per i database. Inoltre, vi sono strumenti di analisi specifici che vengono usati per individuare i colli di bottiglia nel flusso dati, nella loro gestione e nella loro qualità,  tool di performance per lo sviluppo e il testing delle applicazioni, strumenti di misura dell’efficienza energetica e così via. Tutti questi strumenti sono nati ed operano nelle rispettive nicchie, senza che vi sia un approccio organico che abbia portato ad una architettura dati unificata. Compito del PMDb (la cui realizzazione andrà declinata a seconda delle priorità nella gestione dell’infrastruttura, con versioni più orientate al provisioning delle risorse ed altre più al controllo real-time) è quindi proprio quello di consolidare, normalizzare, correlare ed analizzare tutti i dati provenienti dai diversi strumenti in modo da consentire un performance management e capacity planning che copra l’intero sistema.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5