BIG DATA

Volete intraprendere un progetto di Big Data Management? 4 consigli per iniziare con il piede giusto

Nella pratica, come si cominciano a gestire i Big Data? Ecco una miniguida in pillole che aiuterà gli analisti di sistema a riconoscere metodi e approcci, ma anche a identificare gli strumenti di supporto più utili, ottimizzando da un lato il data center e, dall’altro, il servizio agli utenti

Pubblicato il 10 Set 2015

big-data-management-150909171358

Le aziende hanno bisogno di informazioni sempre più dettagliate, sempre più precise e, possibilmente, in tempo reale. Ai responsabili dei sistemi informativi non rimane altro da fare che rivedere l’impostazione del data management, predisponendo i data center a risolvere il tema dei Big Data.

Metaforicamente parlando, il principio funzionale è quello della Borsa: le informazioni scorrono davanti agli occhi e bisogna essere capaci di visualizzarle e interpretarle il più velocemente possibile per prendere decisioni da cui dipendono la competitività e il successo del business. Ci vuole da un lato esperienza e, dall’altro, una buona infrastruttura dotata di automatismi di supporto ai flussi informativi.

Cosa deve fare un analista di sistema per iniziare un progetto di Big Data management?

Big Data Management: 4 cose da sapere prima di iniziare

Ecco una miniguida in pillole che aiuterà gli analisti di sistema a riconoscere metodi e approcci, ma anche a identificare gli strumenti di supporto più utili, ottimizzando da un lato il data center e, dall’altro, il servizio agli utenti.

1) Conoscere bene l’architettura informatica aziendale

Uno dei principi fondamentali per iniziare un progetto sui Big Data è partire da un’analisi fondamentale finalizzata a capire come lavora un sistema informativo e, in particolare, di come funzionino più in dettaglio i database e le infrastrutture. Prima di scoraggiarvi, sappiate che esistono alcuni strumenti di supporto come, ad esempio, Cloudera, Hadoop, Spark, Hive, Pig, Flume, Sqoop o Mesos, frame di supporto che aiutano a gestire le varie configurazione dei flussi informativi che transitano nel data center.

2) Imparare a gestire l’eterogeneità delle informazioni

Un altro punto importante a livello di metodo e sapere che il vostro archivio di Big Data Management potrebbe includere dati strutturati e dati destrutturati, provenienti da varie fonti come data warehouse, Hadoop, NoSQL, varie soluzioni di memorizzazione, file o applicazioni.

Questo significa che è necessario imparare a organizzare tutti questi tipi di dati in modo tale che il sistema riesca a processarli nel modo più efficiente. Per far questo, assicuratevi che tutte le anagrafiche siamo consistenti e coerenti, evitando in questo modo di creare molteplici versioni delle stesse informazioni su più database non sincronizzati.

3) Impostare anche gli adeguati criteri di sicurezza

Anche la sicurezza dei dati è una priorità strategica. Un analista di sistema dovrebbe anche sapere come organizzare, gestire e proteggere le informazioni. Ci sono decine e decine di prodotti di data management disponibili sul mercato che vi aiuteranno in questa attività.

A tal fine dovete familiarizzare con i processi associati alla protezione dei dati che caratterizzano la vostra organizzazione così come con tutte le policy di compliance e di governo della sicurezza. A seconda di quanto siano o meno sensibili i dati, dovete prendere in considerazione soluzioni di mascheramento, redazione o crittografia.

4) Assicurare la qualità dei servizi agli utenti finali

L’ultimo punto importante che va risolto rispetto a un progetto di Big Data Management è che i dati servono a figure professionali diverse. L’obiettivo della gestione, dunque, e garantire non solo che ci siano metodi di interrogazioni soddisfacenti, ma anche tempi adeguati di risposta. Prima di inziare un progetto di big data management, dunque, è importante sondare i requisiti di qualità del servizio stabiliti dagli utenti (Quality of Services – QoS). Ad esempio sapete quanti dati vogliono analizzare? Sapete quanto devono essere veloci i tempi di risposta per ogni interrogazione? Nel caso di un grande database che necessita di tempi di risposta in tempo reale, quello che bisogna sapere è che allocando il numero più consistente possibile di dati sulla memoria o sulla cache Flash si hanno garanzie di maggiore velocità rispetto ai tempi di interrogazione. Ottimi ambienti database con massime velocità di lettura in memoria sono Vertica di HP, Blu Accelerator di IBM o Hana di Sap.

Molto importante in un progetto di Big Data Management è anche capire il risultato che desidera raggiungere il cliente, ovvero il tipo di risposte che stanno cercando di ottenere. Se si conoscono i risultati a cui puntano gli utenti, infatti, è più facile organizzare dati e sistemi per raggiungere gli obiettivi all’insegna della massima efficienza.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2