Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Business Intelligence: tutto parte dalla conoscenza del dato

pittogramma Zerouno

Caso Utente

Business Intelligence: tutto parte dalla conoscenza del dato

17 Giu 2011

di Nicoletta Boldrini

In uno scenario in cui la competitività e le istituzioni regolamentari impongono sempre più rigore nel time to market, nella qualità dei processi e nella filiera data driven, la profonda conoscenza del dato diventa l’elemento cardine per poter effettuare analisi efficaci e di supporto ai decisori di business. Guardiamo, in proposito, l’esperienza Bnl.

In un mondo caratterizzato da repentini cambiamenti che interessano anche la cronaca economica e finanziaria, emerge l’esigenza forte da parte delle istituzioni bancarie e finanziarie di poter disporre di dati per analizzare accadimenti, modelli analitici in grado di prevedere scenari a breve medio termine, strumenti di simulazione necessari a verificare l’efficacia delle soluzioni ipotizzate. In questo contesto l’It assurge ad attore principale nel momento in cui il “dato” è equiparato a tutti gli altri asset aziendali”.
Con questa premessa, Maurizio De Marinis (nella foto), responsabile del comparto Data Warehouse Crediti del dipartimento Sistemi Informativi di Bnl, evidenzia come la profonda conoscenza dei dati aziendali rappresenti il punto di partenza per analizzare l’andamento del business, identificare i possibili e probabili scenari futuri al fine di prendere decisioni strategicamente valide e corrette.
Il dato, in sostanza, è la base di tutte le strategie e tecniche di Business Intelligence e Business Analytics. Ed è anche l’elemento portante attorno al quale, in Bnl, sono stati valutati gli interventi di “intelligence” da effettuare.
“I driver che, in genere, indirizzano interventi di “intelligence” sui dati sono sostanzialmente due – osserva De Marinis -: ridondanze non controllate su sistemi di sintesi, con inevitabili ambiguità nella pubblicazione di indicatori critici, e mancanza di un “linguaggio comune” tra le varie funzioni di Business verso l’It”. “Questo ultimo punto ha rappresentato, a livello di scenario di mercato, una considerevole distorsione semantica tra la richiesta e la produzione di dati”, precisa il manager. “Il tutto in uno scenario in cui la competitività e le istituzioni regolamentari impongono sempre più rigore nel time to market, nella qualità dei processi e nella filiera data driven”. Competitività che, anche per le istituzioni finanziarie e bancarie, si è fatta più pressante nel corso dell’ultimo decennio, portando i decisori di business a chiedere sempre più supporto e proattività ai dipartimenti It.
Ma quali sono i dipartimenti o la tipologia di utenti che necessitano di Business Intelligence. E a supporto di quali operazioni e scelte decisionali?, chiediamo a De Marinis: “I dipartimenti maggiormente interessati alla Business Intelligence, in questo particolare momento, sono sicuramente le direzioni rischi e quella commerciale”, risponde il manager: “Per quanto riguarda le necessità informative, queste si sono rivelate assolutamente in linea con la Piramide di Bill Inmon [colui che coniò il termine “data warehouse” nel 1990, dandone questa definizione: “l’insieme delle strutture dati e degli strumenti necessari per ottenere, a partire dai dati operazionali prodotti e gestiti da un sistema informativo aziendale, informazioni utili ai manager come supporto alle decisioni” – ndr]. La Piramide di Inmon vede al vertice pochi utenti dotati di prodotti estremamente sofisticati di “data mining” analitici, utilizzati per il calcolo di modelli nell’ambito del Risk Management o della Customer Insight; al centro lo strato di “middle management” caratterizzato da necessità informative di Reporting ed Analisi su un numero finito di dimensioni con possibilità di navigare gerarchie (Drill/Roll) ed operazioni di Pivoting (interazioni righe/colonne); alla base un numero considerevole di utenti soddisfatti da Reporting massivo quantitativo”.

La tecnologia, l’It e il Business: tris d’assi
“L’esperienza mi porta ad affermare che il coinvolgimento dell’It, fin dalle fasi iniziali, è fondamentale nella Business Intelligence come in nessun altro ambito: dallo studio della normativa (per esempio Basilea II) fino ad arrivare al disegno della soluzione”, evidenzia De Marinis quando chiediamo “qual è stato il ruolo dell’It nella fase iniziale di comprensione della problematica e nel disegno della soluzione/servizio It”.
Approfondendo la discussione sugli aspetti di cooperazione tra It e Business, De Marinis aggiunge: “Nel nostro caso specifico, si è scelto, d’accordo con il Management, di creare una metodologia che abilitasse un linguaggio comune e fosse supportata da strumenti di Master Data Management (custom) e tool di Data Quality (di mercato)”.
“L’interazione tra It e Management è stata continua e circolare”, aggiunge il manager evidenziando come questa sia l’elemento di natura organizzativa più importante in assoluto.
Dal punto di vista strettamente tecnologico, i layer applicativi e tecnologici implementati in Bnl sono in linea con le metodologie Business Intelligence più diffuse. In particolare, parliamo di Data Warehouse utilizzato su due differenti livelli, con il disaccoppiamento delle sorgenti dati con la possibilità di separare l’elaborazione analitica Olap – Online Analytical Processing da quella transazionale Oltp – Online Transaction Processing. La tecnologia Oltp non prevede la creazione di banche dati separate, infatti le analisi vengono effettuate direttamente sui dati di esercizio. Questa soluzione permette di avere i dati sempre aggiornati ed evita fasi intermedie di trasformazione degli stessi, tuttavia per la sua stessa natura non è facilmente applicabile in situazioni dove la quantità di dati da analizzare sia molto elevata ed in questi casi viene generalmente preferito l’utilizzo di analisi di tipo Olap. La scelta di  disaccoppiare le sorgenti dati permette di gestire facilmente delle differenti granularità temporali dei dati operazionali e analitici, separando, appunto, il carico transazionale da quello analitico. Sono presenti in Bnl anche tools di Etl (sistemi che automatizzano i processi di estrazione, trasformazione e caricamento dei dati in un sistema di sintesi come il Data Warehouse) in grado di auto documentare le trasformazioni sui dati; tools di analisi e reporting in grado di soddisfare le esigenze del management in perfetta sintonia con i profili precedentemente descritti relativi alla piramide di Inmon.

Un cantiere sempre aperto
Soffermandosi sugli aspetti di realizzazione/implementazione del progetto di Business Intelligence, De Marinis precisa come, in realtà, non si possa parlare di un progetto specifico “in quanto le attività legate alla Business Intelligence sono più assimilabili ad un cantiere permanente sempre in movimento”.
Nelle fasi iniziali, tuttavia, “un punto di attenzione importante è stato rappresentato dalla convivenza, nello stesso ambiente tecnologico, di applicazioni differenti che generano dati e informazioni molto diversi, usate per scopi e finalità varie con livelli di servizio alquanto difformi (che rendono quindi più complesse le operazioni analitiche)”, ha evidenziato il manager di Bnl.
“Oggi esiste un disaccoppiamento applicativo tra alcuni sistemi operazionali e/o di sintesi garantito dal Data Warehouse (che, come si diceva, opera su più livelli e quindi recupera dati da più sorgenti distinte e consente analisi di tipo differente, indipendentemente dalle applicazioni e dai sistemi da cui provengono i dati; il tutto in un unico strato software, quello del Data Warehouse), con conseguente diminuzione delle interfacce “peer to peer” (cioe dell’utilizzo del peer-to-peer a livello di database, spesso sfruttata come tecnologia per amministrare vari database indipendenti, in vari peer-nodi, permettendone la comunicazione tramite la traduzione dei dati. In particolare il peer-to-peer database permette la manipolazione dei database e la propagazione delle modifiche attraverso la rete, effettuando inserimenti e cancellazioni di dati. Con tale sistema però potrebbero verificarsi delle inconsistenze nei dati). Questo ha comportato risparmi consistenti sull’utilizzo di mips z/os e un globale ulteriore aumento della qualità per l’assenza di ridondanze non controllate”, conclude De Marinis.

Nicoletta Boldrini

Giornalista

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 3