Il futuro del data warehousing

Procedure ad hoc incapsulate all’interno di  normali applicazioni di business. Questo il futuro delle attività di BI prospettate da Feinberg (nella foto), analista di Gartner. Le elaborazioni di eventi in tempo reale diventeranno la norma nei prossimi anni e il datawarehouse dovrà essere rimodellato, non solo potenziato, per rispondere alle richieste di centinaia di utenti

Pubblicato il 13 Feb 2008

donaldfeinberg_70

Fece molto scalpore Donald Feinberg (nella foto), vice president e distinguished analyst di

Gartner, quando al Gartner Symposium ITxpo di Orlando dell’ottobre 2005, in un intervento intitolato “The Death of the Database”, affermò che gli Rdbms (Relational Data Base Management System), come li conosciamo oggi, sono destinati a diventare un ricordo del passato.Fece scalpore anche perchè non molti si erano resi conto che si trattava di una delle rare occasioni in cui a un analista di Gartner era stato consentito di guardare oltre i canonici cinque anni che caratterizzano solitamente le sue previsioni, mentre in quella circostanza il periodo di tempo considerato si estendeva sull’arco di un intero ventennio.
Alla base comunque dell’analisi di Feinberg vi era la constatazione che i continui progressi delle tecnologie di trasmissione dei dati e in particolare di quelle wireless, la diffusione dei sistemi di identificazione a radiofrequenza (Rfid) e il numero sempre crescente di applicazioni di business a disposizione delle aziende, avrebbero dato origine a ingenti accumuli di dati e di informazioni tra loro correlate, che sarebbero state utilizzate in modi completamente diversi rispetto al passato, facendo ad esempio sempre più frequente ricorso a modalità elaborative e a servizi in tempo reale.
Sviluppi questi che avrebbero resa irrilevante la persistenza fisica dei dati, richiesta solo per la durata delle transazioni in cui verrebbero direttamente coinvolti, prima di essere trasferiti in un data warehouse. In effetti, disponendo di servizi capaci di comunicare fra loro in modo istantaneo, e sfruttando modelli di dati di tipo ‘federato’, le applicazioni, salvo in casi del tutto particolari, non avrebbero avuto più bisogno di data base dedicati.
In definitiva, secondo Feinberg, era ormai iniziata la trasformazione del ruolo del data base da strumento per il “tracking” delle applicazioni e dei processi di business, a infrastruttura per il coordinamento del flusso dei dati e delle informazioni provenienti dalle diverse possibili fonti. Una trasformazione che avrebbe determinato un progressivo mutamento anche del ruolo del data warehouse, il quale sarebbe stato direttamente interessato non solo nelle tradizionali applicazioni Olap (On Line Analytical Processing) ma anche in quelle Oltp (On Line Transaction Processing), con notevoli cambiamenti non solo delle sue funzioni ma anche dei carichi di lavoro cui verrebbe ad essere così sottoposto.
Questi temi sono stati ripresi lo scorso ottobre, sempre da Donald Feinberg, nel corso di un seguitissimo intervento – segno evidente non solo del loro interesse ma anche dell’autorevolezza dell’analista – intitolato “Future Trends in Data Warehousing and Business Intelligence”, tenuto a Las Vegas in occasione della User Group Conference 2007 di Teradata.
“Per le attività di business intelligence e di supporto alle decisioni – sostiene Feinberg – i dati storici, combinati con quelli acquisiti fino all’ultimo minuto, saranno sempre più spesso utilizzati da procedure ad hoc incapsulate all’interno delle normali applicazioni di business. E queste elaborazioni di eventi in tempo reale diventeranno la norma nei prossimi anni”.
L’altra trasformazione in atto – quella che Feinberg chiama “pervasive business intelligence” – si manifesterà in modo più evidente “quando nelle aziende i data warehouse non si limiteranno più a supportare la produzione di qualche decina di report al giorno per soddisfare le esigenze di una dozzina di analisti, ma ne dovranno generare decine se non centinaia di migliaia, per far fronte alle richieste di centinaia se non migliaia di possibili utilizzatori, perché tanti diventeranno appena le aziende consentiranno l’accesso ai data warehouse anche ai loro partner, ai loro fornitori e ai loro clienti”.
Ma quando al workload di tipo Olap si sommeranno i carichi derivanti non solo dalle applicazioni di business intelligence incapsulate nelle transazioni Oltp, ma anche dall’aumentata frequenza dei loro aggiornamenti, gli attuali data warehouse, anche quelli progettati di recente senza tuttavia considerare questa evoluzione del loro impiego, non saranno in grado di far fronte all’impegno richiesto e dovranno essere necessariamente ridisegnati. Non si tratterà infatti solo di iniettare nel sistema ulteriore potenza elaborativa, ma di rivedere la “modellizzazione” dei data warehouse impiegati e ottimizzarla rispetto ai nuovi workload.
“In sostanza – osserva Feinberg – un “active enterprise data warehouse”, come viene chiamato dai nostri ospiti di Teradata, capace di supportare al tempo stesso attività di “intelligence” sia strategica che operativa, richiede, contrariamente a quanto si pensa in molte aziende, una tecnologia completamente diversa da quella utilizzata quando i database relazionali elaborano solo transazioni. E questo anche perchè nel suo nuovo ruolo il data warehouse diventerà, magari in modo indiretto, sempre più mission critical”.
“Entro i prossimi due anni – prevede Feinberg – nel 90% delle 2000 maggiori aziende del mondo (le cosiddette Global 2000) girerà infatti almeno un’applicazione di business mission critical dipendente in modo stretto da un data warehouse, il quale, se non sarà stato progettato tenendo presenti questi aspetti, è destinato inevitabilmente a diventare un elemento critico del sistema informativo in cui verrà inserito”.
La complessità dei problemi da affrontare, oltre al fatto che il costo delle tradizionali piattaforme per il data warehousing fosse alla portata quasi solo delle Global 2000, ha spinto alcuni vendor a considerare nuovi approcci che consentissero anche alle aziende appartenenti alla fascia medio-alta del mercato – e magari anche alla media – di porre le basi per lo sviluppo di quegli “active enterprise data warehouse” e quella “pervasive business intelligence” verso cui si stanno muovendo le infrastrutture informatiche che costituiranno il nucleo essenziale dell’It.
Di qui la genesi delle cosiddette “data warehouse appliances” (Dwa) di cui Teradata – che tuttavia non ama troppo riconoscerlo – può essere considerata la madre putativa. La sua linea di prodotti possiede infatti tutte le caratteristiche necessarie alla loro realizzazione. Le Dwa sono infatti combinazioni di hardware e software pre-configurate e pre-testate capaci di supportare le più avanzate applicazioni di data warehousing, ed essere al tempo stesso compatibili con le infrastrutture esistenti presso chi intende utilizzarle. In sostanza delle scatole nere, semplici da installare, da rendere operative e da gestire, che riducono al massimo i problemi di integrazione e di amministrazione, consentendo di inserirle nelle It aziendali con il minimo rischio. E questo con un investimento iniziale, e un successivo Tco (Total Cost of Ownership), pari alla metà o a un terzo di quelli che caratterizzano gli approcci più tradizionali. Le Dwa possono infatti essere costruite utilizzando anche componenti non proprietarie – piattaforme hardware, sistemi di storage, soluzioni di rete, Os e Dbms open source – scelti tra quelli disponibili sul mercato.

Figura 1: Magic Quadrant di Gartner relativo ai sistemi di Data Warehouse Database Management (fonte: Gartner, settembre 2007)

(clicca sull’immagine per ingrandirla)

Ed è proprio questo che fa la maggior parte dei loro vendor, che si tratti di grandi nomi dell’It, come Ibm, Microsoft, Oracle, Teradata, o di piccoli ma agguerriti player specializzati le cui Dwa sono il risultato di partnership strette con altri noti vendor, come GreenPlum che si avvale di tecnologie Sun, DatAllegro che si è alleata con Bull, Dell, ed Emc, e infine Netezza – presente in Italia attraverso un proprio distributore – che tra i suoi partner annovera Sas.
E per quanto riguarda le loro prestazioni, l’impiego di particolari tecniche di gestione ‘intelligente’ dei flussi dei dati e dei carichi di lavoro – come la capacità di operare senza scrivere indici o la parallelizzazione spinta delle query, oltre all’elevata scalabilità – fanno prevedere che le Dwa riusciranno a raggiungere, nel giro di due o tre anni, performance almeno cinque volte superiori rispetto a quelle dei data warehouse attuali, per cui saranno in grado di affrontare in modo efficace le problematiche dei carichi di lavoro misti, che costituiscono l’aspetto più critico del data warehousing del futuro, aprendo così la strada a quelle che saranno le prossime evoluzioni della Businnes Intelligence e del Performance Management, ovvero l’Edm (Enterprise Decision Management) e la Bi 2.0.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati