Disegni architetturali e organizzativi per diffondere informazione

La strada per dare all’informazione un ruolo centrale e insieme dominarne la complessità può passare per un suo consolidamento in una struttura logicamente unificata oppure per un suo decentramento presso gli utenti, con un sistema di controllo e governo che ne impedisca la dispersione. Si tratta di visioni diverse, ma non necessariamente conflittuali, anche perché in entrambi i casi tecnologie e processi devono viaggiare di pari passo sotto il controllo dell’It

Pubblicato il 07 Nov 2007

Quando si parla di gestione dell’informazione, sia con discorsi relativi ai livelli più bassi del processo, cioè alla raccolta, conservazione e disponibilità dei dati dai quali elaborare le informazioni, sia a quelli più alti, ovvero alle operazioni di sintesi, analisi ed interpretazione che portano dal dato all’informazione alla susseguente conoscenza, c’è una cosa su cui tutti sono d’accordo: non è la mancanza di dati che crea il problema. Al contrario, i dati sono tanti, sono troppi. Emc, un vendor di riferimento nel campo dell’information lifecycle management (Ilm), ha sponsorizzato uno studio, realizzato da Idc, sulla dimensione, composizione e crescita delle informazioni digitalizzate. Il “White paper”, pubblicato nel marzo di quest’anno con il titolo “The Expanding Digital Universe” fornisce un quadro per certi versi impressionante. Nel 2006 il totale dell’informazione digitale creata ex novo, catturata da fonti non digitali oppure replicata, viene valutato pari a 161 exabyte, cioè 161 miliardi di gigabyte. Nel 2010, con una crescita media annua del 57%, i gigabyte saranno 988 miliardi. Tre quarti di questi dati nasce dalla digitalizzazione di voce, musica, immagini e video e la loro gestione e conservazione riguarda solo le telecom e i content provider, ma anche il rimanente è un’enormità e cresce sempre più in fretta.
Nel 2006 i dati creati e/o duplicati in ambienti di lavoro erano il 25% dell’universo digitale; nel 2010 saranno il 30%, cioè oltre 290 dei 988 miliardi di Gb citati. Idc porta l’esempio di Wal Mart l’azienda che si stima abbia il più grande database del mondo, con milioni di operazioni registrate ogni giorno e i cui dati supportano le decisioni interne e quelle di migliaia di fornitori. Nel 2000 questi dati ammontavano a 110 terabyte, oggi superano i 1500.
Ma più dei dati creati dai sistemi transazionali, il cui volume cresce solo in funzione della crescita delle operazioni, cioè del business, e dei dati ad esse associati (informazioni sui clienti, sui prodotti, sui pagamenti e quant’altro, generate dalle applicazioni di Erp, Crm, sales support, risk management e così via), il motore dell’esplosione digitale sta nel crescente uso di Internet e dell’e-mail, cioè dei più diffusi mezzi di comunicazione e scambio d’informazioni non strutturate, e nella data replication che ne caratterizza l’uso. Mandiamo una mail con un file allegato a una decina di persone, cosa che sul lavoro si fa chissà quante volte al giorno, e se tutti aprono il file e ne fanno anche una sola copia ecco che messaggio e allegato vengono replicati almeno trenta volte: venti sui Pc dei destinatari e dieci sul mail server (che se non ha uno storage “intelligente” fa anche dieci copie di backup invece di una sola). Ma a parte lo spreco di risorse infrastrutturali (che è il problema che l’Ilm è chiamato appunto a risolvere) c’è il fatto che per quanto replicati e distribuiti in decine di copie, i contenuti di questi documenti sono in realtà, nove volte su dieci, registrati solo nella testa di chi li ha visti.

Decentramento, ma governato
Abbiamo parlato della dispersione dei dati non strutturati, che pure hanno spesso un valore informativo molto elevato (un banale memo interno con l’ok per uno sconto speciale ad un dato cliente è un testo che compendia l’elaborazione di molti dati provenienti da diverse fonti e vi aggiunge il capitale di conoscenza di chi ha deciso per il sì o per il no) perché è la punta dell’iceberg del problema. È la situazione dove il divario tra la quantità e complessità di informazioni e la qualità di conoscenza è maggiore e anche quella dove, diciamo pure, l’offerta tecnologica sta facendo più progressi.
Per la gran parte delle imprese il vero problema sta ancora a monte. Sta nell’estrarre conoscenza da una montagna di dati e informazioni distribuite un po’ dappertutto e gestite da processi diversi, non correlati e che è difficile consolidare. Sta nel fatto, per esemplificare, che in tante aziende i dati delle vendite non giungono alla produzione e al magazzino e viceversa se non tramite fogli Excel; sta in anagrafiche clienti duplicate e talvolta incoerenti, con indirizzi e nomi diversi; sta in informazioni che, sebbene digitali, restano nei Pc di chi le ha trovate o prodotte e non arrivano a chi potrebbe farne un buon uso e magari le sta cercando.
Una possibile risposta a questi problemi, che sono più di natura organizzativa e di processo che tecnologica, sta nel consolidamento di tutte le fonti d’informazione aziendali ed esterne ad essa secondo un modello di struttura infocentrica che è oggetto dell’articolo alle pagine seguenti. Non è detto però che non esistano altre strade.

FIGURA 1 – In search of clarity: ricerca condotta dall’Economist Intelligence Unit su 154 top manager per comprendere il reale apporto dell’It nei processi decisionali. Di seguito, i dati sulla frequenza di aggiornamento dei dati e il peso delle informazioni “storiche” sulle decisioni, fonte: The Economist Intelligence Unit 2007

Per Paolo Pasini, professore di Sistemi Informativi presso la Sda Bocconi, il passaggio verso una maggiore sofisticazione e soprattutto un maggiore utilizzo degli strumenti di analisi e intelligence delle informazioni non passa dalla centralizzazione: “Per quanto riguarda l’infrastruttura fisica (delegata ai sistemi di analisi e gestione dei dati – ndr) sono assolutamente d’accordo sul fatto che venga centralizzata su un server e una San per guadagnare, al pari di ciò che viene fatto per i sistemi transazionali, delle economie di scala. Dal punto di vista della logica è molto più premiante un decentramento governato”.Secondo questo concetto, si tratta di avere basi di dati partizionate e specializzate “dedicate quindi – ribadisce Pasini – alla singola business unit, al singolo processo, alla singola tipologia di problema”, che però vanno tenute insieme logicamente con quello che si può definire un “dizionario dati aziendale”, o, in altri termini, una mappa centrale dei dati disponibili nell’impresa, realizzabile lavorando con attenzione su tutte le procedure di replica e di allineamento dei dati. Non si tratta di un lavoro banale, ma secondo Pasini è più proponibile che non la realizzazione di un Enterprise Data warehouse che raccolga tutti i dati, di tutti i tipi, di cui si può disporre: “avviando un progetto la cui complessità è destinata a crescere nel corso stesso della sua realizzazione, sino a raggiungere livelli tali da non potersi praticamente gestire”. Conviene invece realizzare applicazioni che, accedendo a basi dati dedicate, risolvano specifici problemi. Per fare un esempio classico, si può creare un sistema capace di gestire una condivisione e scambio d’informazioni ed analisi che consenta al marketing e alla produzione di essere allineati sugli obiettivi di business, modificando i prodotti sulle richieste del mercato o, viceversa, trovando il mercato adatto a sfruttare innovazioni di prodotto.

FIGURA 2 – L’indagine dell’Economist Intelligence Unit svela quali sono

le metriche utilizzate per prendere le decisioni in azienda e le aree che potrebbero maggiormente beneficiare dell’aiuto tecnologico, fonte: The Economist Intelligence Unit 2007

Una visione sostenuta dall’offerta
Va detto, a questo punto, che la tendenza evolutiva delle applicazioni analitiche è coerente con questa visione di decentramento governato. Si assiste infatti allo sviluppo, da parte dei maggiori vendor, di piattaforme di “corporate intelligence” sulle quali si innestano soluzioni verticalizzate per industry e per specifici problemi (come quello, appunto, di avere una produzione on demand) e che in molti casi forniscono anche strumenti per il ridisegno dei processi operativi correlati. Queste applicazioni si servono di data mart contenenti, a seconda dei casi, dati di produzione, di vendita, di analisi costi e quant’altro. I data mart sono alimentati da strumenti di Etl (Extraction, Transform and Load) forniti dalla piattaforma sottostante che ne garantiscono la qualità e consistenza, in modo da avere la necessaria “visione unica” della realtà, ma sono “visti” dalle applicazioni come basi dati dedicate. Questa architettura offre il vantaggio di risultare più adeguata ad un approccio graduale al concetto di centralità dell’informazione e consente anche una riduzione della complessità tecnica e progettuale di sistemi che, osserva Pasini, hanno ancora dei costi d’ingresso abbastanza elevati. Offre il vantaggio di portare l’informazione giusta alla persona giusta in quanto più vicina, come logica, ai suoi problemi e, in una parola: “è la più adatta a portare a casa dei risultati, che è quello di cui le imprese, soprattutto italiane, hanno più bisogno”.
Naturalmente, perché le informazioni siano decentrate ma non disperse occorre che se ne abbia traccia, che se ne costruisca una mappa. “Costruire un dizionario dati, un portafoglio di applicazioni analitiche che si possa governare, un sistema di decentramento delle responsabilità delle applicazioni presso le unità utenti, sono tutti modi – prosegue Pasini – per tenere insieme il patrimonio informativo. E si realizzano con strumenti di It governance che prevedono anche interventi organizzativi. Quindi: decentrare per portare applicazioni e dati a chi ha il problema di decidere, ma all’interno di un framework di governo”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2