Economy e intelligence, le due facce dei Big Data | ZeroUno

Economy e intelligence, le due facce dei Big Data

pittogramma Zerouno

Economy e intelligence, le due facce dei Big Data

La capacità di gestire la ricchezza informativa che i Big Data portano in volume e contenuti è fondamentale per guidare le decisioni dell’impresa e accrescerne la competitività. Vediamo come sta evolvendo uno scenario che sulla conoscenza estraibile dalla sintesi tra le nuove e le classiche fonti di dati sta costruendo una nuova economia e i punti che i responsabili del business e dell’It devono risolvere per trarne profitto

04 Apr 2012

di Giampiero Carli Ballola

Il fenomeno dei Big data infatti sempre più l’economia e la gestione d’impresa. Perché se l’It deve servire il business, avere un’idea di dove il business potrà andare (o sta già andando) aiuterà a servirlo meglio. E soprattutto aiuterà chi dell’It è responsabile ad avere quel ruolo propositivo di cui tanto si parla perché il Cio diventi una figura-chiave dell’impresa.

Per cominciare, bisogna chiarire che per quanto sia comoda da usare, l’espressione ‘Big data’ è in realtà un concetto ‘ombrello’ che copre un insieme di fenomeni diversi che riguardano l’universo-dati con i quali ci troviamo a doverci confrontare. Riprendendo la definizione di McKinsey (tra le prime società a formalizzare il concetto), si può parlare in modo proprio di Big data solo se si considerano insiemi di dati che superano le capacità di cattura, archiviazione, gestione e analisi degli strumenti software. È un concetto variabile (se cresce la capacità degli strumenti cresce anche la soglia oltre la quale i dati diventano ‘big’) e soggettivo, cambiando a seconda dei data set e degli strumenti relativi alla singola realtà dell’impresa e dell’ It, ma descrive un problema che è, in ultima analisi, di tecnologia.

L’universo della Data Economy

Sovente però parlando di big data ci si riferisce a una situazione più ampia, che riguarda anche l’impatto dei dati sull’organizzazione e sulla stessa strategia dell’impresa e dove la soluzione tecnologica è solo il primo, per quanto imprescindibile, passo da compiere. Gartner ha recentemente pubblicato uno studio (Bigger than Big Data: How to Win in the Data Economy, novembre 2011) che disegna quella che definisce la nuova ‘Data Economy’. In questa visione il concetto-chiave del dato, che ne esprime anche il valore economico, è la sua condivisibilità, intesa come espressione del numero di persone per le quali il dato ha un valore-interesse significativo. In tale ottica, l’universo-dati si può considerare sotto quattro dimensioni, tutte e quattro in forte crescita: volume, contesti, relazioni e fonti. Abbiamo quindi: dati sempre più ricchi e numerosi (big data), più contestualizzati (linked data), più correlati ad eventi e persone (social data) e provenienti da più fonti liberamente accessibili (open data). Qualora, ed è qui che entrano in gioco tecnologia e organizzazione, siano abbattute le barriere all’interoperabilità all’interno dell’impresa di tutti i dati potenzialmente disponibili, quali che siano le fonti, queste quattro dimensioni contribuiscono nell’insieme ad arricchire i significati portati dai dati a tutti gli interessati (gli stakeholder), innalzandone il valore complessivo. E non sono valori da poco.

NEWSLETTER
Cloud, Software e molto altro. Non perdere le notizie più rilevanti della Newsletter di ZeroUno
CIO
CRM

Ancora McKinsey ha condotto un ponderoso studio (Big data: The next frontier for innovation, competition and productivity, giugno 2011) sul valore aggiunto dato dai big data (continueremo a chiamarli così per comodità, ma senza scordare di cosa realmente si tratti) dove è stato esaminato il potenziale economico derivante dall’uso che se ne può fare in vari settori d’attività. Considerando esclusivamente quelle azioni dove sfruttare i big data si rivela necessario, ancorché non sufficiente, per raggiungere determinati obiettivi (ad esempio, escludendo la maggiore produttività data dalla pura automazione) si sono studiati in profondità cinque vasti domini: negli Usa il sistema sanitario e il settore retail; in Europa la pubblica amministrazione e nel mondo l’industria manifatturiera e quella delle informazioni personali localizzate (come le applicazioni per smartphone che guidano gli utenti ai negozi nelle vicinanze). I risultati sono eclatanti. McKinsey stima in 300 miliardi di dollari per anno il valore potenzialmente generabile dai big data nella sanità Usa e in 250 miliardi quello nella Pa in Europa, mentre il fatturato dei provider di servizi di personal location dovrebbe superare i 100 miliardi di dollari. Impossibile monetizzare il guadagno negli altri due settori, per cui si parla di altri valori: nel manufacturing si accorcerebbero del 50% i tempi di sviluppo dei prodotti e si ridurrebbe del 7% il capitale impiegato, mentre nel retail (mercato Usa) sarebbe possibile un aumento anche del 60% dei profitti. Un’interessante analisi (vedi figura 1) mostra, sulla proiezione dei trend di crescita nel periodo 2000-2008 e sulla dimensione del business in rapporto al Pil degli Stati Uniti, l’opportunità di maggior guadagno percentuale che l’uso dei big data potrebbe dare ai diversi settori d’industria.


Opportunità di guadagno derivante dall'uso dei Big Data

Figura 1 – Opportunità di guadagno derivante dall’uso dei big data

Un big business per l’Ict

Ma siccome, come si è detto, per avere tali risultati la tecnologia è un passaggio obbligato, i big data sono un mercato miliardario anche per l’Ict. Secondo Idc, che un mese fa ha rilasciato il suo primo studio sulle tecnologie e i servizi legati a quest’area (Worldwide Big Data Technology and Services 2012-2015 Forecast, marzo 2012), il valore complessivo del settore dovrebbe passare dai 3,2 miliardi di dollari del 2010 ai 17 stimati per il 2015. Un tasso di crescita del 40% annuo (pari, fa notare Idc, a sette volte quello medio del mercato Ict), spinto da una domanda che si sta rapidamente estendendo dalle Tlc e pochi altri settori per diventare tendenza generale. La risposta alle richieste degli utenti viene sia dai grandi vendor in area data management e piattaforme analitiche, che stanno potenziando in chiave big data le rispettive soluzioni tramite sviluppo interno o acquisizioni mirate, sia da numerosi fornitori di tecnologie specializzate che si presentano sul mercato. Ancora Idc stima che su queste start-up i venture capitalist abbiano già investito (puntando o sul loro sviluppo o sulla loro acquisizione) più di 500 milioni di dollari.

Ma big data non significa solo software di data management e analisi. C’è anche l’effetto sulle piattaforme infrastrutturali, perché da qualche parte i dati bisogna pure tenerli e qualche macchina li deve elaborare. Ancora secondo Idc, quindi, alla citata crescita del 40% annuo del mercato totale la componente software concorre con un tasso del 34%, mentre il contributo del server è del 27% e quello dello storage è ben del 61%. La netta differenza tra queste ultime due percentuali (che, ricordiamo, non sono quote-parte ma tassi di crescita dei rispettivi mercati, per cui non si sommano tra loro) è dovuta al fatto, a nostro parere, che il rapporto prezzo/prestazioni dei server scenderà più sensibilmente di quello dello storage. Infatti mentre le prestazioni dei dischi sono al limite (e gli SSD sono ancora cari), grazie alle Cpu multicore, la legge di Moore continua a valere per i processori.

C’è infine da aggiungere, sempre a nostro parere, che i big data viaggiano nel cloud e in azienda, per cui interessano anche il business delle infrastrutture di rete, sia cablate sia wireless. Il network è oggi la struttura portante dei data center delle aziende e ancor più dei service provider. Per reggere all’impatto dei big data occorreranno nuovi dispositivi, che stanno già sostituendo switch e router di una generazione ‘vecchia’ di pochi anni.

Solo una cosa può frenare il business dei big data: la carenza presso gli utenti di risorse umane capaci di gestire le tecnologie correlate e di sfruttare il potenziale informativo dei big data con nuovi metodi e strumenti di analisi. Già Gartner e McKinsey, e ora anche Idc, vedono la scarsità di skill adeguati come probabile freno ai progetti sui big data. C’è però da aggiungere che la questione ha un lato positivo, almeno per il business Ict e cioè che apre spazi di mercato per una nuova offerta di soluzioni per i big data fornite come servizio cloud.

Digital Intelligence per la Digital Economy

I big data, in quanto tali, sarebbero solo un grosso problema se non offrissero il mezzo di guadagnare una nuova conoscenza dei consumatori, del mercato e soprattutto delle interazioni, o feedback, che queste entità hanno con le attività del business. Ciò che distingue il fenomeno big data dall’information overflow, o ‘data blob’ di una decina d’anni fa è che assieme ai dati stanno crescendo anche gli strumenti di analisi. Tutto quello che abbiamo detto sui vantaggi della digital economy passa quindi necessariamente da un’estensione tale delle capacità e dei livelli di analisi da porre le basi, per il salto in qualità e quantità che ne deriva, a quella che Forrester chiama la Digital Intelligence (DI), in quanto non limitata al Web e tanto meno al mondo transazionale, ma estesa all’intero universo digitale.

In un recentissimo studio (Welcome to the E of Digital Intelligence, febbraio 2012) indirizzato agli esperti aziendali di customer intelligence, Forrester propone una ‘DI Architecture’ che sistematizza i passi del processo che dalle fonti dei dati porta alle decisioni di business. Il modello (vedi figura 2) ci servirà da traccia per cercare di sistematizzare a nostra volta i requisiti, e quindi i punti critici, che vanno considerati nello studiare e implementare una strategia per l’intelligence, e quindi per l’economia, digitale.

20120403ossSybase graf2 non ridim

Figura 2 – DI Architecture di Forrester: modello per delineare una strategia per l’intelligence e per l’economia digitale.

Input esterno. È l’universo dei dati possibili. Alle fonti elencate da Forrester, che sono orientate più che altro all’uso per il marketing strategico, altre se ne possono aggiungere, come ad esempio i dati forniti dai tag Rfid e dai sensori della ‘internet of things’. Il punto, evidentemente, è uno solo: decidere quali servono davvero, una scelta che, comportando intuibili riflessi sui costi e tempi di tutte le fasi successive, il Cio deve prendere di concerto con il business ai massimi livelli raggiungibili. La prima cosa da fare è quindi informare il top management, Cfo compreso, del valore potenziale che nuovi tipi di dati possono avere per l’impresa, in modo da promuovere una serie di incontri volti a decidere quali gap informativi vi siano e quindi quali sfruttare e quali no.

Input interno. Sono i dati del business, quelli che dovrebbero essere già usati dai sistemi di BI. Qui si tratta di verificare prima di tutto se e in quale misura si possano integrare con le fonti esterne selezionate dal passo precedente per condurre analisi incrociate. Il secondo punto è verificare se e in quale misura siano o possano essere distribuiti, acceduti e condivisi all’interno dell’impresa. Si tratta di due problemi, entrambi tecnologici e di architettura dati, che il Cio può e deve risolvere in autonomia, con l’aiuto dei fornitori dei Dbms e delle applicazioni business. Il top management va però ascoltato se certi nuovi dati ritenuti utili dal business presentano tali differenze con i dati aziendali (come capita con le applicazioni legacy) da non poter essere integrati.

A questi due punti se ne aggiunge un terzo di carattere organizzativo, ed è la verifica se vi siano motivi che limitino o impediscano la distribuzione l’accesso e la condivisione di certi dati da parte degli utenti (come può essere per informazioni finanziarie o progetti di nuovi prodotti). Questo problema va demandato al top management e va risolto subito perché coinvolge il passo succcessivo.

Data processing. Dalle scelte prese nei punti precedenti (integrazione, distribuzione e condivisione dei dati esterni e interni) deriva la scelta dei tool di Etl e di data integration. Senza entrare nel merito dell’offerta (di cui si parla negli articoli successivi) va detto che è a questo livello che vanno affrontati due nodi fondamentali: qualità e sicurezza dei dati. Sulla prima non c’è nulla da aggiungere a quanto già si è detto e scritto tante volte a proposito della BI: se la qualità dei dati non è garantita e certificata (almeno nell’input interno) dal tracciamento delle operazioni, nessun progetto né di BI né tanto meno di DI può funzionare. Sulla sicurezza il discorso è più ampio.

Oltre agli aspetti tecnologici della protezione dei dati interni e della gestione di accessi e identità, che i Cio già conoscono, l’uso di dati esterni provenienti da fonti accessibili e correlati ad altri dati e a specifici eventi e persone (social data e simili) crea problemi legali e di compliance del tutto nuovi. Chi ha la ‘proprietà’ del dato? Chi decide se l’uso che se ne fa in azienda è ‘corretto’ o no? Chi è responsabile se succede un problema? Sono domande che non hanno risposte univoche, ma che ci si deve porre.

Data warehousing. Si tratta del nodo sul quale convergono tutti i problemi e dal quale dipartono tutte le soluzioni. Ma è anche quello sul quale non vi sono punti di discussione. Due sono le prerogative che il nuovo DIDW, evoluzione e stretto parente dell’EDW, deve avere: essere ‘data agnostico’ cioè poter trattare dati di diversi formati e strutture, e poterlo fare su grandi volumi di dati. Si tratta di problemi tecnologici sui quali i vendor It stanno lavorando con vari approcci e soluzioni che danno corpo a un’offerta in piena evoluzione alla quale dedichiamo una serie di articoli. Una sola raccomandazione: indagare bene l’interazione tra le tecnologie di DW e quelle di analisi, dato che diversi approcci architetturali possono ampliarne o limitarne le prestazioni.

Analytics. Con la scelta delle applicazioni analitiche si torna al punto di partenza. Nel senso che, come per la scelta delle fonti dati, l’It deve lavorare con i responsabili del business per decidere. Lo schema Forrester elenca le analisi che riguardano clienti e mercato, ma quelle possibili sono molte di più. Tutte le funzioni aziendali vi sono interessate: marketing e pubblicità, financial, design dei prodotti, produzione, distribuzione, logistica e altro ancora. Il punto critico è proprio, paradossalmente, la quantità di Kpi che si possono costruire e la difficoltà di trovare quelli realmente significativi.

Come si è scritto sei mesi fa, la scarsità di analisti capaci e dotati degli skill necessari acutizza il problema, che non si può ribaltare sul solo Cio. I grandi vendor di piattaforme analitiche coprono questo gap (che per loro è anche un’opportunità di mercato) con soluzioni calibrate sui vari settori d’impresa ma adattabili alla singola realtà oppure, a livelli più semplici di analisi, con servizi cloud.

Giampiero Carli Ballola

Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5