Big data, la nuova sfida

Sono diversi, veloci e variabili. Ma soprattutto sono tanti. Sono i ‘big data’, una massa di dati immensa per quantità e variegata per qualità con la quale il business e l’It si devono necessariamente misurare. Perché anche se ricavare informazioni utili è un compito difficile, che richiede ingenti risorse tecnologiche e preziose risorse umane, il valore che se ne può ricavare è tale da poter creare un differenziale competitivo determinante. Nella prossima settimana verrà pubblicato un approfondimento, anche attraverso un confronto con gli operatori dell’offerta, su come gestire e sfruttare le potenzialità dei big data.

Pubblicato il 28 Set 2011

cover-100

Che la conoscenza dia ricchezza e potere è cosa nota dall’alba dell’umanità. Ma ora pare che l’equazione “sapere-potere” stia incontrando i suoi limiti. Paradossalmente, perché i dati che generano informazioni e conoscenza, stanno diventando tanti e tali da risultare troppo difficili da trattare per trarne, appunto, le informazioni utili ad accrescere il nostro sapere e a gestire le nostre attività. È possibile, allora, che l’attuale civiltà dell’informazione sia destinata a soffocare sotto la massa di dati da essa stessa creata? No, non crediamo affatto che un tale apocalittico scenario, anche se paventato da qualche “guru” di grido, si potrà mai verificare. Per il semplice motivo che anche se ci fermiamo alle conoscenze che abbiamo, il business andrà avanti lo stesso. Però il problema dei “big data”, espressione che da qualche tempo è arrivata prepotentemente alla ribalta, resta. E bisogna che tutti, business e It, se ne prenda coscienza. Non tanto perché ciò costituisca, di per sé, una minaccia, quanto perché, se affrontato e superato, può costituire, al contrario, una grande opportunità.
Ma cosa intendiamo esattamente per “big data”? In estrema sintesi, è l’eccessiva quantità e diversità dei dati da trattare; in modo più proprio, come definito da McKinsey, che vi ha dedicato di recente uno studio approfondito, si parla di ‘big data’ in riferimento a insiemi di dati che superano le capacità di cattura, archiviazione, gestione e analisi dei tipici strumenti software di database. Si tratta, fa notare la stessa McKinsey, di una definizione intenzionalmente soggettiva e che incorpora un concetto di variabilità; nel senso che la peculiarità dei big data non deriva dal superamento di una certa dimensione in termini di terabyte ma dal superamento dei limiti della tecnologia disponibile, per cui con l’aumentare della capacità tecnologica s’innalza anche la soglia oltre la quale un insieme di dati diventa ‘big’. Il concetto di big data cambia quindi per ogni settore d’industria, con variazioni che vanno da poche decine di terabyte ai petabyte e più, a seconda delle dimensioni dei data set e della capacità degli strumenti It normalmente usati in quel settore. In altre parole: ogni Cio e It manager ha i suoi ‘big data’ con i quali doversi confrontare.

Una realtà a più dimensioni

Miliardi di dati su clienti, fornitori e operazioni di business sono trattati ogni giorno dai sistemi transazionali, che a loro volta producono una massa crescente di “exhaust data”, come vengono chiamati i dati generati come sottoprodotto delle attività di questi sistemi e che restano inutilizzati. Altri miliardi di dati provengono dai sensori incorporati e interconnessi negli oggetti, dalle macchine utensili ai contatori elettrici, che formano quella “internet delle cose” di cui tanto si parla. E una quantità sterminata di dati è infine creata dai miliardi d’individui che le reti sociali (e non solo) collegano in tutto il mondo e che tramite Pc e smartphone trasformano azioni, parole e pensieri in un oceano di dati che finiscono, e rimangono, nel serbatoio globale del Web.
Gartner stima la crescita del volume d’informazioni nel mondo almeno al 59% anno su anno. Ma, fa notare che anche se la crescita dei dati disponibili aggiunge ai problemi di data management e di storage un nuovo e pesante problema di analisi, il puro aumento in volume dei dati non basta a creare il fenomeno dei big data. Vi sono, oltre al volume, altre dimensioni da considerare, come illustra Forrester: la varietà dei formati, la variabilità dei significati e la velocità di flusso dei dati da trattare (figura 1).

Figura 1 – I Big Data si caratterizzano per la varietà dei formati, la variabilità dei significati e la velocità di flusso dei dati da trattare
(Cliccare sull'immagine per visualizzarla correttamente)

I big data comprendono infatti sia dati tradizionalmente strutturati nei formati gestiti dai vari tipi di Dbms, sia documenti, e-mail, dati di misura (dai sensori), immagini, pagine Web, file audio e video e altro ancora. Si tratta quasi sempre di dati in parte o in toto destrutturati (soprattutto testi e immagini provenienti dai social media) che possono avere significati variabili (il senso di una certa parola cambia in rapporto al contesto) e che quindi vanno in qualche modo manipolati per poter essere utilizzati dalle applicazioni analitiche oppure interpretati tramite opportuni software di analisi semantica in grado di estrarne delle informazioni. Quanto alla velocità, altra dimensione peculiare dei big data, si tratta sia della velocità con la quale i nuovi tipi di dati sono generati e affluiscono ai sistemi di analisi (si pensi ai video streaming o al flusso proveniente dai sensori sui macchinari), sia, di conseguenza, della velocità con la quale vanno analizzati per risultare utili. Non serve, per fare un esempio evidente, avere il tracciamento di una spedizione via Rfid se l’informazione arriva il giorno dopo.

Come si possono sfruttare

Vi sono parecchi modi tramite i quali i big data possono essere utilizzati per creare valore in molti settori dell’economia. Molte organizzazioni avanzate li stanno già usando e altre ne stanno esplorando le opportunità. Secondo Brian Hopkins, analista Forrester, tra i fattori che spingono i Cio a dedicarsi all’analisi dei big data oggi si segnalano soprattutto tre possibili utilizzazioni:

1) La cosiddetta ‘sentiment analysis’, ossia la comprensione dell’opinione degli utenti verso i propri prodotti/servizi tratta dall’analisi dei messaggi contenuti nei social network e nei sistemi tipo Twitter. Che si tratti di un concerto, di un paio di jeans o di un viaggio organizzato, la gente parla di ciò che vede, compra e fa; sapere ciò che pensa è di evidente utilità. Ma questi messaggi sono miliardi (24 miliardi al mese, per parlare solo di Twitter) e vanno analizzati subito, perché sapere ciò che si dice di un prodotto dopo mesi che se n’è parlato serve a poco.
2) La tracciatura dei beni in tempo reale: la tecnologia Rfid consente di rilevare il percorso di ogni singolo prodotto, dalla fabbrica all’utente, mentre questo avviene, ma produce una enorme quantità di dati. L’esame di questi big data fornisce però informazioni riguardo i movimenti delle merci e dei consumatori utili ad alimentare applicazioni di BI e analisi predittiva sulla dinamica degli acquisti e del mercato.
3) Lo sviluppo di macchine complesse. Un motore turbogetto produce 20 terabyte di dati per ogni ora di volo, ma anche un macchinario robotizzato e una comune automobile oggi contengono centinaia di sensori che forniscono informazioni sul suo funzionamento. Un controllo e un’analisi tempestiva di questa massa di dati permette ai tecnici di conoscere e studiare il comportamento di sistemi complessi e ai progettisti di migliorare la qualità dei prodotti prima che gli eventuali difetti divengano un problema per chi li usa.
Si tratta certamente di impieghi importanti per le industrie manifatturiere e commerciali, ma non sono i soli. In campo finanziario, per esempio, l’analisi in tempo reale di grandi volumi di dati eterogenei è alla base dei sistemi di riduzione del rischio e prevenzione delle frodi. In particolare l’analisi delle carte di credito, che viene effettuata nel brevissimo tempo che normalmente intercorre tra la richiesta di autorizzazione e l’Ok della banca e coinvolge dati di diverso tipo, rientra a pieno titolo nelle caratteristiche dei big data. E in un mondo dove la finanza pubblica è ovunque in difficoltà l’uso efficace dei big data da parte delle strutture governative, a partire dalla Sanità, ne potrebbe ridurre gli sprechi e potenziare il rendimento.

Grandi dati, grande valore…

Lo sfruttamento dei big data da parte delle organizzazioni industriali, commerciali e governative ci può portare sulla cresta di un’onda dall’enorme potenziale d’innovazione, produttività e crescita. E, ciò che più conta, l’accelerazione e la convergenza di una serie di tecnologie dell’informazione mostrano che un tale sfruttamento sta già in parte avvenendo. Secondo il già citato studio McKinsey, vi sono cinque modi attraverso i quali l’analisi dei big data può, potenzialmente, creare valore e influire su come le organizzazioni potranno essere concepite, organizzate e gestite.

Creando trasparenza. La semplice disponibilità dei big data da parte di chiunque vi sia interessato è già di per sé un fattore di crescita del valore. Nell’amministrazione pubblica rendere accessibili i dati rilevanti a tutte le funzioni interessate riduce tempi e costi di ricerca e analisi interna e migliora il servizio al cittadino. Nell’industria l’integrazione dei dati fra ricerca e sviluppo, progettazione e produzione riduce il time-to-market e migliora la qualità dei prodotti.
Migliorando le performance aziendali. Attraverso la creazione e l’analisi di tutti i dati disponibili, un’organizzazione può raccogliere informazioni dettagliate e in tempo quasi reale sugli elementi che contribuiscono alle prestazioni aziendali praticamente in ogni campo, dalla gestione della produzione a quella del personale. Di conseguenza, diventa possibile intervenire sui processi interni introducendovi variazioni a titolo sperimentale e analizzando il feed back derivante dalle modifiche introdotte. Ciò aiuta il management a migliorare i processi e innalzare il livello delle prestazioni.
Segmentando il mercato per azioni mirate. È un approccio largamente adottato nel marketing e nel risk management, ma anche le società di servizi e di beni di largo consumo che lo usano da anni stanno sviluppando tecnologie di analisi in tempo reale dei big data per creare micro-segmentazioni degli utenti ai quali proporre offerte, informazioni e promozioni molto personalizzate. Analoghe metodologie potrebbero inoltre essere applicate anche ad altri campi d’attività. Nella PA, per esempio, applicare una segmentazione demografica con servizi differenziati per poveri, anziani, lavoratori fuori sede, persone socialmente disagiate e così via, avrebbe effetti rivoluzionari.
Integrando o sostituendo i decisori umani con processi automatici. Esistono già soluzioni analitiche in grado di automatizzare molte decisioni operative, dalla concessione del credito alla gestione dei riordini, ma di solito operano su sottoinsiemi di dati selezionati (data mart) e considerati significativi. Analizzando il totale dei dati disponibili, compresi quelli apparentemente non collegati al problema, i processi decisionali, automatici e non, possono diventare molto più accurati e aderenti alle realtà dei fatti.
Introducendo nuovi prodotti, servizi e modelli di business. Esempi di questo modo di creare valore tramite l’analisi dei big data non mancano. In campo manifatturiero, ad esempio, l’insieme dei dati sull’uso dei propri prodotti e di quelli della concorrenza serve ai fabbricanti per progettare nuovi oggetti, migliorare quelli esistenti e proporre nuovi servizi post-vendita; nel campo dei servizi i dati sulla localizzazione geografica degli utenti (via cellulare o addirittura via Gps) hanno creato tutta una nuova offerta di servizi geo-localizzati.

…ma attenti alle risorse umane

Dell’effettiva percezione da parte delle imprese delle opportunità offerte dalla gestione e dall’analisi dei big data, nonché delle tecnologie e degli strumenti che permettono, in una qualche misura, di affrontare il problema, parleremo, con l’aiuto di esponenti dell’offerta, nell’articolo seguente. Qui però vogliamo fare un’osservazione che è insieme tecnologica e di metodo. Se si vogliono realmente sfruttare le opportunità che l’analisi dei big data possono offrire, occorre un approccio globale, che ridisegni l’architettura di data management dell’impresa. Come sostiene Mark Beyer, research Vp di Gartner, “Gli It manager devono ripensare il modo di approcciare i dati pianificandolo per tutte le dimensioni dell’information management. La richiesta da parte del business di poter accedere alle risorse dei big data dà all’It l’opportunità di cambiare il modo con cui l’impresa usa le informazioni, ma i responsabili It devono chiarire alle loro controparti le sfide che ciò comporta e la necessità di garantire un certo grado di controllo e coordinamento. Bisogna evitare che le opportunità dei big data diventino un ‘big data chaos’, con i relativi rischi di non conformità, di aumento dei costi e di creazione di nuovi silos informativi”.

Quest’analisi, che condividiamo perfettamente, comporta il problema di creare una nuova cultura dei dati e nuovi skill analitici e manageriali sia presso le aziende utenti (lato business e lato It), sia presso i loro partner tecnologici, fornitori o system integrator che siano. Capacità che non si creano da un giorno all’altro. Secondo McKinsey, nei soli Stati Uniti per poter sfruttare efficacemente le potenzialità dei big data nei processi decisionali occorrerebbero dalle 140 alle 190 mila persone dotate di profonde capacità analitiche e addirittura un milione e mezzo di analisti e data manager. Non abbiamo idea di quante persone del genere occorrerebbero in Italia, ma anche facendo le debite proporzioni riguardo alla popolazione e all’economia dei due Paesi si tratterebbe comunque di qualche decina di migliaia di risorse. Noi siamo sempre ottimisti, ma ci sembra un traguardo difficile da raggiungere anche avendo tempo. E di tempo ce n’è poco, perché mentre le persone si formano, i big data diventano sempre più ‘big’ e il gap competitivo tra chi ne sa profittare e chi no si allarga.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3