ACCEDI
User
Password
 
 LOGIN

Big Data

Come fare big data analysis e ottenere valore per le aziende

A cura della redazione
Cos’è un progetto di big data analisi? Come realizzarlo correttamente affinché siano garantiti i risultati? In questo servizio sono, inoltre, illustrati nel dettaglio quali tool di big data analytics utilizzare e quali competenze e risorse umane mettere in campo. ZeroUno delinea così una definizione di big data analytics, che facendo riferimento anche a opinioni di importanti società di analisi di mercato, risulta esaustiva; sono riportati, inoltre, suggerimenti operativi tratti da esempi di piani di big data management di successo

Indice degli argomenti


Come impostare un progetto di big data analytics

Impostare un progetto di analisi dei big data nella propria azienda significa affrontare molteplici aspetti, non ci si può naturalmente limitare a quelli tecnologici, è necessario valutare le esigenze di business a cui si vuole rispondere e porsi obiettivi precisi, coinvolgendo numerose competenze. Implementare una strategia di Big data analytics significa, infatti, avere la possibilità di trarre preziose informazioni per fare innovazione, ma bisogna saper partire con il piede giusto. In questo servizio, passo dopo passo, è indicato come realizzare un sistema completo di data management, che sia in grado di garantire valore alle organizzazioni.


A cosa servono i big data, e come utilizzarli correttamente attraverso l’analisi dei dati

Sembrerà ovvio, ma poiché sono proprio le cose ovvie quelle alle quali si pensa meno, la prima questione da chiarire è a quale finalità di business dovrà servire il progetto di analisi dei big data.

Se ciò non è chiaro da subito, il rischio, ed è un rischio elevato, è che il Cio e l’It vadano avanti per la loro strada realizzando una big data architecture che magari funziona benissimo, ma che poi non risulta allineata ai bisogni del business e dell’impresa.

Figura 1 - Casi di utilizzo di big data - Fonte: Forrester’s Global Business Technographics Data And Analytics Survey, 2015

I casi di utilizzo della data analysis, secondo quanto dichiarato a Forrester dalle aziende utenti, rientrano in tre gruppi:

  • Efficienza e rischi operativi. Gran parte dei progetti big data realizzati o pianificati a breve riguarda la riduzione del rischio nelle analisi finanziarie. Altri ambiti dove contano efficienza e risk reduction sono l’asset management (con una punta nell’analisi delle frodi), la gestione del personale e la supply chain, dove emergono le applicazioni per la manutenzione preventiva. Un approccio globale a questi problemi deve considerare la condivisione dei dati e lo scambio di idee con i business partner, nonché il tracciamento dei risultati avuti dalle azioni prese in seguito a dette analisi, in modo da avviare un ciclo virtuoso.
  • Sicurezza e performance applicative. Predictive analytics e analisi dei big data sul funzionamento dell’It servono a prevenire problemi nell’erogazione dei servizi e a monitorare gli eventi per potervi rispondere in tempo reale. I modelli d’analisi, che vanno discussi con i responsabili della sicurezza e delle applicazioni, si servono dei data-log generati da server e dispositivi di rete per valutare i livelli prestazionali, trovare i colli di bottiglia e quant’altro.
  • Conoscenza e servizio ai clienti. Soluzioni e servizi per la big data analysis sono utilizzati per progetti marketing e vendite, per lo sviluppo dei prodotti, ma anche per l’ottimizzazione della digital experience.


Big data analysis: quali sono le priorità di un data management di successo

Ill Data Management non può essere approcciato come in passato, quando le priorità si ‘riducevano’ ad una governance del dato a livello It e alla sua fruizione da parte di alcuni utenti ‘ristretti’. Oggi gli scenari sono cambiati ed una corretta strategia di Data Management, dovrebbe tenere conto di alcune importanti considerazioni:

  • le fonti di big data continuano ad evolvere e crescere: ‘ondate’ di nuovi dati continuano ad essere generate non solo dalle applicazioni aziendali interne, ma da risorse pubbliche (come per esempio il web e i social media), piattaforme mobile, data services e, sempre di più, da cose e sensori (Internet of Things). “La strategia di di un data analyst non può non tenere conto di questi aspetti, spesso ricondotti alle caratteristiche di volume, velocità e varietà dei Big data in continua crescita ed evoluzione”, scrivono i due analisti. “Per le aziende diventa fondamentale riuscire, secondo una logica di continuous improvement, a identificare le nuove fonti ed incorporarle nelle piattaforme di Data Management”;
  • catturare, gestire e archiviare tutti i dati aziendali per preservare storia e contesto: i dati depauperati del contesto servirebbero a poco, “sarebbe come entrare in un Museo pieno di reperti senza alcuna descrizione o indicazione della loro natura”, commentano ironicamente Gualtieri e Angel. “Non si riuscirebbe a capirne la provenienza, l’utilizzo, i benefici o addirittura la ‘legittimazione’, ossia la veridicità, rendendo così impossibile il loro utilizzo”. Nell’era dei Big data diventa quindi fondamentale riuscire a ‘catturare’ ed archiviare tutti i dati utili all’azienda e poiché la loro utilità spesso non è valutabile a priori, diventa una sfida riuscire ad averli tutti a disposizione. “Fino a qualche anno fa gli sforzi ed i costi per riuscire a catturare e mantenere tutti questi dati erano eccessivi,ma oggi tecnologie innovative e a basso costo come Apache Hadoop hanno reso possibile tale approccio”;     
  • analizzare scientificamente i dati per ‘arricchirli’ di significato utile e ‘non ovvio’: l’obiettivo non è generare report su ciò che è accaduto ma comprendere come questo possa aiutare a prendere decisioni migliori. Ciò significa cambiare il modello di data analysis dei dati optando per approcci cosiddetti ‘descrittivi’, ‘predittivi’, ‘prescrittivi’, ossia sfruttando analytics attraverso i quali generare ‘insights’, conoscenza utile ai processi decisionali (anticipando per esempio i bisogni del cliente conoscendone in real-time preferenze ed abitudini). Riuscire in questo obiettivo richiede nuove competenze, i data scientist in particolare i quali, utilizzando ‘machine learning algorithms’ e ‘advanced visualization tools’ possono generare informazioni utili e ‘non scontate’ a sostegno della competitività e redditività aziendali;
  • rilasciare dati velocemente e liberamente a tutti coloro che hanno necessità: può sembrare un’ovvietà ma sappiamo bene come la storia dell’It abbia dimostrato quanto l’approccio ‘a silos’ valga anche per i dati, spesso risiedenti in database non condivisi e difficili da integrare. Per superare tali barriere, sarà sempre più necessario dotare le piattaforma di Data Management di funzionalità innovative attraverso le quali poter rendere disponibili e accessibili i dati lungo tutti i livelli aziendali.


I modelli di analytics di riferimento e la loro diffusione nelle grandi e nelle piccole aziende italiane

L’analisi dei dati può condurre a diversi livelli di conoscenza correlati alla tipologia di modelli di analytics messi in campo. È possibile identificare quattro categorie principali:

  • Descriptive Analytics, l’insieme di strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali. Tali strumenti permettono di accedere ai dati secondo viste logiche flessibili e di visualizzare in modo sintetico e grafico i principali indicatori di prestazione;
  • Predictive Analytics, strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro; sono caratterizzati da tecniche matematiche quali regressione, forecasting, modelli predittivi, ecc;
  • Prescriptive Analytics, tool avanzati che, insieme all’analisi dei dati, sono capaci di proporre al decision maker soluzioni operative/strategiche sulla base delle analisi svolte;
  • Automated Analytics, capaci di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte.

Secondo i risultati dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, nelle grandi imprese (organizzazioni con più di 249 addetti) la diffusione di descriptive analytics è ormai un dato di fatto, presente nell’89% delle organizzazioni coinvolte, dove nel 82% dei casi l’utilizzo è ormai a regime almeno su alcuni ambiti applicativi. I predictive analytics risultano attualmente l’arena di maggior interesse, con una diffusione al 59%, sebbene ancora confinata ad alcuni ambiti applicativi (30%) o in fase di pilota (28%). Del restante 42%, ben il 37% ne sta però valutando l’utilizzo nei prossimi 12 mesi. Ancora molto indietro prescriptive e automated analytics, presenti rispettivamente nel 23% e nel 10% delle organizzazioni, perlopiù a livello di pilota.

Spostando l’attenzione sulle aziende Pmi, (organizzazioni con un numero di addetti compreso tra 10 e 249), lo scenario cambia drasticamente. La Ricerca è stata realizzata attraverso una rilevazione che ha coinvolto 800 Pmi, che sono state segmentate per dimensione aziendale (distinguendo tra piccole imprese - tra 10 e 49 addetti - e medie imprese - tra 50 e 249 addetti), macro-settore di industria e macro-regione territoriale.  La sensibilità all’utilizzo dei dati, rispetto alle grandi imprese dove tutte hanno in atto iniziative, si mostra molto più bassa: solo un’azienda su tre adotta modelli di descriptive analytics (34%), con percentuali più alte nelle organizzazioni di medie dimensioni (39%), rispetto a quelle piccole (33%). L’utilizzo di modelli di predictive è ancora limitato a poche organizzazioni (16%), mentre prescriptive e preemptive analytics sono ancora scarsamente conosciuti.

Secondo Carlo Vercellis, Responsabile scientifico dell’Osservatorio “le grandi imprese stanno finalmente comprendendo ‘cosa fare’ con i big data, passando a una fase molto concreta di sperimentazione e realizzazione di progetti, anche su ambiti di frontiera. L’attenzione del top management ha permesso di liberare risorse per l’innovazione guidata dai dati, che si esplicita in iniziative di ampio respiro, non più limitate a specifici processi aziendali”.

Limitandosi a considerare le Pmi che analizzano i dati almeno in logica descriptive, nel 18% dei casi le analisi vengono fatte con software generalisti (per esempio foglio elettronico) o demandando a strutture esterne all’organizzazione. Quattro Pmi su dieci (41%) hanno software di visualizzazione e analisi dei dati dedicati, che tuttavia sono solo parzialmente integrati con i sistemi informativi dell’impresa.  Nella restante parte dei casi (41%), esistono software avanzati, completamente integrati con i sistemi transazionali.


Tool per big data analytics e data mining: tre macro aree d’offerta

Figura 2: il percorso di trasformazione dei dati in previsioni - fonte: Forrester Research, 2015

Se l’impiego di predictive analytics nel business non è chiaro a tutti, il fatto che l’offerta tecnologica alimenti un mercato tanto vivace quanto in evoluzione non aiuta di certo chi abbia deciso di farne uso. Per fortuna, come capita spesso nei mercati emergenti, le varie interazioni tra utenti e fornitori portano a condensare le soluzioni in tre macro aree d’offerta, corrispondenti grosso modo a tre passi del processo che trasforma i dati in previsioni. Forrester ha elaborato il grafico di figura 2 per rappresentare il posizionamento di queste tre aree e dei relativi fornitori rispetto al livello di approccio analitico del vendor e alla maturità dei processi di big data marketing dell’azienda utente. Come si vede, esistono zone di sovrapposizione con soluzioni polivalenti la cui evoluzione funzionale va attentamente seguita, ma i criteri di tripartizione restano nel generale validi.

Possiamo quindi dividere gli strumenti oggi disponibili nelle seguenti classi:

  • Aggregatori – Raccolgono e organizzano i dati, sia aziendali sia soprattutto provenienti da fonti esterne, in modo che possano essere usati dagli utenti business per il loro lavoro. Molti fornitori vi aggiungono anche servizi di data management, pulizia e arricchimento. Queste soluzioni sono soprattutto necessarie per le aziende che vogliono entrare in mercati nuovi o sconosciuti, hanno dati interni ‘sporchi’ (ridondanti, equivoci, incerti…), o la cui struttura dati sulla clientela presenta aree scoperte.
  • Arricchitori – Potenziano e completano il monte-dati relativo alle attività di marketing e vendita con elementi di diversa fonte, principalmente feed e clickstream raccolti dal Web e dai social network. Molti strumenti pre-elaborano i dati per trarne informazioni mirate ai bisogni dell’azienda-utente e tendono ad entrare nel campo delle vere e proprie analisi. Questi tool vanno considerati da chi vuole affinare la segmentazione del mercato, fare marketing diretto con messaggi personalizzati e (nel business-to-business) interagire con specifici clienti.
  • Modellatori – Applicano ai dati algoritmi che ne evidenziano gli schemi e li confrontano a criteri di probabilità (le regole in base alle quali si stima che un evento possa accadere) in modo da poter costruire modelli di previsione. Il problema di queste soluzioni è che spesso sono realizzate da start-up la cui tecnologia (e le cui stessa sorte) può cambiare nel breve termine. Sono quindi adatte a società già abbastanza esperte nel marketing digitale che debbano colmare dei vuoti nel loro demand management.


I vantaggi dei big data analytics: come e perché predictive analytics e big data analysis possono aiutare il business

I benefici che l’analisi big data può dare sono parecchi. Ne ricordiamo i principali, citandoli in ordine di profittabilità per il business:

  • Aumentare il fatturato. A volte bastano i soli dati, se sono quelli giusti, sintetizzati in una semplice analisi quantitativa per far crescere una vendita, valutare la dimensione di un mercato, arricchire un profilo-cliente, calibrare la gestione di un account.
  • Rendere prevedibile lo sviluppo della domanda. Basarsi sul comportamento dei clienti come specchio della propensione all’acquisto è un rischio: chi mai può dire che faranno domani ciò che oggi fanno? L’analisi di big data estranei a ciò che riguarda la vendita dei brand e dei prodotti dell’azienda può invece rivelare intenti e interessi dei potenziali clienti non altrimenti evidenti e permette di valutare la ‘fitness’ dell’offerta, ossia il grado con cui si accoppiano le cose che sappiamo sul ciclo di vita del cliente con quelle che veniamo a scoprire.
  • Dare più valore all’account management. Analizzando le operazioni tra venditori e clienti e integrandole con informazioni su ciò che fanno i clienti al di fuori del rapporto di business (fusioni, acquisizioni, finanziamenti, assunzioni, questioni legali…) si può focalizzare la relazione B2B sui reciproci obiettivi, servendo meglio il cliente e aiutando gli account manager a ottimizzare il loro lavoro.
  • Prevedere ciò che è meglio fare per un qualsiasi cliente. Si tratta di applicare la predictive analytics all’account management. In pratica, si porta nel B2B ciò che fanno nel B2C le aziende di vendita diretta con le promozioni mirate. Analizzando la mole di dati interni ed esterni al rapporto di vendita ci si trova pronti a soddisfare una richiesta o meglio ancora a prevenirla con un’offerta adatta.
  • Aprire nuove opportunità di business. Se ne parla spesso riferendosi a nuovi prodotti o servizi che l’analisi dei big data suggerisce di fare. Ma il discorso vale anche, ed è un caso più frequente, per chi voglia allargare il mercato puntando su clienti relativamente nuovi. Caso tipico: l’azienda attiva sui grandi utenti che intenda rivolgersi alle piccole imprese e debba quindi studiare un diverso business model calibrato sulle Pmi.


Le competenze necessarie per gestire un progetto di big data e l’importanza del data scientist

All’interno di un’organizzazione molte funzioni di business possono avere interessi e bisogni comuni rispetto all’accesso e all’utilizzo dei dati, ma ciascun utente avrà comunque esigenze tipiche della propria funzione che lo contraddistinguono dagli altri. Ma tali utenti come possono sapere qual è il giusto interlocutore cui rivolgersi per avere supporto e garantirsi l’accesso ai dati necessari? Secondo gli analisti di Forrester solo l’It è in grado di fornire il supporto richiesto, ma non in autonomia. Per affrontare correttamente questa prima fase strategica, infatti, sarà necessario ‘assemblare’ dei working group di ‘data subject-matter experts’ lungo tutte le divisioni e funzioni di business dell’azienda, ossia stabilire dei team con competenze diversificate (prevalentemente competenze It inserite all’interno delle Lob) attraverso i quali identificare esigenze ed ownership all’interno dell’organizzazione.

In particolare, l’It dovrà mettere in campo le seguenti figure/competenze:

  • chief data officer, un leader di livello executive che interagisce con il top management e le Lob per identificare dove indirizzare gli investimenti e le strategie di Data governance rispetto alle aspettative e agli obiettivi di business;
  • data governance program leader, un esperto che guida il governo dei dati in funzione delle piani e delle policy stabilite; è colui che stabilisce i programmi e le regole della data governance;
  • business data steward, l’elemento che fa ‘da cuscinetto’ tra le esigenze degli utenti e le regole di data governance e gestione tecnologica; questo soggetto deve continuamente verificare le esigenze delle line of business, capire se ci sono opportunità di miglioramento a livello tecnologico e come eventualmente migliorare l’efficacia dei dati rispetto al loro utilizzo negli analytics e nei processi operativi;
  • enterprise/information architect, colui che ha la responsabilità di mantenere sotto controllo tutti gli aspetti relativi alla gestione di regole, procedure, tecnologie necessarie ad automatizzare il Data Management;
  • business data analyst, ossia l’analista in grado di interpretare i dati e stabilire quindi quali possono essere utili o meno al business.

E poi c’è il famoso data scientist.

Per indagare l’affermarsi di questa figura, l’Osservatorio del Politecnico di Milano ha condotto una rilevazione internazionale che ha coinvolto poco meno di 300 data scientist a livello globale. All’interno della survey, si sono studiate le aree di competenza distintiva per i data scientist. Le principali riguardano:

  • Knowledge Deployment: la capacità di creare interessanti rappresentazioni di dati (data visualization) e consentire quindi una miglior interpretazione dei dati stessi. Rappresenta inoltre la capacità di sviluppare messaggi che possano influenzare positivamente le azioni degli stakeholder chiave;
  • Technology: è la capacità di gestione di dati strutturati e non, la capacità di estrarre dati da fonti esterne tramite metodologie e tool specialistici e infine la capacità di manipolare e distribuire grandi quantità di dati;
  • Programming: riguarda la conoscenza informatica e programmazione;
  • Machine Learning/Analytics: la conoscenza di modelli e tecniche matematiche (analisi di apprendimento supervisionato e non supervisionato) e la conoscenza di tool e linguaggi in grado di effettuare analisi;
  • Business: conoscenza di aspetti di business (conoscenza di effetti di micro e macro-economia, processi funzionali come il marketing, finance produzione o distribuzione) e di industry.

Sulla base di questa classificazione, è stato sviluppato un modello di maturità dal quale emerge come i data scientist mostrino un livello avanzato di competenze in ambito di knowledge deployment (72% dei rispondenti), machine learning/analytics (62%). Più limitata la conoscenza negli ambiti technology (50%), business (47%) e programming (39%).

 

CLOUD COMPUTING

Iscriviti al club di Zerouno
Iscriviti al Club di ZerounoWeb