Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Come fare big data analysis e ottenere valore per le aziende

pittogramma Zerouno

Guida

Come fare big data analysis e ottenere valore per le aziende

19 Dic 2017

di Redazione

Cos’è un progetto di big data analysis? Come realizzarlo affinché siano garantiti i risultati?
In questo servizio sono illustrati nel dettaglio quali tool di big data analytics utilizzare e quali competenze e risorse umane mettere in campo per le gestione dei dati. ZeroUno delinea così una definizione di big data analytics, che facendo riferimento anche a opinioni di importanti società di analisi di mercato, risulta esaustiva; identificando, tra l’altro, le quattro categorie principali di analytics: descriptive, predictive, prescriptive e automated analytics. Sono riportati, inoltre, gli ultimi dati di mercato relativi alla crescita, a doppia cifra,
del mercato big data analytics in Italia

Come impostare un progetto di big data analytics

Impostare un progetto di analisi e gestione dei big data nella propria azienda significa affrontare molteplici aspetti, non ci si può naturalmente limitare a quelli tecnologici, è necessario valutare le esigenze di business a cui si vuole rispondere e porsi obiettivi precisi, coinvolgendo numerose competenze. Definire e implementare una strategia di Big data analytics significa, infatti, avere la possibilità di trarre preziose informazioni per fare innovazione, basti pensare al digital analysis marketing, ma bisogna saper partire con il piede giusto. In questo servizio, passo dopo passo, è indicato come realizzare un sistema completo di data management, che sia in grado di garantire valore alle organizzazioni.

Il vero significato dei big data e come utilizzarli correttamente attraverso l’analisi dei dati

Sembrerà ovvio, ma poiché sono proprio le cose ovvie quelle alle quali si pensa meno, la prima questione da stabilire (fermo restando che una sintetica definizione di Big data riguarda tutte quelle informazioni interne alle aziende ma anche provenienti da molteplici fonti – social network, IoT e quant’altro – che vanno a formare un patrimonio talemente grande da rendersi necessario l’utilizzo di tecnologie e strumenti per poterlo sfruttare) è a quale finalità di business dovrà servire il progetto di analisi dei big data.

Se ciò non è chiaro da subito, il rischio, ed è un rischio elevato, è che il Cio e l’It vadano avanti per la loro strada realizzando una big data architecture che magari funziona benissimo, ma che poi non risulta allineata ai bisogni del business e dell’impresa.

Figura 1 – Casi di utilizzo di big data – Fonte: Forrester’s Global Business Technographics Data And Analytics Survey, 2015

I casi di utilizzo della big data analysis, secondo quanto dichiarato a Forrester dalle aziende utenti, rientrano in tre gruppi:

  • Efficienza e rischi operativi. Gran parte degli esempi di big data analytics realizzati o pianificati per esserlo a breve riguarda la riduzione del rischio nelle analisi finanziarie. Altri ambiti dove contano efficienza e risk reduction sono l’asset management (con una punta nell’analisi delle frodi), la gestione del personale e la supply chain, dove emergono le applicazioni big data per la manutenzione preventiva. Un approccio globale a questi problemi deve considerare la condivisione dei dati e lo scambio di idee con i business partner, nonché il tracciamento dei risultati avuti dalle azioni prese in seguito a dette analisi, in modo da avviare un ciclo virtuoso.
  • Sicurezza e performance applicative. Predictive analytics e analisi dei big data sul funzionamento dell’It servono a prevenire problemi nell’erogazione dei servizi e a monitorare gli eventi per potervi rispondere in tempo reale. I modelli d’analisi, che vanno discussi con i responsabili della sicurezza e dei servizi, si servono dei data-log generati da server e dispositivi di rete per valutare i livelli prestazionali, trovare i colli di bottiglia e quant’altro.
  • Conoscenza e servizio ai clienti. Soluzioni e applicazioni per la big data analysis sono utilizzati per progetti marketing e vendite, per lo sviluppo dei prodotti, ma anche per l’ottimizzazione della digital experience.

Big data analysis: quali sono le priorità da tener presenti per una gestione dei big data ottimale

Ill Data Management non può essere approcciato come in passato, quando le priorità si ‘riducevano’ a una governance del dato a livello It e alla sua fruizione da parte di alcuni utenti ‘ristretti’. Oggi gli scenari sono cambiati e la definizione corretta strategia di Data Management, dovrebbe tenere conto di alcune importanti considerazioni:

  • le fonti di big data continuano ad evolvere e crescere:‘ondate’ di nuovi dati continuano a essere generate non solo dalle app aziendali interne, ma da risorse pubbliche (come per esempio il web e i social media), piattaforme mobile, data services e, sempre di più, da cose e sensori (Internet of Things). Secondo gli analisti esperti in questo ambito, la strategia di un data analyst non può non tenere conto di questi aspetti, spesso ricondotti alle caratteristiche di volume, velocità e varietà dei Big data in continua crescita ed evoluzione. Per le aziende diventa fondamentale riuscire, secondo una logica di continuous improvement, a identificare le nuove fonti e incorporarle nelle piattaforme di Data Management;
  • catturare, gestire e archiviare tutti i dati aziendali per preservare storia e contesto: i dati depauperati del contesto servirebbero a poco, nell’era della gestione dei big data diventa quindi fondamentale riuscire a ‘catturare’ ed archiviare tutti i dati utili all’azienda e poiché la loro utilità spesso non è valutabile a priori, diventa una sfida riuscire ad averli tutti a disposizione e poi, appunto, trarre il significato dei big data raccolti. Fino a qualche anno fa gli sforzi e i costi per riuscire a catturare e mantenere tutti questi dati erano eccessivi, ma oggi tecnologie innovative e a basso costo come Apache Hadoop hanno reso possibile tale approccio;
  • analizzare scientificamente i dati per ‘arricchirli’ di senso utile e ‘non ovvio’: l’obiettivo dei progetti di big data analytics non è generare report su ciò che è accaduto ma comprendere come questo possa aiutare a prendere decisioni migliori. Ciò significa cambiare il modello di data analysis dei dati optando per approcci cosiddetti ‘descrittivi’, ‘predittivi’, ‘prescrittivi’, ossia sfruttando applicazioni di big data analytics attraverso le quali generare ‘insights’, conoscenza utile ai processi decisionali (anticipando per esempio i bisogni del cliente conoscendone in real-time preferenze ed abitudini). Riuscire in questo obiettivo richiede nuove competenze: i data scientist, in particolare, i quali, utilizzando ‘machine learning algorithms’ e ‘advanced visualization tools’ possono generare informazioni utili e ‘non scontate’ a sostegno della competitività e redditività aziendali;
  • rilasciare dati velocemente e liberamente a tutti coloro che hanno necessità: può sembrare un’ovvietà ma sappiamo bene come la storia dell’It abbia dimostrato quanto l’approccio ‘a silos’ valga anche per i dati, con molteplici esempi di big data risiedenti in database non condivisi e difficili da integrare. Per superare tali barriere, sarà sempre più necessario dotare le piattaforma di gestione dei big data di funzionalità innovative attraverso le quali poter rendere disponibili e accessibili i dati lungo tutti i livelli aziendali.

I modelli di analytics di riferimento – descriptive, predictive, prescriptive e automated analytics – e la loro diffusione nelle grandi e piccole aziende italiane

L’analisi dei dati può condurre a diversi livelli di conoscenza del significato dei big data stessi e questo processo è correlato alla tipologia di modelli di analytics messi in campo. È possibile identificare quattro categorie principali:

  • Descriptive Analytics, l’insieme di strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali. Tali strumenti permettono di accedere ai dati secondo viste logiche flessibili e di visualizzare in modo sintetico e grafico i principali indicatori di prestazione;
  • Predictive Analytics, strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro; sono caratterizzati da tecniche matematiche quali regressione, forecasting, modelli predittivi, ecc;
  • Prescriptive Analytics, applicazioni big data avanzate che, insieme all’analisi dei dati, sono capaci di proporre al decision maker soluzioni operative/strategiche sulla base delle analisi svolte;
  • Automated Analytics, capaci di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte.

Secondo i risultati dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano 2016, nelle grandi imprese (organizzazioni con più di 249 addetti) la diffusione di descriptive analytics è ormai un dato di fatto, presente nell’89% delle organizzazioni coinvolte, dove nel 82% dei casi l’utilizzo è ormai a regime almeno su alcuni ambiti applicativi. I predictive analytics risultano attualmente l’arena di maggior interesse nell’ambito della gestione dei big data, con una diffusione al 59%, sebbene ancora confinata ad alcuni ambiti applicativi (30%) o in fase di pilota (28%). Del restante 42%, ben il 37% ne sta però valutando l’utilizzo nei prossimi 12 mesi. Ancora molto indietro prescriptive e automated analytics, presenti rispettivamente nel 23% e nel 10% delle organizzazioni, perlopiù a livello di pilota.

Spostando l’attenzione sulle aziende Pmi, (organizzazioni con un numero di addetti compreso tra 10 e 249), lo scenario cambia drasticamente. La Ricerca è stata realizzata attraverso una rilevazione che ha coinvolto 800 Pmi, che sono state segmentate per dimensione aziendale (distinguendo tra piccole imprese – tra 10 e 49 addetti – e medie imprese – tra 50 e 249 addetti), macro-settore di industria e macro-regione territoriale. La sensibilità all’utilizzo dei dati, rispetto alle grandi imprese dove tutte hanno in atto iniziative, si mostra molto più bassa: solo un’azienda su tre adotta modelli di descriptive analytics (34%), con percentuali più alte nelle organizzazioni di medie dimensioni (39%), rispetto a quelle piccole (33%). L’utilizzo di modelli di predictive è ancora limitato a poche organizzazioni (16%), mentre prescriptive e automated analytics sono ancora scarsamente conosciuti.

Limitandosi a considerare le Pmi che analizzano i dati almeno in logica descriptive, nel 18% dei casi le analisi vengono fatte con software generalisti (per esempio foglio elettronico) o demandando a strutture esterne all’organizzazione. Quattro Pmi su dieci (41%) hanno software di visualizzazione e analisi dei dati dedicati, che tuttavia sono solo parzialmente integrati con i sistemi informativi dell’impresa. Nella restante parte dei casi (41%), esistono software avanzati, completamente integrati con i sistemi transazionali.

In generale, nell’Osservatorio Big Data Analytics & Business Intelligence 2017, è stata confermata la crescita del mercato Analytics, con un aumento del 22% che ha portato a un giro d’affari di oltre 1.100 milioni di euro.
Due i fattori principali che hanno determinato questo trend: da un lato, le grandi imprese che ormai conoscono le opportunità offerte dall’analisi descrittiva dei dati e che stanno investendo in nuove progettualità sempre più avanzate; dall’altro, il costante aumento dell’interesse per queste tecnologie e metodologie da parte di Pmi.
Nello specifico, tra coloro che hanno iniziative in atto o che ne hanno già effettuate in passato, gli obiettivi sono stati il miglioramento dell’engagement con il cliente (70%), l’incremento delle vendite (68%), la riduzione del time to market (66%), l’ampliamento dell’offerta di nuovi prodotti e servizi e l’ottimizzazione dell’offerta attuale al fine di aumentare i margini (64% ciascuno), la riduzione dei costi (57%) e la ricerca di nuovi mercati (41%). I ricercatori notano infine che molte aziende sono ancora in fase di realizzazione dei progetti (il 60% delle iniziative si trova in questa situazione) e quindi non hanno ancora raccolto i risultati dei loro investimenti e non sono in grado di dire se effettivamente l’obiettivo sia stato raggiunto o meno. Questo dimostra come ci troviamo ancora in un momento di grande fermento e di continua sperimentazione.

Applicazioni per big data analytics e data mining: tre macro aree d’offerta

Possiamo quindi dividere gli strumenti oggi disponibili nelle seguenti classi:

  • Aggregatori – Raccolgono e organizzano i dati, sia aziendali sia soprattutto provenienti da fonti esterne, in modo che possano essere usati dagli utenti business per il loro lavoro. Molti fornitori vi aggiungono anche servizi di data management, pulizia e arricchimento. Queste soluzioni sono soprattutto necessarie per le aziende che vogliono entrare in mercati nuovi o sconosciuti, hanno bisogno di gestire varie tipologie di big data per esempio dati interni ‘sporchi’ (ridondanti, equivoci, incerti…), o la cui struttura dati sulla clientela presenta aree scoperte.
  • Arricchitori – Potenziano e completano il monte-dati relativo alle attività di marketing e vendita con elementi di diversa fonte, principalmente feed e clickstream raccolti dal Web e dai social network. Molti strumenti pre-elaborano i dati per trarne informazioni mirate ai bisogni dell’azienda-utente e tendono ad entrare nel campo delle vere e proprie analisi. Questi tool vanno considerati da chi vuole affinare la segmentazione del mercato, fare marketing diretto con messaggi personalizzati e (nel business-to-business) interagire con specifici clienti.
  • Modellatori – Applicano ai dati algoritmi che ne evidenziano gli schemi e li confrontano a criteri di probabilità (le regole in base alle quali si stima che un evento possa accadere) in modo da poter costruire modelli di previsione. Il problema di queste soluzioni è che spesso sono realizzate da start-up la cui tecnologia (e le cui stessa sorte) può cambiare nel breve termine. Sono quindi adatte a società già abbastanza esperte nel data analysis marketing digitale che debbano colmare dei vuoti nel loro demand management.

I vantaggi dei big data analytics: come e perché possono aiutare il business

I benefici che l’analisi big data può dare sono parecchi. Ne ricordiamo i principali, citandoli in ordine di profittabilità per il business:

Le competenze necessarie per gestire un progetto di big data e l’importanza del data scientist

All’interno di un’organizzazione molte funzioni di business possono avere interessi e bisogni comuni rispetto all’accesso e all’utilizzo dei dati, ma ciascun utente avrà comunque esigenze tipiche della propria funzione che lo contraddistinguono dagli altri. Ma tali utenti come possono sapere qual è il giusto interlocutore cui rivolgersi per avere supporto e garantirsi l’accesso ai dati necessari? Secondo gli analisti di Forrester solo l’It è in grado di fornire il supporto richiesto, ma non in autonomia. Per affrontare correttamente questa prima fase strategica di adozione di progetti di Big data analysis, infatti, sarà necessario ‘assemblare’ dei working group di ‘data subject-matter experts’ lungo tutte le divisioni e funzioni di business dell’azienda, ossia stabilire dei team con competenze diversificate (prevalentemente competenze It inserite all’interno delle Lob) attraverso i quali identificare esigenze e ownership all’interno dell’organizzazione e poter quindi procedere alla definizione di big data analysis più adeguata a rispondere alle esigenze aziendali.

In particolare, l’It dovrà mettere in campo le seguenti figure/competenze:

  • chief data officer, un leader di livello executive che interagisce con il top management e le Lob per identificare dove indirizzare gli investimenti e le strategie di Data governance rispetto alle aspettative e agli obiettivi di business;
  • data governance program leader, un esperto che guida il governo dei dati in funzione delle piani e delle policy stabilite; è colui che stabilisce i programmi e le regole della data governance;
  • business data steward, l’elemento che fa ‘da cuscinetto’ tra le esigenze degli utenti e le regole di data governance e gestione tecnologica; questo soggetto deve continuamente verificare le esigenze delle line of business, capire se ci sono opportunità di miglioramento a livello tecnologico e come eventualmente migliorare l’efficacia dei dati rispetto al loro utilizzo negli analytics e nei processi operativi;
  • enterprise/information architect, colui che ha la responsabilità di mantenere sotto controllo tutti gli aspetti relativi alla gestione di regole, procedure, tecnologie necessarie ad automatizzare la gestione dei big data;
  • business data analyst, ossia l’analista in grado di interpretare i dati e stabilire quindi quali possono essere utili o meno al business.

E poi c’è il famoso data scientist.

Per indagare l’affermarsi di questa figura, l’Osservatorio del Politecnico di Milano ha condotto una rilevazione internazionale che ha coinvolto poco meno di 300 data scientist a livello globale. All’interno della survey, si sono studiate le aree di competenza distintiva per i data scientist. Le principali riguardano:

  • Knowledge Deployment: la capacità di creare interessanti rappresentazioni di dati (data visualization) e consentire quindi una miglior interpretazione dei dati stessi. Rappresenta inoltre la capacità di sviluppare messaggi che possano influenzare positivamente le azioni degli stakeholder chiave;
  • Technology: è la capacità di gestione di dati strutturati e non, la capacità di estrarre dati da fonti esterne tramite metodologie e tool specialistici e infine la capacità di manipolare e distribuire grandi quantità di dati;
  • Programming: riguarda la conoscenza informatica e programmazione;
  • Machine Learning/Analytics: la conoscenza di modelli e tecniche matematiche (analisi di apprendimento supervisionato e non supervisionato) e la conoscenza di tool e linguaggi in grado di effettuare analisi;
  • Business: conoscenza di aspetti di business (conoscenza di effetti di micro e macro-economia, processi funzionali come il marketing, finance produzione o distribuzione) e di industry.

Sulla base di questa classificazione, è stato sviluppato un modello di maturità dal quale emerge come i data scientist mostrino un livello avanzato di competenze in ambito di knowledge deployment (72% dei rispondenti), machine learning/analytics (62%). Più limitata la conoscenza negli ambiti technology (50%), business (47%) e programming (39%).

Redazione

Nel corso degli anni ZeroUno ha esteso la sua originaria focalizzazione editoriale, sviluppata attraverso la rivista storica, in un più ampio sistema di comunicazione oggi strutturato in rivista, portale www.zerounoweb.it e una linea di incontri con gli utenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 4