Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Come fare big data analysis e ottenere valore per le aziende

pittogramma Zerouno

Guida

Come fare big data analysis e ottenere valore per le aziende

23 Nov 2018

di Redazione

Cos’è un progetto di big data analysis? Come realizzarlo affinché siano garantiti i risultati?
In questo servizio sono illustrati nel dettaglio quali tool di big data analytics utilizzare e quali competenze e risorse umane mettere in campo per le gestione dei dati. ZeroUno delinea così una definizione di big data analytics, che facendo riferimento anche a opinioni di importanti società di analisi di mercato, risulta esaustiva; identificando, tra l’altro, le quattro categorie principali di analytics: descriptive, predictive, prescriptive e automated analytics. Sono riportati, inoltre, gli ultimi dati di mercato relativi alla crescita, a doppia cifra,
del mercato big data analytics in Italia

Come impostare un progetto di big data analytics

Impostare un progetto di analisi e gestione dei big data nella propria azienda significa affrontare molteplici aspetti, non ci si può naturalmente limitare a quelli tecnologici, è necessario valutare le esigenze di business a cui si vuole rispondere e porsi obiettivi precisi, coinvolgendo numerose competenze. Definire e implementare una strategia di Big data analytics significa, infatti, avere la possibilità di trarre preziose informazioni per fare innovazione, basti pensare al digital analysis marketing, ma bisogna saper partire con il piede giusto. In questo servizio, passo dopo passo, è indicato come realizzare un sistema completo di data management, che sia in grado di garantire valore alle organizzazioni.

Il vero significato dei big data e come utilizzarli correttamente attraverso l’analisi dei dati

Sembrerà ovvio, ma poiché sono proprio le cose ovvie quelle alle quali si pensa meno, la prima questione da stabilire (fermo restando che una sintetica definizione di Big data riguarda tutte quelle informazioni interne alle aziende ma anche provenienti da molteplici fonti – social network, IoT e quant’altro – che vanno a formare un patrimonio talemente grande da rendersi necessario l’utilizzo di tecnologie e strumenti per poterlo sfruttare) è a quale finalità di business dovrà servire il progetto di analisi dei big data.

Se ciò non è chiaro da subito, il rischio, ed è un rischio elevato, è che il Cio e l’It vadano avanti per la loro strada realizzando una big data architecture che magari funziona benissimo, ma che poi non risulta allineata ai bisogni del business e dell’impresa.

Figura 1 – Casi di utilizzo di big data – Fonte: Forrester’s Global Business Technographics Data And Analytics Survey, 2015

I casi di utilizzo della big data analysis, secondo quanto dichiarato a Forrester dalle aziende utenti, rientrano in tre gruppi:

  • Efficienza e rischi operativi. Gran parte degli esempi di big data analytics realizzati o pianificati per esserlo a breve riguarda la riduzione del rischio nelle analisi finanziarie. Altri ambiti dove contano efficienza e risk reduction sono l’asset management (con una punta nell’analisi delle frodi), la gestione del personale e la supply chain, dove emergono le applicazioni big data per la manutenzione preventiva. Un approccio globale a questi problemi deve considerare la condivisione dei dati e lo scambio di idee con i business partner, nonché il tracciamento dei risultati avuti dalle azioni prese in seguito a dette analisi, in modo da avviare un ciclo virtuoso.
  • Sicurezza e performance applicative. Predictive analytics e analisi dei big data sul funzionamento dell’It servono a prevenire problemi nell’erogazione dei servizi e a monitorare gli eventi per potervi rispondere in tempo reale. I modelli d’analisi, che vanno discussi con i responsabili della sicurezza e dei servizi, si servono dei data-log generati da server e dispositivi di rete per valutare i livelli prestazionali, trovare i colli di bottiglia e quant’altro.
  • Conoscenza e servizio ai clienti. Soluzioni e applicazioni per la big data analysis sono utilizzati per progetti marketing e vendite, per lo sviluppo dei prodotti, ma anche per l’ottimizzazione della digital experience.

Big data analysis: quali sono le priorità da tener presenti per una gestione dei big data ottimale

Il Data Management non può essere approcciato come in passato, quando le priorità si ‘riducevano’ a una governance del dato a livello It e alla sua fruizione da parte di alcuni utenti ‘ristretti’. Oggi gli scenari sono cambiati e la definizione corretta strategia di Data Management, dovrebbe tenere conto di alcune importanti considerazioni:

  • le fonti di big data continuano ad evolvere e crescere:‘ondate’ di nuovi dati continuano a essere generate non solo dalle app aziendali interne, ma da risorse pubbliche (come per esempio il web e i social media), piattaforme mobile, data services e, sempre di più, da cose e sensori (Internet of Things). Secondo gli analisti esperti in questo ambito, la strategia di un data analyst non può non tenere conto di questi aspetti, spesso ricondotti alle caratteristiche di volume, velocità e varietà dei Big data in continua crescita ed evoluzione. Per le aziende diventa fondamentale riuscire, secondo una logica di continuous improvement, a identificare le nuove fonti e incorporarle nelle piattaforme di Data Management;
  • catturare, gestire e archiviare tutti i dati aziendali per preservare storia e contesto: i dati depauperati del contesto servirebbero a poco, nell’era della gestione dei big data diventa quindi fondamentale riuscire a ‘catturare’ ed archiviare tutti i dati utili all’azienda e poiché la loro utilità spesso non è valutabile a priori, diventa una sfida riuscire ad averli tutti a disposizione e poi, appunto, trarre il significato dei big data raccolti. Fino a qualche anno fa gli sforzi e i costi per riuscire a catturare e mantenere tutti questi dati erano eccessivi, ma oggi tecnologie innovative e a basso costo come Apache Hadoop hanno reso possibile tale approccio;
  • analizzare scientificamente i dati per ‘arricchirli’ di senso utile e ‘non ovvio’: l’obiettivo dei progetti di big data analytics non è generare report su ciò che è accaduto ma comprendere come questo possa aiutare a prendere decisioni migliori. Ciò significa cambiare il modello di data analysis dei dati optando per approcci cosiddetti ‘descrittivi’, ‘predittivi’, ‘prescrittivi’, ossia sfruttando applicazioni di big data analytics attraverso le quali generare ‘insights’, conoscenza utile ai processi decisionali (anticipando per esempio i bisogni del cliente conoscendone in real-time preferenze ed abitudini). Riuscire in questo obiettivo richiede nuove competenze: i data scientist, in particolare, i quali, utilizzando ‘machine learning algorithms’ e ‘advanced visualization tools’ possono generare informazioni utili e ‘non scontate’ a sostegno della competitività e redditività aziendali;
  • rilasciare dati velocemente e liberamente a tutti coloro che hanno necessità: può sembrare un’ovvietà ma sappiamo bene come la storia dell’It abbia dimostrato quanto l’approccio ‘a silos’ valga anche per i dati, con molteplici esempi di big data risiedenti in database non condivisi e difficili da integrare. Per superare tali barriere, sarà sempre più necessario dotare le piattaforma di gestione dei big data di funzionalità innovative attraverso le quali poter rendere disponibili e accessibili i dati lungo tutti i livelli aziendali.

Il trend di mercato degli Analytics e i modelli di riferimento: descriptive, predictive, prescriptive e automated analytics

I dati dell’Osservatorio rilevano che il mercato Analytics in Italia nel 2018 ha raggiunto poco meno di 1,4 miliardi di euro, confermando ancora una volta il trend di crescita che lo sta accompagnando da anni, con un tasso previsto del +26%. Nel 2015, infatti, il mercato ammontava a 790 milioni di euro. “È indubbio – ha commentato Carlo Vercellis, Responsabile Scientifico dell’Osservatorio – che nei 3 anni intercorsi le aziende abbiano maturato consapevolezza sul tema e l’abbiano concretamente trasformata in investimenti, sperimentazioni e progetti. Tuttavia, il processo che porta a un approccio diffusamente maturo è tutt’altro che compiuto. A conferma di ciò, le PMI sono ancora responsabili di una quota esigua del mercato, fermandosi solo al 12% dello stesso, mentre il vero motore della crescita è affidato alle Grandi Imprese (sopra i 249 addetti), che ne rappresentano l’88%”.
Per dare una vista di dettaglio delle direttrici di spesa in Analytics, i ricercatori del Politecnico hanno scomposto la spesa complessiva in 3 voci principali: risorse infrastrutturali (21%), software (45%) e servizi (34%). Per quanto riguarda la prima voce, le infrastrutture possono essere acquisite fisicamente, con un modello di erogazione on premises, oppure in cloud, attraverso un modello a consumo, da un provider esterno all’organizzazione che si prende carico dell’erogazione del servizio e tra i trend emergenti Vercellis segnala che “questa scelta è compiuta con sempre maggior convinzione dalle aziende, pronte a sfruttare la maggior flessibilità che quest’approccio è solitamente in grado di garantire”.
Confrontando la crescita con quella dell’anno scorso, si evince che il tasso di incremento del mercato è aumentato. Nel 2017 l’incremento era infatti pari al 22%. Due i fattori principali che avevano determinato questo trend: da un lato, le grandi imprese che ormai conoscevano le opportunità offerte dall’analisi descrittiva dei dati e che stavano investendo in nuove progettualità sempre più avanzate; dall’altro, il costante aumento dell’interesse per queste tecnologie e metodologie da parte di Pmi.

Interessante anche l’analisi compiuta nel 2016 dove si era invece studiata la diffusione di quattro categorie principali di modelli di analytics:

  • Descriptive Analytics, l’insieme di strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali. Tali strumenti permettono di accedere ai dati secondo viste logiche flessibili e di visualizzare in modo sintetico e grafico i principali indicatori di prestazione;
  • Predictive Analytics, strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro; sono caratterizzati da tecniche matematiche quali regressione, forecasting, modelli predittivi, ecc;
  • Prescriptive Analytics, applicazioni big data avanzate che, insieme all’analisi dei dati, sono capaci di proporre al decision maker soluzioni operative/strategiche sulla base delle analisi svolte;
  • Automated Analytics, capaci di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte.

In tale ottica era emerso che nelle grandi imprese la diffusione di descriptive analytics era ormai un dato di fatto, presente nell’89% delle organizzazioni coinvolte. I predictive analytics risultavano l’arena di maggior interesse nell’ambito della gestione dei big data, con una diffusione al 59%, sebbene ancora confinata ad alcuni ambiti applicativi (30%) o in fase di pilota (28%). Del restante 42%, ben il 37% ne stava valutando. Ancora molto indietro prescriptive e automated analytics, presenti rispettivamente nel 23% e nel 10% delle organizzazioni, perlopiù a livello di pilota.

Spostando l’attenzione sulle aziende Pmi, (organizzazioni con un numero di addetti compreso tra 10 e 249), lo scenario cambia drasticamente. La sensibilità all’utilizzo dei dati, rispetto alle grandi imprese dove tutte hanno in atto iniziative, si mostrava molto più bassa: solo un’azienda su tre adottava modelli di descriptive analytics (34%), con percentuali più alte nelle organizzazioni di medie dimensioni (39%), rispetto a quelle piccole (33%). L’utilizzo di modelli di predictive era ancora limitato a poche organizzazioni (16%), mentre prescriptive e automated analytics erano ancora scarsamente conosciuti.

Applicazioni per big data analytics e data mining: tre macro aree d’offerta

Possiamo quindi dividere gli strumenti oggi disponibili nelle seguenti classi:

  • Aggregatori – Raccolgono e organizzano i dati, sia aziendali sia soprattutto provenienti da fonti esterne, in modo che possano essere usati dagli utenti business per il loro lavoro. Molti fornitori vi aggiungono anche servizi di data management, pulizia e arricchimento. Queste soluzioni sono soprattutto necessarie per le aziende che vogliono entrare in mercati nuovi o sconosciuti, hanno bisogno di gestire varie tipologie di big data per esempio dati interni ‘sporchi’ (ridondanti, equivoci, incerti…), o la cui struttura dati sulla clientela presenta aree scoperte.
  • Arricchitori – Potenziano e completano il monte-dati relativo alle attività di marketing e vendita con elementi di diversa fonte, principalmente feed e clickstream raccolti dal Web e dai social network. Molti strumenti pre-elaborano i dati per trarne informazioni mirate ai bisogni dell’azienda-utente e tendono ad entrare nel campo delle vere e proprie analisi. Questi tool vanno considerati da chi vuole affinare la segmentazione del mercato, fare marketing diretto con messaggi personalizzati e (nel business-to-business) interagire con specifici clienti.
  • Modellatori – Applicano ai dati algoritmi che ne evidenziano gli schemi e li confrontano a criteri di probabilità (le regole in base alle quali si stima che un evento possa accadere) in modo da poter costruire modelli di previsione. Il problema di queste soluzioni è che spesso sono realizzate da start-up la cui tecnologia (e le cui stessa sorte) può cambiare nel breve termine. Sono quindi adatte a società già abbastanza esperte nel data analysis marketing digitale che debbano colmare dei vuoti nel loro demand management.

I vantaggi dei big data analytics: come e perché possono aiutare il business

I benefici che l’analisi big data può dare sono parecchi. Ne ricordiamo i principali, citandoli in ordine di profittabilità per il business:

Le competenze necessarie per gestire un progetto di big data, l’importanza di data scientist, data engineer e data analyst

Nell’edizione 2018 dell’Osservatorio ci si è focalizzati in modo particolare sulle competenze, in quanto la mancanza di skill rimane il principale elemento di freno allo sviluppo di progettualità di Big Data Analytics.

“La scarsità di competenze nell’ambito della Data Science – ha ricordato Alessandro Piva, Responsabile della Ricerca – e più in generale nella capacità di manipolazione dei dati, caratterizza il fenomeno dei Big Data fin dagli albori”.
A dimostrazione di ciò, il 77% delle grandi aziende dichiara un sottodimensionamento in termini di risorse umane dedicate alla Data Science.

“Oltre al disequilibrio tra domanda e offerta, le aziende si scontrano con la ricerca di ruoli poco standardizzati, dei quali non si conoscono le core skills. Per questo motivo, la Ricerca 2018 – ha spiegato Piva – ha approfondito il tema delle figure professionali non soltanto attraverso i dati di diffusione, ma anche attraverso l’analisi delle offerte di lavoro presenti su Linkedin, al fine di ottenere insight più qualitativi sulle principali competenze e attività svolte” . Queste le principali evidenze emerse:

Data Scientist – La figura del Data Scientist sta entrando nel concreto dell’attività quotidiana di molte aziende. Nel 2018, il dato sulla diffusione di questo ruolo all’interno delle grandi organizzazioni registra un ulteriore, seppur leggero, incremento. Le grandi aziende che hanno al proprio interno, formalizzata o meno, almeno una figura di Data Scientist sono il 46% (+1% rispetto al 2017).

Data Engineer – L’estrazione e la consegna degli insight sono vincolate a una serie di attività preliminari che consistono nella progettazione dell’infrastruttura e nella costruzione e manutenzione della data pipeline. Tali operazioni sono responsabilità del Data Engineer, ruolo di assoluta rilevanza, a lungo sottovalutato a favore del più popolare Data Scientist. Nel 2018, il 42% delle grandi aziende italiane dichiara di avere al proprio interno un Data Engineer.

Data Analyst – Il Data Analyst, che si occupa di ricercare evidenze quantitative all’interno di grandi moli di dati, supportando in tal mondo le decisioni di business, è presente nel 56% delle grandi aziende italiane e circa la metà (44%) delle aziende che non hanno ancora questa figura prevede di inserirla entro il 2019.

Redazione

Nel corso degli anni ZeroUno ha esteso la sua originaria focalizzazione editoriale, sviluppata attraverso la rivista storica, in un più ampio sistema di comunicazione oggi strutturato in rivista, portale www.zerounoweb.it e una linea di incontri con gli utenti.

Come fare big data analysis e ottenere valore per le aziende

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4