Mercati

Big Data Analytics: aumenta la maturità delle aziende italiane

La crescita del mercato degli analytics (+22%) si accompagna a un’evoluzione nell’adozione di progetti di questo tipo da parte delle aziende italiane. È sempre più evidente la tendenza degli end-user a utilizzare in modo autonomo strumenti di analisi. Un approfondimento sugli ultimi dati presentati dall’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Pubblicato il 16 Gen 2018

Big Data Analytics: aumenta la maturità delle aziende italiane

Trainato dalle grandi imprese, il mercato degli analytics in Italia continua a espandersi raggiungendo 1,103 miliardi di euro con una crescita del 22% rispetto all’anno precedente (figura 1). Nell’articolo Big data: il momento è ora! abbiamo visto quali sono i principali trend che, secondo l’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, caratterizzeranno questo mercato nei prossimi anni e nel breve resoconto Cresce il mercato dei Big Data Analytics abbiamo riportato alcuni dei principali indicatori che testimoniano questa crescita; oggi vogliamo andare più a fondo su queste numeriche per capire in quali aree e in quali settori si concentra la spesa in analytics.

Figura 1 – Il mercato analytics 2017
Fonte: Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Nella ricerca 2017, l’Osservatorio entra per la prima volta nel merito della scomposizione della spesa tra infrastrutture abilitanti (ossia capacità di calcolo, server, storage impiegati nella creazione di servizi di analytics), software e servizi (figura 2) dalla quale emerge che le prime pesano sulla spesa per il 25% (la rilevazione è stata effettuata su un campione di 159 organizzazioni italiane con più di 249 addetti): “Una quota importante che evidenzia come vi sia un approccio strategico al tema degli analytics perché queste infrastrutture rappresentano l’elemento trainante sul quale costruire progettualità”, ha detto Alessandro Piva, Responsabile della Ricerca dell’Osservatorio. Entrando nel dettaglio della spesa in questo ambito, si vede che il 13% è ascrivibile a server e macchine virtuali, il 10% a storage e il restante 2% ad altre infrastrutture; la Ricerca ha inoltre rilevato che poco più del 20% delle risorse di calcolo e storage è fruito in cloud.

Figura 2
La scomposizione della spesa in analytics
Fonte: Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

La parte del leone è naturalmente svolta dal software che totalizza il 42% della spesa, con una decisa predominanza nell’investimento in database (12%), prevalentemente di tipo relazionale, e nelle piattaforme di analytics e di data science (12%); il restante 18% si suddivide tra strumenti di ingestion, processing, integration e quality (6%), tool di data visualization e reporting (7%), software indirizzati a supportare con logiche di analytics avanzate uno specifico processo come marketing, vendite, finanza & controllo ecc. (5%).

Il 33% è infine riservato ai servizi, dove il 17% è relativo a spese di system integration, il 10% a personalizzazione del software, il 6% a consulenza di processo e altri servizi.

“In termini di peso sul budget analytics complessivo, le voci di mercato caratterizzate da una maggior crescita sono le piattaforme di analytics e data science, i database NoSQL/NewSQL, le spese di system integration e i software di data ingestion e processing, a testimoniare uno spostamento dell’intensità degli investimenti su componenti abilitanti all’analisi di contesti complessi, in logica predittiva”, ha commentato Piva.

Dal punto di vista dei settori, il Bancario continua a rappresentare quello dove vi è il maggior utilizzo di queste tecnologie (28%), seguito dal Manifatturiero (24%), mentre si distanziano con uno scarto uguale o superiore ai 10 punti Teco & Media (14%), PA e Sanità (7%), altri Servizi (8%), Grande Distribuzione Organizzata e Retail (7%), Utility (6%) e Assicurazioni (6%). I settori che crescono di più risultano essere Assicurazioni, Manifatturiero e Servizi.

Cresce la diffusione di Predictive Analytics, aumenta la maturità delle aziende

Ma qual è il livello di maturità nell’adozione di progetti di analytics delle imprese italiane? Con la Ricerca 2016, l’Osservatorio aveva clusterizzato i modelli di analytics in quattro categorie principali:

  • Descriptive Analytics, l’insieme di strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali;
  • Predictive Analytics, strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro;
  • Prescriptive Analytics, tool avanzati che, insieme all’analisi dei dati, sono capaci di proporre al decision maker soluzioni operative/strategiche sulla base delle analisi svolte;
  • Automated Analytics, strumenti in grado di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte.
Figura 3
I modelli di analytics, confronto 2016-2017
Fonte: Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Come si vede in figura 3 la prima categoria ha ormai raggiunto il totale delle organizzazioni, ma è interessante notare la crescita importante dei Predictive Analytics (+14%), a conferma di quanto commentato da Piva poco sopra, e la diffusione crescente dei Prescriptive Analytics (+10%) mentre rimane sostanzialmente invariata la percentuale di aziende che utilizza tool di Automated Analytics.

Ci si sta quindi gradatamente avviando verso una maggiore maturità dei modelli adottati, anche se “stupisce quella sostanziale staticità degli strumenti di automazione”, ha dichiarato Carlo Vercellis, Responsabile Scientifico dell’Osservatorio.

Per quanto riguarda gli ambiti progettuali, rimandiamo alla figura 4 sottolineando solo che, come ha rilevato Piva, “tra gli ambiti di maggiore interesse prospettico, vi sono ancora una volta il monitoraggio della reputazione del brand e il monitoraggio post-vendita”.

Figura 4
Gli ambiti progettuali
Fonte: Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Ci sembra invece particolarmente interessante l’ulteriore approfondimento effettuato dai ricercatori sul livello di coinvolgimento delle linee di business nell’accesso agli analytics, identificato nella frequenza e nel grado di personalizzazione con i quali gli end-user possono accedere a questi strumenti.

“Vi è sempre più la tendenza – ha dichiarato Piva, mostrando i risultati della Ricerca – di voler avere tra le mani strumenti per realizzare analisi sui dati in modo autonomo, generando quindi degli insight con un maggior grado di libertà a seconda delle necessità. Il processo tradizionale di richiesta di supporto alle figure dedicate all’analisi dei dati per avere informazioni mostra infatti limiti quali mancanza di rapidità e flessibilità”. Anche in questo caso, la clusterizzazione in differenti livelli di accessibilità effettuata dall’Osservatorio ci consente di comprendere il livello di “autonomia” raggiunto dagli end-user:

  • Centralizzata, il sistema di Analytics è gestito dall’IT con un modello tradizionale ed è basato su tecnologie che richiedono competenze specifiche. Il business deve rivolgersi all’IT per l’estrazione di report, per lo più standardizzati e periodici (il 26% delle aziende si trova ancora in questa situazione, con un modello che indica uno scarso coinvolgimento nell’accesso da parte delle LoB);
  • Demandata alle Linee di Business, la LoB ha accesso a report personalizzabili grazie a strumenti di visual analytics, potendo identificare autonomamente i KPI sui quali ottenere informazioni; in questo modello vi sono persone, all’interno della linea di business, preposte all’analisi dei dati (45%);
  • Self-Service, il singolo utente, se autorizzato, ha la possibilità di creare e modificare i report di cui ha bisogno grazie a strumenti avanzati di self-service visual analytics, che permettono di interagire con la piattaforma senza la necessità di competenze tecniche (è interessante notare che ben il 29% delle realtà intervistate si trova in questa situazione di elevata personalizzazione).

Come misurare i benefici di un progetto di Big Data Analytics

Molti progetti sono in fase di realizzazione (circa il 60% delle aziende analizzate si trova in questa situazione) e quindi non è possibile ancora, per queste realtà, determinare il ritorno dell’investimento. Ma è comunque interessante rilevare quali sono i benefici ottenuti dalle organizzazioni che hanno iniziative in produzione: miglioramento dell’engagement con il cliente (nella totalità dei casi); aumento delle vendite (91%); riduzione del time to market (78%); identificazione di nuovi prodotti e servizi (67%); ottimizzazione dell’offerta attuale per aumentare il margine (73%); riduzione dei costi (56%). “Risulta più difficile traguardare l’obiettivo dell’identificazione di nuovi mercati, effettivamente ottenuto solo da quattro aziende su dieci (38%)”, scrivono i ricercatori del Politecnico nel Report conclusivo della Ricerca, ricordando comunque come il quadro sia “complessivamente positivo, a conferma di una comprensione crescente delle opportunità offerte dagli Analytics e del percorso per valorizzarle appieno”.

Figura 5
L’Albero del valore di progetti di big data analytics
Fonte: Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Per meglio comprendere i benefici apportati dagli analytics in azienda, l’Osservatorio ha costruito uno strumento che consente di avere una visione d’insieme dei benefici che possono derivare da una progettualità in ambito analytics e che ha chiamato Albero del Valore (figura 5). La messa a punto dell’Albero ha consentito ai ricercatori di evidenziare tre caratteristiche che un progetto in questo ambito può avere e la cui considerazione è necessaria per costruire un modello coerente di Big Data Analytics:

  • Trasversalità: gli impatti di un progetto possono riversarsi su tutta l’organizzazione aziendale coinvolgendo sia processi interni sia processi esterni;
  • Limitata quantificabilità: i benefici si differenziano sulla base della possibilità di quantificarne l’impatto generato. “Ci sono benefici quantificabili economicamente, quindi immediatamente traducibili in indicatori economici/finanziari che misurino la bontà del progetto. Ci sono poi benefici non quantificabili economicamente, ma che è possibile tradurre in indicatori di prestazione. Infine, vi sono dei benefici non quantificabili. Sarà importante tenere traccia anche di questi, sebbene non sia possibile offrirne una misurazione o rappresentarli attraverso indicatori quantitativi”, scrivono ancora i ricercatori.
  • Ampiezza dell’orizzonte temporale: la variabilità temporale del ritorno dell’investimento di un progetto di analytics è molto elevata per cui è indispensabile disporre di strumenti di misurazione che tengano conto dei benefici cumulati lungo tutto il ciclo di vita del progetto.

L’Albero del Valore è uno strumento che consente di mappare i benefici sulla base di queste caratteristiche, analizzando le sotto-aree che sono impattate dal progetto e misurando gli indicatori che le caratterizzano.

Nell’analisti del Politecnico non poteva mancare ovviamente quella dei freni all’adozione, ambito nel quale non si riscontrano grandi novità: mancanza di committiment del top o middle management, scarsità di competenze.

In un prossimo articolo analizzeremo l’evoluzione tecnologica richiesta dai Big Data e le scelte tecnologiche a disposizione delle organizzazioni.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4