Prospettive

È l’ora della data science strategica e strutturata

In un mercato che cresce del 23% si confermano le principali linee evolutive rilevate dalla Ricerca 2018, ma l’Osservatorio Big Data Analytics e Business Intelligence 2019 mette in guardia: tecnologie avanzate e competenze specializzate non sono realmente disruptive se la data science non diventa una componente strategica dell’azienda. Un’anteprima delle tendenze evidenziate e delle sfide da raccogliere nelle interviste rilasciate a ZeroUno da Carlo Vercellis, Responsabile Scientifico dell’Osservatorio, e Alessandro Piva, Responsabile della Ricerca

Pubblicato il 19 Nov 2019

foto Osservatorio Apertura Big Data e Analytics e Business Inteligence 2019

L’Osservatorio Big Data Analytics e Business Intelligence 2019 del Politecnico di Milano conferma le due principali linee evolutive rilevate dalla Ricerca 2018: machine learning e deep learning stanno avendo un effetto dirompente sulle metodologie di analisi dei dati e le tecnologie infrastrutturali sempre più performanti abilitano l’analisi in tempo reale. L’impatto positivo sul business è potenzialmente enorme e, infatti, gli analytics si posizionano al primo posto tra le priorità di investimento di CIO e Innovation Manager; la cartina di tornasole di questo posizionamento è un mercato che continua a crescere a ritmi importanti (23%) raggiungendo il valore di 1,708 miliardi di euro.

Il Convegno dell’Osservatorio Big Data Analytics e Business Intelligence non si limita però a fotografare il mercato e a descrivere i trend in atto, ma fa proprio anche il ruolo di stimolare una riflessione critica e il titolo di quest’anno ne è l’esempio: Strategic Data Science: time to grow up!

Già, perché non bastano singole, seppur interessanti e innovative, progettualità e non è sufficiente che gli analytics assumano una importanza crescente così come la presenza di un data scientist in azienda non “fa primavera”. Tecnologie avanzate e competenze specializzate non sono realmente disruptive se la data science non diventa una componente strategica dell’azienda.

Proprio per capire quali sono le sfide per raggiungere questo obiettivo, per comprendere quali sono le focalizzazioni che un’azienda deve avere, ZeroUno ha intervistato in anteprima Carlo Vercellis, Responsabile Scientifico dell’Osservatorio Big Data Analytics e Business Intelligence, e Alessandro Piva, Responsabile della Ricerca.

Osservatorio Big Data Analytics e Business Intelligence 2019: i principali trend commentati dagli analisti

E la prima domanda che abbiamo posto a Vercellis è proprio per capire se dai trend identificati dall’Osservatorio nel 2019 si evince un reale cambiamento dei processi apportato dagli analytics: “Studiare l’ambito da questa prospettiva è stato proprio il focus della Ricerca di quest’anno e la prima, immediata risposta è che il percorso di maturazione verso questa direzione risulta ancora incompleto anche nelle grandi aziende. Lo scorso anno, l’Osservatorio aveva suddiviso le grandi aziende in due gruppi principali: organizzazioni più mature sul tema analytics e aziende sulla rampa di lancio. Nel 2019 abbia visto che le prime hanno già internalizzato competenze e stanno vivendo una nuova fase di adozione degli analytics, aumentando il numero di sperimentazioni e la complessità dei progetti, mentre nelle seconde stanno iniziando a concretizzarsi le prime iniziative, principalmente con il supporto di competenze esterne”.

Restringendo il campo al primo gruppo di aziende, messa mano a investimenti in tecnologie e competenze, quali sono le sfide che si trovano ad affrontare? “La due sfide principali sono due facce della stessa medaglia che è rappresentata dalla capacità di portare concretamente gli analytics al tavolo delle decisioni, coinvolgendo una platea più ampia nell’utilizzo quotidiano degli insight derivanti dai dati: prima di tutto, c’è un tema di governance dei progetti di analytics mentre la seconda sfida riguarda appunto il cambiamento dei processi in ottica data-driven”.

Per analizzare nel dettaglio questi trend, l’Osservatorio ha coinvolto oltre 1000 CIO, Responsabili Analytics ed Executive di linee di business di organizzazioni utilizzatrici di piccole, medie e grandi dimensioni e manager delle principali aziende operanti nel mercato dell’offerta, ma prima di andare un po’ più in profondità dei dati con l’aiuto di Alessandro Piva, chiediamo a Vercellis quali sono le direttrici evolutive identificate quest’anno: “La Ricerca 2019 ha identificato le principali tendenze a livello internazionale partendo dall’analisi di fonti secondarie e validando i principali messaggi con il contributo dei membri dell’Advisory Board e delle aziende dell’offerta sostenitrici dell’iniziativa. Sono tendenze che coprono un insieme di tematiche, da aspetti strettamente tecnologici a scelte organizzative, progettuali e di cultura aziendale, il cui denominatore comune è proprio quel cambiamento dei processi portato dagli analytics sul quale ci siamo focalizzati”.

Re-thinking Business Intelligence

Il primo trend evidenziato dall’Osservatorio Big Data Analytics e Business Intelligence 2019 riguarda un “ripensamento” della business intelligence: “Inevitabilmente, con l’avanzare degli analytics la business intelligence ha subìto un calo di popolarità, ma in realtà ci siamo resi conto di quanto sia ancora centrale, da un lato, per analisi descrittive svolte con tecnologie di data visualization che rappresentano un punto di partenza per comprendere quale progettualità di advanced analytics porterebbe maggiori benefici, dall’altro, lo svolgimento delle attività di business intelligence rappresenta comunque una fase iniziale del percorso di maturazione del team per la gestione di iniziative più avanzate”, spiega Vercellis.

foto Carlo Vercellis, Responsabile Scientifico dell’Osservatorio Big Data Analytics e Business Intelligence
Carlo Vercellis, Responsabile Scientifico dell’Osservatorio Big Data Analytics e Business Intelligence

Collaborative Data Science

Chi pensava di avere risolto tutti i suoi problemi internalizzando un mitico data scientist “ha dovuto riconoscere che questo è un approccio fallimentare. Nel 2018 avevamo analizzato i principali ruoli che un team di data science deve avere, nel 2019, studiando l’impatto dei progetti sui processi aziendali, è emersa chiaramente la necessità di creare un ambiente che faciliti l’interazione e il coinvolgimento di attori differenti”. Ecco quindi l’importanza di software che favoriscano la collaborazione all’interno del team, ma anche con attori esterni. In ogni caso Vercellis sottolinea come quello delle competenze in questi ambiti sia sempre un tema caldissimo: “Noi come Politecnico siamo naturalmente molto impegnati su questo fronte e, in particolare, vorrei ricordare il Master internazionale in Business Analytics and Big Data del MIP, progettato per formare una nuova generazione di professionisti esperti di dati che siano in grado di gestire complessi problemi di analisi aziendale in una varietà di settori e ambienti diversi. Essendo in costante relazione con il nostro Osservatorio, il corso consente di combinare la teoria con la pratica per un’esperienza educativa olistica”.

Multi-Cloud & Edge Analytics

Il public cloud come arena di sperimentazione in ambito analytics non è una novità, l’Osservatorio rileva uno spostamento verso il modello multi cloud anche per questa tipologia di applicazioni: “Il multi cloud si sta dimostrando la soluzione più efficace per gestire carichi di lavoro molto elevati, richiesti dagli algoritmi di apprendimento automatico, e dati eterogenei per fonte e formato. Multi-Cloud significa però – ricorda il Responsabile Scientifico dell’Osservatorio – anche necessità di orchestrazione e con tale finalità è nato Kubernetes , progetto open source volto a gestire workload containerizzati. Kubeflow, machine learning tool-kit di Kubernetes, rappresenta la scommessa per il futuro nella gestione di complesse pipeline di machine learning”. Attenzione anche alle evoluzioni dell’edge analytics ossia alla capacità di spostare anche alla “periferia” capacità analitiche avanzate.

Actionable Analytics

Se nel 2018 è stato messo l’accento sui real time (o almeno near real time) analytics, grazie all’evoluzione delle infrastrutture tecnologiche, quello che emerge dalla Ricerca 2019 è che la prospettiva tecnologica non sempre si traduce in un’effettiva capacità di velocizzare i processi decisionali: “Di fatto – spiega Vercellis – la maggiore frequenza di aggiornamento dei dati è condizione necessaria, ma non sufficiente per rendere i risultati delle analisi ‘actionable’, ovvero immediatamente riconducibili a un’azione rapida. La chiave di volta sta nella capacità di rimodulare gradualmente i workflow del processo coinvolto, attribuendo agli insight derivanti dalle analisi un ruolo chiave nella definizione delle attività e strutturando di conseguenza le risorse sia tecnologiche sia umane”.

Osservatorio Big Data Analytics e Business Intelligence 2019: l’evoluzione del mercato

Come abbiamo visto all’inizio, il mercato degli analytics in Italia è in costante espansione: “In quattro anni – interviene Alessandro Piva – è più che raddoppiato: a fronte di una stima nel 2015 di 790 milioni di euro è infatti cresciuto a un tasso medio composto del 21,3%. Questo risultato racconta di una consapevolezza sempre più diffusa nelle aziende italiane e di una maggior sensibilità circa l’importanza degli analytics da parte del top management incaricato di definire le strategie aziendali e le conseguenti direzioni d’investimento”.

foto Alessandro Piva, Responsabile della Ricerca
Alessandro Piva, Responsabile della Ricerca Osservatorio Big Data Analytics e Business Intelligence

In linea con il trend evidenziato da Vercellis, il primo dato di assoluto rilievo è quello legato al cloud: “Nel 2019, il 17% della spesa in analytics è da riferirsi a sistemi di public cloud. Quello dell’As a Service è un trend che acquisisce sempre maggior rilevanza nel mondo degli analytics, mostrando un tasso di crescita rispetto al 2018 del 33%”.

L’Osservatorio ha quindi classificato gli investimenti in risorse infrastrutturali, software e servizi.

“La spesa in risorse infrastrutturali, ovvero sistemi di abilitazione agli analytics in grado di fornire capacità di calcolo e di storage al sistema, rappresenta il 20% della spesa totale. Parte di tali risorse sono fruite in public cloud, sollevando quindi l’azienda dall’acquisto fisico di un’infrastruttura. Questo – ricorda Piva – oltre alla possibilità di effettuare pagamenti al consumo, consente di ridurre i tempi necessari per disporre di tali risorse e giovare di maggior flessibilità nei momenti di scaling up/down di una soluzione”.

Quasi la metà degli investimenti è rivolta al software (47%): poco più della metà (53%) è imputabile a strumenti orientati alla costruzione di modelli d’analisi dei dati o alla visualizzazione degli stessi; la parte rimanente (47%) si riferisce invece a software che supportano le fasi precedenti del ciclo di vita del dato (ingestion, integration, preparation e governance). “Questi dati – precisa Piva – comunicano un messaggio fondamentale per quelle aziende che dovessero approcciarsi per la prima volta agli analytics: affinché i progetti portino i risultati sperati non bisogna concentrarsi esclusivamente sullo sviluppo di modelli di analisi. Le attività precedenti, riconducibili al concetto di data engineering, sono altrettanto importanti e al giorno d’oggi; in termini di spesa, pesano quasi quanto la parte di strumenti utili alla creazione dei modelli d’analisi”.

Per quanto riguarda i servizi, in cui ricade il 33% della spesa, vi sono incluse le spese per la personalizzazione tecnologica del software sulla base delle esigenze dell’organizzazione, l’integrazione con i sistemi informativi aziendali e la consulenza per la riprogettazione dei processi.

Guardando ai tassi di crescita rispetto al 2018 all’interno delle tre aree di spesa, il software è quello che presenta tassi di crescita più elevati (+31%), seguito dall’hardware (+18%) e dai servizi (+14%).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4