Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Estrarre valore dai dati: modelli predittivi e competenze necessarie

pittogramma Zerouno

Estrarre valore dai dati: modelli predittivi e competenze necessarie

28 Nov 2016

di Patrizia Fabbri

Con il coinvolgimento di 950 imprese di tutte le dimensioni, l’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano ha indagato il livello di maturità delle analisi svolte dalle aziende italiane e cercato di capire quali sono le reali competenze necessarie. Nell’articolo ecco un’anteprima in esclusiva per ZeroUno dei risultati emersi

Negli ultimi anni, la diffusione dei big data ha avuto la capacità di catalizzare l’attenzione del top management delle grandi organizzazioni. La maggiore disponibilità di dati e la capacità di raccoglierli con tecnologie all’avanguardia, tuttavia, non bastano a fare un salto nella maturità di utilizzo e nei benefici che se ne possono ottenere. All’interno dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano, tramite il coinvolgimento di 950 imprese di tutte le dimensioni, nella Ricerca 2016 si è indagato il livello di maturità delle analisi svolte da parte delle organizzazioni italiane.

 

I modelli di analytics di riferimento

Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

L’analisi dei dati può condurre a diversi livelli di conoscenza correlati alla tipologia di modelli di analytics messi in campo. È possibile identificare quattro categorie principali:

  • Descriptive Analytics, l’insieme di strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali. Tali strumenti permettono di accedere ai dati secondo viste logiche flessibili e di visualizzare in modo sintetico e grafico i principali indicatori di prestazione;
  • Predictive Analytics, strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro; sono caratterizzati da tecniche matematiche quali regressione, forecasting, modelli predittivi, ecc;
  • Prescriptive Analytics, tool avanzati che, insieme all’analisi dei dati, sono capaci di proporre al decision maker soluzioni operative/strategiche sulla base delle analisi svolte;
  • Automated Analytics, capaci di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte.

L’utilizzo di tali classi di analytics richiede competenze e livelli di comprensione dei fenomeni differenti, oltre che la disponibilità e la capacità di analizzare dati.

 

Sempre secondo i risultati dell’Osservatorio, nelle grandi imprese (organizzazioni con più di 249 addetti) la diffusione di descriptive analytics è ormai un dato di fatto, presente nell’89% delle organizzazioni coinvolte, dove nel 82% dei casi l’utilizzo è ormai a regime almeno su alcuni ambiti applicativi. I predictive analytics risultano attualmente l’arena di maggior interesse, con una diffusione al 59%, sebbene ancora confinata ad alcuni ambiti applicativi (30%) o in fase di pilota (28%). Del restante 42%, ben il 37% ne sta però valutando l’utilizzo nei prossimi 12 mesi. Ancora molto indietro prescriptive e automated analytics, presenti rispettivamente nel 23% e nel 10% delle organizzazioni, perlopiù a livello di pilota.

Spostando l’attenzione sulle aziende Pmi, (organizzazioni con un numero di addetti compreso tra 10 e 249), lo scenario cambia drasticamente. La Ricerca è stata realizzata attraverso una rilevazione che ha coinvolto 800 Pmi, che sono state segmentate per dimensione aziendale (distinguendo tra piccole imprese – tra 10 e 49 addetti – e medie imprese – tra 50 e 249 addetti), macro-settore di industria e macro-regione territoriale.  La sensibilità all’utilizzo dei dati, rispetto alle grandi imprese dove tutte hanno in atto iniziative, si mostra molto più bassa: solo un’azienda su tre adotta modelli di descriptive analytics (34%), con percentuali più alte nelle organizzazioni di medie dimensioni (39%), rispetto a quelle piccole (33%). L’utilizzo di modelli di predictive è ancora limitato a poche organizzazioni (16%), mentre prescriptive e preemptive analytics sono ancora scarsamente conosciuti.

Secondo Carlo Vercellis, Responsabile scientifico dell’Osservatorio “le grandi imprese stanno finalmente comprendendo ‘cosa fare’ con i big data, passando a una fase molto concreta di sperimentazione e realizzazione di progetti, anche su ambiti di frontiera. L’attenzione del top management ha permesso di liberare risorse per l’innovazione guidata dai dati, che si esplicita in iniziative di ampio respiro, non più limitate a specifici processi aziendali”.

Limitandosi a considerare le Pmi che analizzano i dati almeno in logica descriptive, nel 18% dei casi le analisi vengono fatte con software generalisti (per esempio foglio elettronico) o demandando a strutture esterne all’organizzazione. Quattro Pmi su dieci (41%) hanno software di visualizzazione e analisi dei dati dedicati, che tuttavia sono solo parzialmente integrati con i sistemi informativi dell’impresa.  Nella restante parte dei casi (41%), esistono software avanzati, completamente integrati con i sistemi transazionali.

 

Competenze: si fa presto a dire data scientist…

Alessandro Piva, Responsabile della Ricerca dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Per passare da un approccio contingente a uno strategico in questo scacchiere di opportunità sempre più ampio, le organizzazioni hanno bisogno di nuove competenze, nuove figure multidiscipliari, in grado di coprire un ampio spettro di dominii del sapere. Negli ultimi anni, anche in Italia, hanno iniziato a diffondersi profili nuovi, come quello del data scientist. Da tre anni l’Osservatorio monitora la diffusione di tali figure professionali all’interno delle grandi organizzazioni. Nel 2016, tre grandi aziende su dieci dichiarano di contare nel proprio organico figure di data scientist, una percentuale di diffusione che si conferma sostanzialmente stabile con quanto rilevato lo scorso anno. Tuttavia aumenta la consapevolezza di questo ruolo che, rispetto al passato, viene codificato in modo formale più diffusamente (7% nel 2016 contro il 4% nel 2015).

Secondo Alessandro Piva, Responsabile della Ricerca dell’Osservatorio “le organizzazioni in Italia mostrano un crescente interesse verso i data scientist e si chiedono quali modelli organizzativi mettere in campo per gestire i big data, quali competenze internalizzare e quali invece demandare all’esterno. Esistono diverse possibilità in questo senso, che occorre valutare sulla base del business in cui opera l’azienda”.

Per indagare l’affermarsi di questa figura, l’Osservatorio ha condotto una rilevazione internazionale che ha coinvolto poco meno di 300 data scientist a livello globale. All’interno della survey, si sono studiate le aree di competenza distintiva per i data scientist. Le principali riguardano:

  • Knowledge Deployment: la capacità di creare interessanti rappresentazioni di dati (data visualization) e consentire quindi una miglior interpretazione dei dati stessi. IRappresenta inoltre la capacità di sviluppare messaggi che possano influenzare positivamente le azioni degli stakeholder chiave;
  • Technology: è la capacità di gestione di dati strutturati e non, la capacità di estrarre dati da fonti esterne tramite metodologie e tool specialistici e infine la capacità di manipolare e distribuire grandi quantità di dati;
  • Programming: riguarda la conoscenza informatica e programmazione;
  • Machine Learning/Analytics: la conoscenza di modelli e tecniche matematiche (analisi di apprendimento supervisionato e non supervisionato) e la conoscenza di tool e linguaggi in grado di effettuare analisi;
  • Business: conoscenza di aspetti di business (conoscenza di effetti di micro e macro-economia, processi funzionali come il marketing, finance produzione o distribuzione) e di industry.

Sulla base di questa classificazione, è stato sviluppato un modello di maturità dal quale emerge come i data scientist mostrino un livello avanzato di competenze in ambito di knowledge deployment (72% dei rispondenti), machine learning/analytics (62%).  Più limitata la conoscenza negli ambiti technology (50%), business (47%) e programming (39%).

Patrizia Fabbri
Giornalista

Patrizia Fabbri è giornalista professionista dal 1993 e si occupa di tematiche connesse alla trasformazione digitale della società e delle imprese, approfondendone gli aspetti tecnologici. Dopo avere ricoperto la carica di caporedattore di varie testate, consumer e B2B, nell’ambito Information Technology e avere svolto l’attività di free lance per alcuni anni, dal 2004 è giornalista di ZeroUno.

Articolo 1 di 4