Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Big data: il momento è ora!
Dati novembre 2017 dell’Osservatorio Big Data Analytics

pittogramma Zerouno

Mercati

Big data: il momento è ora!
Dati novembre 2017 dell’Osservatorio Big Data Analytics

29 Nov 2017

di Patrizia Fabbri

In un contesto di crescita del mercato analytics (+22%), sono ancora molte le aziende che tendono a ritardare gli investimenti e la partenza di progetti. Rischiando di trovarsi rapidamente in una posizione di svantaggio rispetto ai competitor. Carlo Vercellis, responsabile scientifico dell’Osservatorio Big Data analytics & BI del politecnico di milano, illustra i principali trend sui quali porre l’attenzione

Big Data is now. Tomorrow is too late. Il titolo del Convegno di presentazione dei dati dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano esprime un senso di urgenza che Carlo Vercellis, Responsabile Scientifico dell’Osservatorio declina molto chiaramente: “Incontro molte imprese, elaboro progetti di data analytics, ma spesso mi trovo a confrontarmi con aziende indecise, che tendono a rimandare. Ebbene, oggi non è più possibile farlo perché il rischio è di doversi confrontare con competitor molto aggressivi, che stanno adottando o hanno già adottato strumenti innovativi di data analytics e un approccio più scientifico alla gestione di impresa. Il rischio è di trovarvi in una posizione precaria che finirà con il costringervi a uscire dal mercato”.

Carlo Vercellis

Responsabile Scientifico dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Il Convegno ha offerto numerosi spunti di riflessione: dagli impatti della data science su processi e modelli organizzativi, all’identificazione di una roadmap tecnologica per la data driven enterprise; da un focus su PMI e startup a un’analisi degli ambiti applicativi. Nelle prossime settimane, proporremo articoli di approfondimento su queste tematiche; in questo servizio ci focalizziamo invece sui principali trend emersi dall’edizione 2017 della Ricerca illustrati da Vercellis.

  1. Ridisegno delle relazioni con il cliente. “La relazione con il cliente è profondamente cambiata: non è il cliente che cerca il prodotto che gli interessa, ma è il prodotto che va alla ricerca del proprio cliente. Questo – spiega Vercellis – significa una conoscenza del cliente sempre più spinta in modo che sia possibile offrirgli quello che gli serve/interessa: è la convergenza tra Internet of Things e Internet of People”. Grazie a questa convergenza e, più in generale, alla digitalizzazione pervasiva è possibile sviluppare prodotti e servizi in grado di intercettare le esigenze dei clienti e aumentare i ricavi; si moltiplicano le possibilità di up-selling e cross-selling; si riduce il tasso di churn, identificando i comportamenti e i motivi dell’abbandono da parte dei clienti. “La fase di search, quelle di informazione, di acquisto del prodotto, di post vendita rappresentano un circolo virtuoso di raccolta di informazioni che sta cambiando radicalmente questa relazione. Ognuno di noi è un data point, un generatore di dati”, ribadisce il docente del Politecnico.
  1. Competenze forti, specifiche, creative. “Occorrono esperti dei nuovi temi, non dei nerd concentrati solo sull’aspetto tecnologico, ma persone che siano in grado di capire come declinare tutto questo nei processi aziendali; persone che siano in grado di coniugare capacità informatiche, matematiche e statistiche con competenze di management aziendale”, precisa Vercellis, ricordando la figura multidisciplinare del data scientist, così richiesta oggi dalle aziende.
  1. Nuovi modelli organizzativi. “Le aziende – precisa Vercellis – devono capire dove collocare le competenze, con quali team devono interagire. Nella scorsa edizione abbiamo visto diversi tipi di modelli tuttora caratterizzanti differenti approcci organizzativi, non esiste un unico modo per raggiungere l’obiettivo; il mondo è estremamente variegato da questo punto di vista”. L’edizione 2016 dell’Osservatorio (si veda l’articolo Big Data: qual è il livello di maturità delle aziende italiane) aveva identificato 4 differenti modelli organizzativi: Centralizzato con una struttura dedicata alla data science e l’identificazione formale di un Chief Data Scientist, che raccoglie le richieste del business; Matriciale, dove esiste una figura di Chief Data Scientist che ha il ruolo di coordinare le progettualità in modo cross rispetto alle funzioni di business, ma il team di data scientist è diluito all’interno delle diverse funzioni di business; Business Driven, dove non esiste una figura di coordinamento dei data scientist, che sono collocati a livello organizzativo direttamente nelle funzioni di business di riferimento; Ibrido, che rappresenta una composizione dei precedenti, con la coesistenza di una struttura organizzativa indipendente e la presenza di unità di data science nelle singole linee di business.
  1. Data governance. “La Data Governance è un tema sempre più articolato che non può essere affrontato solo dal punto di vista tecnologico: è un insieme di strategia, processi, regole. Ci sono problemi di security, privacy nella gestione degli accessi, di qualità, soprattutto in un universo in cui le infrastrutture dei dati diventano sempre più variegate e complesse. Accanto ai data warehouse, ai quali siamo ormai abituati – precisa il responsabile scientifico dell’Osservatorio – nascono e compaiono i data lake”. Si tratta di architetture specificatamente studiate per i big data che possono comportare alcuni rischi legati alla complessità nel determinare la qualità del dato o nel risalire alle analisi svolte sul dato dall’azienda. “Architetture che non possono più basarsi sull’approccio ETL (Extract, Transform, Load) tipico del data warehouse bensì su un approccio ELT ossia Extract, Load&Ingest e solo poi Transform, per ospitare ed elaborare dati che arrivano dall’esterno, dai social media, dai sensori. In uno scenario così complesso, garantire la qualità del dato non è cosa semplice”, dice Vercellis, passando al trend successivo, strettamente collegato a questo.
  1. Evoluzione della data infrastructure. “Una infrastruttura dati che evolve, affiancando un mondo basato su architetture distribuite, su hadoop, ecc. a quelle più tradizionali del data warehouse. Qual è il messaggio forte che emerge da questa evoluzione?”, chiede Vercellis, per poi rispondere prontamente: “Alcune aziende si erano illuse di trovare la soluzione one stop, ma questo scenario è sempre meno verosimile. Sempre più andiamo su un territorio variegato, nel quale bisogna sperimentare: dovete imparare a testare approcci e strumenti alternativi. Bisogna abbandonare l’idea dell’one stop e questa tendenza è dimostrata anche dalla diffusione massiva di soluzioni e piattaforme open source”.
  1. Cloud. “È uno scenario ormai consolidato per la big data analysis che consente di ridurre i costi di manutenzione, ma soprattutto di disporre di servizi allo stato dell’arte”, Vercellis porta l’esempio del deep learning per l’analisi delle immagini: “È un’attività che richiede risorse hardware fortemente parallele, le Graphical Processing Unit; accanto alle risorse computazionali e di storage, i grandi provider cloud internazionali stanno offrendo capacità di calcolo sofisticata, specifica per gli analytics, mettendo a disposizione numeri importanti di GPU”.
  1. Self service data analytics. “In passato – ricorda il docente – abbiamo parlato di self service BI: si trattava in pratica di una modalità di fare le query in linguaggio naturale senza bisogno di conoscere SQL, consentendo agli utenti di effettuare in modo autonomo estrazioni, reporting, disegnare grafici ecc. Oggi si cerca di andare in questa direzione anche per gli analytics”. Il professore è scettico sulla diffusione di questa modalità per analisi molto complesse, ma vi sono alcune attività “semplici”, come per esempio la visualizzazione dinamica dei dati, nella quale l’utilizzo di un approccio self service è destinato a un sicuro successo.
  2. Privacy e GDPR, ma non solo. “Sappiamo che il GDPR incombe, dove il tema più importante sta negli articoli che enunciano il principio che afferma che i dati devono essere utilizzati per i fini per i quali era stata richiesta l’autorizzazione e limitatamente nel tempo. Questo – ricorda Vercellis – cozza con il principio che da sempre ha caratterizzato l’attività delle aziende: metti via tutto che prima o poi lo utilizzerai. Come conciliare queste esigenze?”. Le strade possono essere diverse, ma quella che Vercellis ritiene essere la più interessante è vedere tutti noi “diventare degli oculati venditori di dati. La relazione con chi ha bisogno di informazioni su di noi, le aziende, deve essere win win”; se i dati sono la merce (o meglio l’oro nero, come vengono definiti) del XXI secolo, chi cede i propri deve avere un vantaggio e questa, conclude Vercellis “sarà anche la direzione per smarcare la questione delle autorizzazioni e dei consensi”.

Patrizia Fabbri
Giornalista

Patrizia Fabbri è giornalista professionista dal 1993 e si occupa di tematiche connesse alla trasformazione digitale della società e delle imprese, approfondendone gli aspetti tecnologici. Dopo avere ricoperto la carica di caporedattore di varie testate, consumer e B2B, nell’ambito Information Technology e avere svolto l’attività di free lance per alcuni anni, dal 2004 è giornalista di ZeroUno.

Argomenti trattati

Approfondimenti

B
Business Technology

Articolo 1 di 4