Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Come garantire il successo dei progetti di big data analytics

pittogramma Zerouno

Prospettive

Come garantire il successo dei progetti di big data analytics

Le best practice per evitare che i progetti di advanced analytics su big data, AI e machine learning si arenino a livello dei proof of concept. Il tema discusso in una tavola rotonda nel corso dell’evento “Data Science: time to grow up” organizzato nello scorso novembre a Milano dall’Osservatorio Big Data & Business Analytics del Politecnico di Milano

24 Dic 2019

di Piero Todorovich

Tra i problemi che affliggono molti progetti di big data analytics d’impresa c’è quello di non riuscire a superare la fase del proof of concept (POC) e quindi di arenarsi prima del delivery. Un tema spinoso che è stato oggetto di riflessioni e di una tavola rotonda nel corso dell’evento Data Science: time to grow up organizzato nello scorso novembre a Milano dall’Osservatorio Big Data & Business Analytics del Politecnico di Milano per presentare i dati della Ricerca 2019, occasione per discutere di best practice per progetti di successo con responsabili di aziende che hanno gestito realizzazioni.

“I motivi per cui molti progetti analitici e AI si arenano sono di varia natura, spesso non solo tecnica ma anche organizzativa – spiega Carlo Vercellis, Responsabile Scientifico Osservatorio –. Spesso c’è alla base un rifiuto a usare il sistema da parte degli utenti business che non sono stati adeguatamente coinvolti nelle fasi della sperimentazione e quindi non sono ben consapevoli di cosa fa il software”.

Altri problemi riguardano l’alimentazione dei dati, “che nella soluzione implementata sono meno controllati e puliti rispetto a quelli usati per le sperimentazioni, inficiando l’affidabilità del risultato – prosegue Vercellis -. Capita spesso, inoltre, che il sistema finale non abbia le caratteristiche di soluzione pacchettizzata, funzionale e non sia veloce nell’output come gli utenti si aspettano. Per avere successo le soluzioni di intelligenza artificiale e ML non devono costare troppo e devono comprendere processi automatizzati”.

L’importanza dell’esperienza nelle soluzioni analitiche

Come garantire progetti di successo? Per Vincenzo Manzoni, Data Science Director di Tenaris il segreto è restare il più possibile vicino agli utenti e dare le giuste priorità: “Partiamo sempre dalle idee che arrivano al nostro dipartimento dalla direzione centrale – spiega il manager –. Qui facciamo la selezione, distinguendo tra progetti prioritari che riguardano la sicurezza delle persone, strategici che non hanno bisogno di kpi e gli altri. Per questi ultimi facciamo una quantificazione dei vantaggi a lungo termine; partiamo da progetti semplici che permettano di avere subito dei risultati, quindi correggiamo il tiro, quantifichiamo i costi e il grado di miglioramento dei kpi aziendali”.

Per Stefano Gatti, Head of Data & Analytics di Nexi, gran parte del successo dei progetti dipende dall’integrazione con la produzione: “Nexi eroga servizi di pagamento per il mondo bancario e delle aziende – spiega Gatti – ed è per noi un valore poter rendere facile l’uso di strumenti complessi per analisi del transato e altri parametri. Non crediamo nei POC, ma avviamo progetti pensando fin da subito a come si integrano con la produzione”. Nexi ha oggi una data factory con 80 persone, engineer dell’applicazione e data architect che lavorano assieme. Ha creato una data community interna extra organigramma per condividere progetti e tematiche, collaborare con il business nella definizione degli obiettivi e alla soluzione dei problemi che riguardano il dato e la sicurezza.

foto Osservatorio BigData
Da sinistra: Carlo Arioli EMEA marketing manager di Vertica Analytics; Stefano Gatti, Head of Data & Analytics di Nexi; Vincenzo Manzoni, Data Science Director di Tenaris; Carlo Vercellis, Responsabile Osservatorio Big Data Analytics e Business Intelligence; Mauro Arte, co-fondatore & COO di Datrix

Come garantire il successo dei progetti di AI e ML

Per Mauro Arte, co-fondatore & COO di Datrix, società di servizi di data intelligence, è fondamentale che i progetti di machine learning riescano a dare in poco tempo i risultati ai clienti: “Devono essere veloci sia nella messa a punto delle capacità di data ingestion sia in quella di dare risultati – spiega il manager –. Facciamo spesso dei POC, ma oggi alcuni progetti vanno direttamente in produzione garantendo risultati in 2-3 mesi”.

In tre mesi Datrix ha portato in produzione un progetto ML per Italotreno (la piattaforma di ecommerce di NTV), basato sulla piattaforma Google Analytics 360: “Nei progetti è importante avere ben definiti gli obiettivi – continua Arte – identificare i kpi quando è possibile”. Una componente importante riguarda la visualizzazione dei dati: “Qui serve definire chi sono i fruitori e le piattaforme da usare per accedere agli insight”.

La velocità di realizzazione dei progetti è un aspetto critico del successo anche per Carlo Arioli EMEA marketing manager di Vertica Analytics, che porta l’esempio di una realizzazione di predictive analytics presso Philips Italia, per il controllo di circa 30.000 apparati diagnostici d’uso ospedaliero. “La disponibilità di una vasta libreria di modelli di predictive analytics ha velocizzato la realizzazione – spiega il manager –. Sono state inoltre utili le funzionalità per semplificare gli aspetti organizzativi, la realizzazione di dashboard e l’uso del linguaggio come SQL per aiutare l’interazione delle persone con i dati”.

Il monitoraggio e la gestione dei fallimenti dei progetti

Poiché non tutti i progetti di advanced data analytics e ML arrivano in produzione o restano utili nel corso del tempo è importante gestire i fallimenti, quando le cose non vanno come previsto. Per Vincenzo Manzoni di Tenaris è molto importante il monitoraggio, “per capire come gli utenti usano lo strumento e per cosa – spiega il manager -. I modelli in produzione devono comportarsi come nei test, non devono portare risultati errati di fronte a situazioni nuove, fermi macchina, ecc. Sappiamo dall’inizio che alcuni progetti sono a rischio, cerchiamo quindi di condividere questo rischio coinvolgendo maggiormente le line of business”.

L’aspetto organizzativo è centrale anche per Stefano Gatti di Nexi: “Disporre delle competenze giuste al posto giusto e d’integrazione tra i business aziendali sono fattori che abbassano il livello d’insuccesso in questi progetti e che aiutano introdurre l’uso di strumenti innovativi. Il monitoraggio dei sistemi aiuta a capire le esigenze di procedere a ri-tarature sui dati. Nel caso in cui i dati devono essere elaborati in realtime sono fondamentali la buona progettazione del sistema e la valutazione del ciclo di vita dei dati”.

Piero Todorovich

Giornalista

Giornalista professionista dal 91, ha scoperto il Computer negli Anni 80 da studente e se n'è subito innamorato, scegliendo di fare della divulgazione delle tecnologie e dell'informatica la propria professione. Alla passione per la storia delle tecnologie affianca quella per i viaggi e la musica.

Argomenti trattati

Approfondimenti

P
predictive analytics
Come garantire il successo dei progetti di big data analytics

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 2