Approfondimento

Advanced Analytics, criticità e opportunità raccontate da utenti e vendor

Nonostante alcuni rallentamenti indotti dalla pandemia, le aziende più mature hanno proseguito il percorso di adozione pur senza ignorare alcune difficoltà, come indicano le testimonianze riportate nel corso della tavola rotonda nell’ambito del convegno di presentazione dell’Osservatorio Big Data & Business Analytics del Politecnico di Milano

Pubblicato il 12 Feb 2021

Osservatorio Big Data & Business Analytics del Politecnico di Milano

Si indica con advanced analytics “l’analisi automatica o semi-automatica dei dati usando tecniche e prodotti sofisticati”, è la definizione di Gartner, riportata nel corso del suo intervento nella tavola rotonda che si è tenuta durante la presentazione della Ricerca 2020 dell’ dell’Osservatorio Big Data & Business Analytics del Politecnico di Milano, da Fabrizio Marini, Data Analytics Domain Leader – Cloudera Italia.
Secondo l’Osservatorio Big Data & Business Analytics del Politecnico di Milano, che da tempo analizza la maturità delle imprese in questo ambito, il 42% delle grandi aziende aziende (oltre mille dipendenti) si può considerare maturo in ambito advanced analytics , mentre il 12% è ancora legato all’analytics tradizionale, come risulta dalla mappatura.

MATURITA’ IN AMBITO ADAVNCED ANALYTICS
Fonte: Osservatorio Big Data & Business Analytics del Politecnico di Milano

Su queste tecnologie si registra dunque una fase di transizione per la quale è utile comprendere successi ma anche limiti che ancora frenano un ricorso più intenso.

Fabrizio Marini, Data Analytics Domain Leader – Cloudera Italia.

Esempi di analisi basata su computer vision in Pirelli

Alessandro Pessi, oggi Operational Excellence site Head, TEVA Italia, racconta la sua esperienza in Pirelli, dove fino allo scorso ottobre era Responsabile industriale engineering Europa, unità che ha la missione di misurare i tempi di ciclo, la saturazione e l’efficienza degli impianti e degli operatori. “Questa attività è stata trasformata dalla disponibilità e dall’utilizzo dei dati registrati dalle macchine e dalla sensoristica ma si basa ancora in gran sull’osservazione diretta”. Proprio su questa componente si sono sperimentate osservazioni automatiche basate su computer vision. Le applicazioni, realizzate in poche settimane, differiscono da quelle più comuni finalizzate alla qualità e alla manutenzione predittiva e afferiscono a due tipologie: object detection & tracking e rilevazione delle posture dei lavoratori.

Alessandro Pessi, oggi Operational Excellence site Head, TEVA Italia

Un primo esempio prevede il posizionamento, a bordo linea di una macchina confezionatrice, di una camera che esegue uno scatto ogni 5 minuti. Le immagini, memorizzate e rielaborate secondo un algoritmo che trova la posizione dei materiali attorno alla macchina, aiutano ad analizzare il flusso dei materiali per valutare la saturazione e l’occupazione dell’area.

Telecamere posizionate sui punti dove si possono creare incagli, che in precedenza trasmettono su monitor (dove non è detto che momenti di criticità vengano notati) abilitano la rielaborazione di algoritmi per tracciare il materiale e allertare se si presenta il rischio che il flusso diventi discontinuo.

Altri due applicazioni riguardano l’analisi delle posture durante il lavoro. Il primo riprende un operatore esperto che esegue un ciclo definito come standard. “Durante un ciclo di lavoro (da 1 minuto e mezzo circa) la persona esegue una specie di balletto per potersi trovare al posto giusto nel momento giusto ed eseguire l’operazione corretta”, spiega Pessi. Durante il training, si misura quanto le persone in addestramento si allontanino dalla standard, per aiutarle a trasformare i loro movimenti in un ciclo più fluido e corretto. Un’applicazione di tipo ergonomico serve invece salvaguardare l’apparato muscolo-scheletrico. L’analisi automatica del video consente di misurare con continuità le posizioni assunte e dare supporto all’ergonomo che fa l’assessment.

Il problema privacy in tutti questi casi è stato superato con un’analisi in locale che trasferisce solo i risultati con il vantaggio aggiuntivo di evitare problemi di storage e traffico di rete.

Diventare una data driven company: il viaggio di RAI verso l’analisi emozionale

Massimo Rosso , Direttore ICT – RAI ricorda il percorso della sua azienda, iniziato nel 2013-14 con la dematerializzazione del prodotto, a partire dalla digitalizzazione dei TG: “Oggi ci stiamo rendendo conto che le tecnologie per l’azienda data driven sono disponibili e che la sfida è innanzi tutto culturale”, sottolinea.

Massimo Rosso , Direttore ICT – RAI

RAI, in quanto servizio pubblico, se vuol mettere al centro i dati, porsi domande anche di tipo etico, relative ai dati, agli algoritmi, alle persone. “Dobbiamo comprendere a fondo i vari passi dal momento in cui acquisiamo i dati, costruiamo gli algoritmi, utilizziamo elementi di analisi, come gestiamo la conservazione, quali sono gli usi secondari e primari”, aggiunge.

Con queste premesse, la RAI si è posta l’obiettivo di capire l’effetto di una TV generalista sulla conversazione cross mediale degli italiani, iniziando a sviluppare una sentiment analysis.

A fine 2019, RAI ha lanciato, M.emo.Rai, motore emozionale, basato su intelligenza artificiale, che permette di analizzare le otto emozioni di base più una composta, analizzando i dati estratti da social come Twitter e Instagram, un’evoluzione del freddo Auditel del secolo scorso capace di misurare solo numeri di ascolto.

Per portare a tutta l’azienda questo strumento è innanzi tutto necessario un rapporto fra la dimensione tecnica, rappresentata dall’ Ict e il con marketing.

Comprensione e comunicazione per rendere il dato patrimonio aziendale

Come far sì che l’Advanced Analytics diventi parte della cultura aziendale e sia utilizzata da tutti, come strumento di supporto del business è il tema dell’intervento di Serena Arrighi, CEO – Bnova. “Per il futuro le sfide sono legate alla comprensione e all’utilizzo di nuove modalità di comunicazione – spiega – Si deve partire dall’assunto che la comunicazione umana è intrinsecamente multimodale. Nel mondo fisico utilizziamo il linguaggio, la gestualità, il corpo, … Ma anche nel mondo digitale la comunicazione è multimodale”. Un esempio tipico è la coppia testo e immagini, dove i due elementi vanno analizzati insieme per evitare rischio di perdita di informazioni o fraintendimento del senso del messaggio. In un post, ad esempio, l’ironia del testo è rivelata dall’immagine o viceversa.

Serena Arrighi, CEO – Bnova

“Abbiamo sviluppato, con il laboratorio di linguistica computazionale dell’università di Pisa, un sistema basato su tecniche di natural language processing (NLP) e computer vision che svolge l’analisi congiunta di immagini e testo per arrivare a un significato unico”, aggiunge.

La seconda sfida è quella della comunicazione, ottimizzata ad esempio attraverso data visualization e story telling, importante per far diventare il dato un asset aziendale utilizzato da chiunque in qualunque ruolo (operativo o direzionale). “Dobbiamo ricordare che il nostro output va a un pubblico vasto ed eterogeneo. La rappresentazione del dato deve essere dunque immediata e colloquiale, lavorando moltissimo sulla grafica, andando verso l’infografica”, suggerisce e prevede in un futuro non la possibilità di interrogare in linguaggio naturale dati strutturati presenti in sistemi rigidi (gestionali e analitici) generalmente interrogati attraverso sistemi e linguaggi di tipo formale.

Per il successo dei progetti di advanced analytics servono gli strumenti giusti

La capacità di comunicare è particolarmente importante se è vero che il successo dei progetti di advanced analystics deriva per il 50% dall’adozione da parte degli utenti, come sostiene Fabrizio Marini di Cloudera, mentre ancora molti pensano i principali problemi derivino dalla tecnologia e dall’inadeguatezza degli skill del personale. I progetti spesso falliscono per la dispersione dei diversi cicli su una molteplicità di figure.

“Servono invece piattaforme facili e intuitive che aiutino anche a sbagliare velocemente – sostiene – Risultano utili strumenti come la what if analysis, per evitare di concentrarsi a lungo su un problema sbagliato o sull’aspetto sbagliato del problema giusto, e per aggregare il dato, reperirlo da qualsiasi fonte senza scrivere codice ma lavorare tramite diagrammi flusso”, spiega.

Una causa di fallimento può derivare anche dalla difficoltà di ridare vita a un algoritmo non più adatto alle nuove esigenze, in mancanza di un’infrastruttura in grado di aggiornarlo e rielaborarlo.

Le soluzioni data streaming, infine, si adattano bene alle nuove funzionalità di analisi, capovolgendo il problema. “In passato nostre decisioni dipendevano dai dati già disponibili, mentre ora facciamo dipendere i dati dalle decisioni che vogliamo prendere, grazie a strumenti che generano i dati, li ri-assemblano, li forniscono puliti come servono, consentono di interrogarli in tempo reale per periodi limitati, senza necessità di archiviazione”. Ne risulta la capacità di prendere decisioni importanti in tempo reale e trasformare i dati in risorse ad altro rendimento.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3