Prospettive

Data-driven manufacturing: la strada per ottenere il massimo dai propri dati

A causa di limiti tecnici e organizzativi, la manifattura non sta ancora valorizzando al massimo i propri dati. Occorre una strategia data-to-value molto precisa ed efficace, nonché collaborazione tra stakeholder interni ed esterni e skill digitali che non tutte le imprese possiedono. Ecco un possibile percorso virtuoso

Pubblicato il 14 Lug 2022

Data-driven manufacturing

Per conquistare mercati sempre più competitivi e basati su dinamiche in perenne evoluzione, la manifattura si trova al centro di una trasformazione senza precedenti. La sfida è ardua, poiché alle naturali esigenze di produttività si sommano quelle relative alla qualità dei prodotti, alla gestione di lotti sempre più piccoli, alla personalizzazione di massa e alla sostenibilità. Il tutto con un occhio vigile nei confronti del fattore resilienza, che obbliga le imprese a osservare non solo se stesse, ma anche quel complesso (e vivace) insieme di clienti, partner e fornitori che compone le supply chain moderne.

Valorizzare i manufacturing data, una strada in salita

Da almeno un decennio, l’industria punta a vincere le sue sfide attraverso la transizione verso modelli 4.0 o data-driven. In effetti, solo la piena valorizzazione dei manufacturing data può portare l’industria verso un livello di efficienza tale da allinearla alle dinamiche dei mercati attuali.

Tuttavia, come segnala McKinsey nel recente studio The Data-Driven Journey Towards Manufacturing Excellence, sono poche le imprese che hanno già sviluppato e applicano concretamente capacità analitiche avanzate. Di fatto, stiamo vivendo un periodo transitorio: la stragrande maggioranza delle aziende considera i dati un asset strategico per la propria crescita, ma solo il 17% ha già ottenuto valore tangibile dai propri investimenti.

In uno studio precedente (Data Excellence: Transforming manufacturing and supply systems) la stessa McKinsey sostenne che solo il 39% delle imprese fosse riuscita a estendere i propri casi d’uso data-driven al di là del singolo value stream, ovvero il processo produttivo di uno specifico prodotto.

Le cause di quanto appena descritto sono sia tecniche che organizzative. In primis, è certamente complesso implementare una forte collaboration tra tutti i portatori d’interesse, interni ed esterni, soprattutto quando il business dell’azienda è integrato in supply chain globali. I silos di dati non aiutano, così come una generale carenza di capability relative sia agli aspetti tecnici del data management, sia – e talvolta, soprattutto – allo sviluppo di una strategia sistemica e ben architettata. Le carenze a livello organizzativo si manifestano soprattutto in una governance estremamente complessa e articolata.

Gli ingredienti del successo, dalla data strategy a un’architettura moderna

Ottenere il massimo dai manufacturing data, che tutte le fonti danno in crescita esponenziale, significa per prima cosa implementare una corretta strategia data-to-value volta a “trasferire” l’intera impresa (e, spesso, anche i suoi partner) nell’era dello smart manufacturing, superando la classica associazione tra l’era 4.0 e il singolo processo produttivo, da cui l’interconnessione dei macchinari, il controllo remoto, la realtà aumentata nelle manutenzioni e via dicendo.

L’evoluzione deve riguardare il data management a tutto tondo: il layer di controllo (governance), le architetture dati, l’integrazione dati, la data security e, ovviamente, i tool e le competenze analitiche. Il principale ostacolo tecnico alla valorizzazione del dato manifatturiero resta il silo, unito a un aumento esponenziale non tanto nell’ambito dei volumi (fattore peraltro indubbio), quando nella varietà e nella distribuzione dei dati.

Non dimentichiamo che il manufacturing è un settore nel quale IoT e streaming data sono elementi cardine della trasformazione digitale e ‘alimentano’ fattispecie concrete come i digital twin. Coordinare e rendere sinergico un ecosistema di dati eterogenei, che a quelli di campo (operation, logistica) aggiunge quelli dei sistemi operazionali e quelli dei partner è una sfida che solo skill e capability avanzate possono gestire e indirizzare correttamente, tenuto anche conto che i dati sono localizzati in architetture enterprise fortemente distribuite, che dall’edge si estendono fino all’hybrid multicloud.

Per quanto non si tratti di un paradigma legato unicamente al manufacturing, non è un caso che Gartner continui a inserire il Data Fabric tra i top trend tecnologici: gli analisti hanno realizzato non solo la necessità di un concept architetturale in grado di indirizzare le sfide della data integration contemporanea (parte integrante del più ampio macrocosmo di data management), ma di puntare fortemente sui concetti di architettura distribuita e self-driving. L’idea di fondo, promossa da Gartner, è infatti quella dell’architettura dati autonoma, che grazie all’auto apprendimento sui metadati è in grado di indirizzare gli utenti verso la reale valorizzazione dei dati.

Valorizzare i manufacturing data significa intraprendere questo percorso, curando al tempo stesso i concetti di connettività veloce e affidabile e, ovviamente, di security e privacy. Per quanto concerne il primo aspetto, il 5G funge da potente abilitatore e acceleratore del percorso, poiché non si pone soltanto come alternativa al cavo nel mondo delle operations. Grazie al Network Slicing e ad altre tecnologie come il Multi Access Edge Computing, 5G può soddisfare le esigenze di ultra-affidabilità e bassissima latenza cui ambiscono gli shopfloor dell’era 4.0. In questo modo, 5G può essere alla base di nuove interfacce uomo-macchina (HMI), dei cobot, di fattispecie di manutenzione predittiva e molto altro.

Il cammino verso l’Autonomous Manufacturing

Di fronte a tutte queste sfide, è lecito domandarsi quale sia il percorso ottimale verso la valorizzazione dei manufacturing data. Ci dà una mano McKinsey quando identifica un percorso a tre step verso la Manufacturing Data Excellence, contraddistinto da gradualità e, al tempo stesso, da quell’approccio olistico di cui si è detto. Il cammino prevede un incremento graduale sia a livello di capacità analitiche dell’azienda, sia come collaborazione tra divisioni, stakeholder e partner esterni.

Il primo passo verso la Data Excellence è già stato percorso da molte aziende e descrive il paradigma 4.0 nella sua accezione più comune, che si sostanzia nello sviluppo di applicazioni finalizzate a ottenere visibilità e a ottimizzare i processi operativi. La fase di integrazione, per cui ci si avvale di apposite data platform, si basa principalmente sui dati di campo (IoT, sistemi di controllo) con l’aggiunta di quelli operazionali provenienti dai MES e dagli ERP. Attraverso attività di reporting o dashboard in tempo reale, le aziende possono prendere decisioni data driven rivolte all’ottimizzazione delle proprie risorse, alla riduzione dei costi produttivi e dei lead time, concretizzando le promesse di efficienza del paradigma 4.0.

Il passo successivo consiste nell’ampliamento del raggio d’azione all’intera azienda e ai partner, con contestuale adozione dell’approccio predittivo tipico dell’Intelligenza Artificiale. Parliamo dunque di Predictive Analytics e, a titolo d’esempio, di tutti i relativi benefici in termini di manutenzione predittiva e di demand forecasting. Gli analisti fanno notare quanto la qualità dell’approccio predittivo sia direttamente proporzionale alla capacità dei sistemi di correlare volumi sempre più ampi di informazioni.

Motivo per cui in questa fase va introdotto il concetto di data collection su larga scala, ovvero a livello ecosistemico. Adottare l’approccio predittivo rispetto a processi della supply chain come la gestione dei trasporti può fornire un ulteriore allineamento delle operations alle dinamiche dei mercati, estendendo i benefici del data-driven manufacturing oltre l’efficienza del punto precedente. Qui, infatti, si parla anche di ottimizzazione della customer experience ed è il momento esatto di ragionare in termini di architettura e piattaforma dati enterprise-wide, come definito precedentemente.

Il punto d’arrivo è quello dei sistemi autonomi, o meglio – riportando l’espressione di McKinsey – self-optimizing. È un passaggio logico successivo al precedente, laddove gli algoritmi migliorano le proprie performance al punto da poter prendere (almeno alcune) decisioni autonome sia a livello di processo produttivo che di Supply Chain. Le fattispecie sono moltissime e descrivono un paradigma data-driven in profonda evoluzione, che dall’ottimizzazione del singolo processo giungerà a perfezionare interi ecosistemi connessi.

A livello tecnico, l’evoluzione è serrata e i modelli sono concretamente realizzabili. Piuttosto, all’aumento dei dati gestiti e della collaboration, aumentano in modo avvertibile gli impatti sulla security e sulla compliance, richiedendo una riflessione molto approfondita a livello di governance. Ma questo è un altro discorso…

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5