Il cloud computing come catalizzatore della data governance

pittogramma Zerouno

Attualità

Il cloud computing come catalizzatore della data governance

L’evento IBM del 23 settembre dedicato all’application modernization mette in agenda diversi punti di discussione, tra cui la gestione delle informazioni. Ecco un’anteprima degli argomenti discussi con i CIO di importanti realtà italiane

03 Ago 2020

di Arianna Leonardi

Il cloud computing si afferma oggi tra i principali catalizzatori delle iniziative di trasformazione digitale delle imprese. È un percorso obbligato per l’evoluzione del business, che tuttavia presenta complessità non banali. Quando si affronta un progetto di migrazione sulla nuvola, infatti, i temi da considerare sono molteplici e riguardano tecnologie, organizzazione e cultura.

In collaborazione con Digital360, IBM sta organizzando diversi eventi per chiarire le questioni più spinose relative al modello as-a-service e ai nuovi ecosistemi It. Il 23 settembre è in programma un convegno dedicato allo sviluppo e alla modernizzazione delle applicazioni secondo i paradigmi cloud-oriented. Pertanto è stata aperta una tavola rotonda preliminare con l’obiettivo di ridefinire l’agenda e i punti di attenzione del prossimo evento, grazie al contributo di alcuni CIO appartenenti a prestigiose società italiane.

Il dato nell’omnicanalità e in contesti real-time

Il topic principale di discussione riguarda la governance del dato in ambienti ibridi e distribuiti, con una serie di considerazioni sui temi correlati.

“Dai confronti con le aziende – esordisce Patrizia Fabbri, Direttore di ZeroUno – emerge chiaramente il problema della mappatura, pulizia e normalizzazione dei dati soprattutto nell’ambito delle iniziative di omnicanalità. La data governance rappresenta un prerequisito critico anche per il successo dei progetti legati all’intelligenza artificiale. Infine, serve una data strategy efficace a supporto delle applicazioni di analytics in real time (marketing di prossimità, identificazione delle frodi, soluzioni IoT e così via), dove le informazioni vengono elaborate immediatamente quando arrivano e non dopo essere stati raccolti nei database o datalake”.

Il cloud spinge verso un approccio strutturato al dato

La parola passa a Stefano Mainetti, Responsabile scientifico dell’Osservatorio Cloud Transformation del Politecnico di Milano. “Attualmente – afferma – il trend principale verte sulla creazione di ambienti hybrid. Il modello It tradizionale mette al centro le business application, aggiungendo collateralmente le funzionalità analitiche. Il modello a tendere invece sovverte l’ordine, ponendo gli analytics e l’intelligenza artificiale al cuore della struttura. Il dato insomma diventa il fulcro e il business sta premendo perché il cambio di paradigma avvenga rapidamente”.

Le implicazioni sono importanti: l’It aziendale deve farsi carico della gestione dei dati (prima nascosti all’interno delle business application) durante l’intero ciclo di vita. La varietà delle informazioni (diverse per origine e formato) e la velocità dei processi di gestione (che tende al real-time) aggiungono ulteriore complessità. “Serve una struttura di data governance – suggerisce Mainetti – che definisca i percorsi di attraversamento dei dati all’interno dei silos applicativi, estraendo valore. Il cloud spinge verso la centralità delle informazioni e occorre agire tempestivamente”.

Integrazione dei dati e agilità richiesta dal business

I CIO presenti alla tavola rotonda arricchiscono gli spunti iniziali con l’apporto dell’esperienza diretta. “Il tema – sostiene Orietta Campironi, CIO di Gruppo Messina – è duplice e riguarda sia la strategia per ottimizzare la migrazione sia la necessità di gestire l’integrazione tra diverse tipologie di dati, con l’agilità e le tempistiche richieste dal business. La governance delle informazioni è fondamentale per offrire una delivery adeguata”.

Come afferma Fabbri, entra in gioco un altro elemento importante: il bilanciamento tra le aspettative aziendali di velocità e l’esigenza It di controllo. “Nell’era dei social – interviene Debora Guma, CIO di Lactalis – i dati si consumano in tempo reale. Tuttavia, nelle aziende le informazioni vengono consumate ancora a consuntivo”. Persiste insomma una dicotomia tra il vissuto quotidiano (quindi le richieste del business) e la fattibilità degli analytics in tempo reale.

Secondo Antonio Fumagalli, CIO & Ciso dell’ASST Papa Giovanni XXIII di Bergamo, la criticità fondamentale non risiede nell’agilità ma piuttosto nel volume dei dati da analizzare (che richiede strumenti alternativi alle soluzioni di business intelligence tradizionali), nonché nell’integrazione di fonti eterogenee, basate su semantiche diverse. “Il problema – aggiunge – riguarda anche la compliance normativa, la data protection e la privacy”.

Luigi Clivati, IBM Cloud Sales Leader, Italy, ribadisce che i silos It rappresentano il principale ostacolo all’agilità richiesta dal business. “Anche la compliance – suggerisce -, quindi la capacità di governare il dato non soltanto sotto il profilo organizzativo ma anche regolatorio, viene spesso citata tra le urgenze. Un altro aspetto da sottolineare è la discrepanza tra esperienza privata e professionale: siamo tutti data citizens, abituati a fruire le informazioni immediatamente, ma in azienda la velocità attesa viene delusa. Tuttavia, il salto verso l’approccio data-centric non deve spaventare: può essere effettuato in sicurezza, ottenendo rapidamente i ritorni sull’investimento”.

Mainetti sposta l’attenzione sul concetto di integrazione e pulizia dei dati: “Oltre il 50% dei progetti analizzati attraverso l’Osservatorio – evidenzia – richiedono operazioni di bonifica delle informazioni, perché i dati non sono stati storicizzati correttamente. Entrare nel dominio specifico del dato e lì intervenire per renderlo fruibile alle applicazioni di artificial intelligence è una grande sfida organizzativa. Muoversi nei datalake dove i diritti sulle informazioni non sempre sono ben definiti aggiunge ulteriore complessità allo scenario”.

Partecipa al Time for Cloud

La trasparenza degli analytics e il cambio culturale

Un ultimo giro di opinioni con i CIO porta alla luce altri elementi di discussione. Un primo argomento concerne i percorsi evolutivi verso gli analytics prescrittivi e l’intersezione tra automazione e intelligenza artificiale; da qui, come sottolinea Campironi, diventa importante il tema del trust e della trasparenza dei modelli analitici e di apprendimento automatico.

“Bisogna evitare – puntualizza Clivati – che l’intelligenza artificiale diventi una black box, ma piuttosto aprire i processi analitici perché i modelli sottostanti siano visibili, anche a beneficio della compliance”.

“C’è inoltre la necessità – prosegue Campironi – di diffondere la consapevolezza sul potenziale dell’intelligenza artificiale come abilitatore di nuovi paradigmi di business, in grado di liberare risorse da dedicare ad attività a maggiore valore”.

“Infatti – asserisce Guma -, per stravolgere le architetture aziendali costruite negli anni, ci vogliono alla base motivazioni di business e un cambio di mentalità sostanziali. Entrano in gioco nuove tecnologie molto costose, complesse da implementare e che richiedono competenze spesso non presenti in azienda. Ecco perché serve costruire un approccio al dato disruptive e mi piacerebbe che durante l’evento venissero presentati dei case study”, aggiunge, sottolineando che se non proprio i fallimenti, le piacerebbe venissero evidenziate le criticità.

“Le storie di successo esistono a macchia di leopardo – conferma Mainetti – e puntano all’addestramento delle reti neurali sul patrimonio dati per fare emergere evidenze altrimenti nascoste. Le applicazioni preponderanti sono l’analisi del cliente per ridurre i tassi di abbandono e la manutenzione predittiva. Ancora poco diffusi i casi di aziende che stanno attuando un approccio sistematico alla data governance, perché ha impatti organizzativi importanti e richiede tempo”.

“Il punto – conclude Clivati – è coinvolgere gli utenti giusti e i decisori aziendali, non soltanto gli uomini It, arrivando alla democratizzazione del dato e garantendo soprattutto l’accesso ai risultati analitici. Attualmente bisogna anche affrontare il problema della carenza di competenze, perché c’è una grande richiesta e poca offerta. Durante l’evento del 23 settembre andremo a capire come risolvere questi problem organizzativi”.

Arianna Leonardi

Giornalista

Articolo 1 di 3