Il dato: l’asset strategico dell’azienda ‘information centric’

pittogramma Zerouno

Il dato: l’asset strategico dell’azienda ‘information centric’

Per ottenere una visione complessiva e governare il patrimonio informativo allo scopo di incrementare la redditività del business e ridurre i costi operativi, il dato risulta essere asset fondamentale e assume un ruolo centrale sia sotto il profilo del business sia sotto quello dell’It. Qualità, consistenza, coerenza, tracciabilità e protezione del dato sono, infatti, elementi imprescindibili dai quali scaturisce la disponibilità di informazioni realmente utili al business. Ne abbiamo discusso nel corso di un recente Executive Dinner organizzato da ZeroUno in collaborazione con Informatica.

11 Dic 2012

di Nicoletta Boldrini

Da un lato l'estrema variabilità dei mercati spinge l'impresa ad adattare continuamente alle esigenze della domanda i propri prodotti e servizi, innovando; dall'altro la necessità di ottimizzare, identificando aree di risparmio e di nuova efficienza, obbliga le imprese a rivedere modalità operative e organizzative. Due ‘viste’ che possono trovare nelle tecnologie Ict un elemento abilitatore comune. Nella pratica, però, per riuscire a dare ai sistemi informativi questo ruolo strategico, è fondamentale intervenire nel governo della complessità. In questo scenario, il dato assume un ruolo centrale sia sotto il profilo del business sia sotto quello dell’It. “Ma come si può realizzare quell’asset strategico rappresentato dalle corrette informazioni disponibili in azienda ai fini di una maggiore reddittività, produttività e competitività aziendale?”, chiede Stefano Uberti Foppa, direttore di ZeroUno, aprendo i lavori di un recente Executive Dinner organizzato in collaborazione con Informatica Software Italia.

L'articolo continua alla pagina seguente

*BRPAGE*

“La difficoltà maggiore delle aziende oggi risiede nel contesto generale in cui operano, caratterizzato da complessità, variabilità e velocità di cambiamento. Elementi con cui da sempre le organizzazioni devono confrontarsi ma che hanno avuto una fortissima ‘accelerazione’ negli ultimi tre/cinque anni. L’elemento maggiormente impattante è la complessità competitiva, inasprita dalla crisi economica, che spinge le aziende ad una continua ricerca di nuove modalità di approccio al mercato per offrire prodotti e servizi innovativi o che si differenziano dai competitor”. “In questo contesto assume un ruolo determinante il patrimonio informativo dell’azienda che, per essere efficace sul piano del business, deve però essere costruito su dati di qualità, consistenti, coerenti, tracciabili e sicuri/protetti, chiamando in causa l’imprescindibile ruolo dell’It”, commenta Uberti Foppa.

Paolo Pasini, docente Area Sistemi Informativi Sda Bocconi e responsabile dell'Osservatorio Business Intelligence Sda Bocconi School of Management

“I dati rappresentano la realtà d’impresa in tutte le sue forme e manifestazioni, sono la materia prima per la produzione delle informazioni con le quali si possono generare insight e conoscenza aziendale”, esordisce Paolo Pasini, docente Area Sistemi Informativi Sda Bocconi e responsabile dell’Osservatorio Business Intelligence Sda Bocconi School of Management. “Scopo della data governance, infatti, è costruire un patrimonio dati che consenta di produrre in modo ampio, affidabile e tempestivo tutte le informazioni necessarie in azienda”.
“Obiettivo non semplice se si pensa che oggi il volume, la varietà e la velocità di produzione e fruizione dei dati cresce in modo esponenziale e a ritmi vertiginosi”, aggiunge Pasini. “Attenzione infatti a non ridurre la tematica del Big data al mero problema della crescita di volume dei dati. La criticità nasce dal mix di volume, varietà e velocità che spinge l’innovazione tecnologica a identificare nuove tecniche di data management e data analytics”.

Fredi Agolli, country manager di Informatica Software Italia

“Il mondo dell’It è influenzato da tre megatrend tecnologici: cloud, social e mobile computing, che stanno ridefinendo il ‘dove’, il ‘cosa’ e il ‘come’ nel settore It e stanno alimentando una crescita esplosiva dei Big data (maggiori volumi, varietà e velocità)”, interviene Fredi Agolli, country manager di Informatica Software Italia. “Ma da questi mega trend emergono enormi opportunità per la produttività e la competitività del business, a patto però che i leader It inizino a considerare tutte le dimensioni coinvolte dal concetto di data management, non solo il fenomeno dei Big data, per sfruttare il vantaggio di business racchiuso nei dati”.

Stefano Uberti Foppa, direttore ZeroUno

Come? “Uno dei primi tasselli a cui guardare è relativo alla qualità del dato – risponde Pasini -. La qualità dei dati necessari per produrre le informazioni non è un progetto, non è un intervento una-tantum o saltuario, ma è ‘continuos effort and improvement’. E questo è da tenere ancor di più in considerazione se si pensa che, in generale, il cambiamento aziendale (processi di internazionalizzazione, nuovi modelli di business, nuovi processi, fusioni, acquisizioni, ecc.) accresce il livello di complessità della qualità dei dati”.

“La sfida primaria per le imprese di tutto il mondo, oggi, è riuscire a ricercare e trovare reali insight e conoscenza, resi possibili dalle nuove fonti di dati di varia natura, dalle nuove tecnologie di data repository, di traceability, di intelligence e analisi”, spiega Pasini.

“A questa ricerca corrisponde un incredibile sforzo dell’It che deve lavorare sull’integrazione dei dati e quindi su tutto ciò che serve a renderli sicuri, coerenti, consistenti e di qualità, come abbiamo già accennato”, interviene ancora Agolli.

Qualità e integrazione, due ‘punti caldi’

Alessandro Alloisio, corporate systems & It planning director di Ermenegildo Zegna Holditalia

Insistono molto sulle problematiche della qualità del dato e dell’integrazione anche i Cio e i responsabili It intervenuti all’evento, ribadendo in più di un’occasione quanto questi due aspetti siano oggi quelli più critici all’interno di un disegno più ampio di ‘costruzione’ e mantenimento di un patrimonio informativo che riesca a produrre quei dati e quelle informazioni che servono al business per ‘fare la differenza’ sul piano della concorrenza. E proprio perché le criticità, anche sul piano tecnologico, sono reali e all’ordine del giorno nelle agende dei Cio, la tavola rotonda è diventata per molti un’occasione per rivolgere al country manager di Informatica una serie di domande molto puntuali. È il caso di Alessandro Alloisio, corporate systems & It planning director di Ermenegildo Zegna Holditalia, che chiede se sia possibile, attraverso strumenti tecnologici, “poter dare all’utente di business la possibilità di controllare la qualità del dato ed eventualmente anche di poterlo far intervenire attraverso delle modifiche”. “L’owner del dato – spiega Alloisio – è sempre l’utente di business, non è mai l’It. Inevitabile dunque che debba essere interpellato ogni qual volta si presenta una problematica di qualità nonché di coerenza del dato stesso. Ma è possibile ‘automatizzare’ il processo di controllo offrendo all’utente stesso la possibilità di effettuare il check ed eventualmente intervenire senza ogni volta dover richiedere l’intervento dell’It?”.

Agolli risponde evidenziando l’importanza del coinvolgimento dell’owner del dato attraverso meccanismi e automatismi anche molto semplici, come può essere un’e-mail. E per spiegare come, il country manager porta ad esempio una recente esperienza diretta dove la sua azienda lo ha interpellato per un accertamento relativo all’anagrafica clienti: “Il controller mi coinvolto in prima persona, chiedendo a me, owner del dato, di verificarne la sua correttezza, e lo ha fatto in modo rapido e molto semplice, con una e-mail all’interno della quale ho trovato il link dal quale ho potuto effettuare il check e inviare direttamente la correzione”.

Graziella Dilli, Cio di Arpa Lombardia

Il problema della certificazione e validazione del dato è sollevato anche da Graziella Dilli, Cio di Arpa Lombardia, che oggi vive la problematica della raccolta e dell’integrazione di una ‘miriade’ di dati legati al territorio geografico lombardo (dai quali scaturiscono altri innumerevoli dati, per esempio dall’esito delle analisi di laboratorio o dai dati meteo) e chiede come si riesca, anche all’interno di un progetto di datawarehouse ‘classico’ come quello che la sua società sta implementando, “ad avere una vista unificata e una gestione unica del dato”. “Non solo, considerando che il progetto di datawarehouse richiederà anni per poter essere completato e funzionare a ‘pieno regime’, come posso adottare ad un approccio/modello che riesca ad unificare le tecnologie più tradizionali/strutturate con quelle più moderne, che abilitano anche processi un po’ più smart e che mi consentono di dare delle risposte immediate al business e agli stakeholder?”.

Anche in questo caso la risposta viene da Agolli: “Suggerisco l’approccio del cosiddetto data service, ossia della virtualizzazione del dato [ossia l’astrazione del dato rispetto ai sistemi sottostanti quali database, applicazioni, file repository, website, servizi di terze parti, ecc; la data virtualization serve ad abilitare un unico livello di accesso ai dati, consentendo così di effettuare operazioni di data management, data integration, business intelligence, ecc. indipendentemente da dove risieda fisicamente il dato e indipendentemente dal suo formato – ndr].

Senza entrare però troppo nel merito della specifica soluzione o della tecnologia, è interessante sottolineare come dagli interventi della tavola rotonda sia emerso uno scenario comune a molte realtà. Il modo in cui vengono prese le decisioni nelle aziende sta cambiando. Il cambiamento più significativo consiste nel fatto che le imprese devono reagire molto più velocemente che in passato, e questo implica che i sistemi di data management e data analysis devono essere più flessibili e più agili, soprattutto se i dati provengono da fonti eterogenee e anche se sono non strutturati. La tecnologia che rende possibile tale flessibilità e che consente di dare delle risposte immediate è la virtualizzazione dei dati utilizzati nei sistemi di analisi e intelligence”.

“Certo è che affinché tutti questi processi afferenti al dato siano snelli ed efficaci – aggiunge Agolli – la tecnologia da sola non è sufficiente. Il proprietario del dato è il business, ma il gestore è l’It. È evidente che serve una figura che faccia da collante tra queste due realtà e che riesca a parlare ed interpretare ‘il linguaggio’ di entrambi”.

Competenze: servono figure ‘a metà’ tra It e business

Massimo Mascheroni, responsabile assistenza utenti It dell'Università Cattolica del Sacro Cuore

Quello delle competenze e delle figure professionali che ‘facciano da cuscinetto’ tra It e business è un tema ricorrente in molti dibattiti, segno di una precisa e diffusa esigenza. Massimo Mascheroni, responsabile assistenza utenti It dell’Università Cattolica del Sacro Cuore, raccontando dell’impegnativo progetto che vede l’It dell’Università focalizzato sull’unificazione di molteplici database e nella ‘costruzione’ di un datawarehouse, evidenzia come la difficoltà maggiore risieda proprio negli skill: “Nel nostro caso il problema maggiore non è tanto nei processi di integrazione, quanto, piuttosto, nei processi di analisi dei dati. Gli utenti coinvolti non sono ‘abituati’ a fare analisi sui dati e quindi corriamo il rischio di non riuscire ad estrapolare da questi il vero valore informativo utile al business (che per noi significa erogazione di servizi agli studenti e ai docenti)”.

Quello organizzativo è dunque un aspetto molto importante, come più volte ribadito nel corso della serata. E non esiste una via unica per affrontare la problematica. “Nel nostro caso – racconta per esempio Mascheroni,  – abbiamo deciso di affidarci a degli ‘analisti di business’ esterni, figure che hanno competenze sia tecnologiche sia di business che ci stanno aiutando proprio nell’obiettivo di estrapolare conoscenza e valore dai dati, attraverso i quali arrivare ad avere quelle informazioni utili e necessarie per poter prendere delle decisioni efficaci”.

Carlo Capalbo, drettore tecnologie informatiche de Il Sole 24 Ore

La ‘figura cuscinetto’, che è qualcosa di più del demand manager, assume poi identità e ruoli differenti in ciascuna azienda; Carlo Capalbo, direttore tecnologie informatiche de Il Sole 24 Ore, per esempio, ha spiegato come nel loro caso la figura sia identificata come ‘marketing intelligence’. “Una competenza di grandissima importanza sul piano organizzativo perché è l’elemento di snodo, quello che facilita il dialogo tra realtà che hanno linguaggi, visioni e a volte obiettivi differenti”, spiega Capalbo. “Il governo del dato, richiede delle figure molto più articolate e con skill decisamente più ‘complessi’ del demand manager”.

Stefano Cappello, direttore dei sistemi informativi di Luceplan

D’accordo con questa visione anche Stefano Cappello, direttore dei sistemi informativi di Luceplan che spiega come, nel loro caso, “sussistano ancora alcune difficoltà ad analizzare ed interpretare il dato aggregato e quindi a generare ‘informazioni d’insieme’ che sono però quelle necessarie al business”.

Vendor, attenti! Le aziende vogliono ‘capacità di comprensione’

Gianbattista Angelini, It head of customer order management di Fastweb

E poiché la tematica affrontata in questo Executive Dinner, come abbiamo visto, non può e non deve essere ‘confinata’ al reparto It, Uberti Foppa, in chiusura, ha chiesto ad alcuni Cio di esporre qualche considerazione sul ruolo dei vendor e su quello che vorrebbero da loro. Gianbattista Angelini, It head of customer order management di Fastweb, chiede una “maggior capacità di comprensione ed ascolto affinché si possano definire e realizzare progetti profittevoli per entrambi ed efficaci sul piano dei risultati non solo economici”. “Non solo – aggiunge Angelini – nel mio specifico caso mi piacerebbe poter costruire un rapporto diretto con i big vendor, senza l’intermediazione dei system integrator a volte poco ‘skillati’ in ambito software”.

Ettore Galasso, responsabile area servizi web e manifestazione di Fiera Milano

“Il fornitore deve aiutare l’azienda a valorizzare il patrimonio di dati – si inserisce Ettore Galasso, responsabile area servizi web e di manifestazione di Fiera Milano -. Deve saper aiutare l’azienda a individuare quali sono le aree su cui lavorare per ‘creare valore’ e quindi serve un approccio iterativo e flessibile”.

Lorenzo Anzola, corporate It director di Mapei

“A mio avviso il vendor ha delle oggettive difficoltà, comprensibilissime, a capire tutti i diversi tipi di business delle aziende, dato che la sua primaria focalizzazione è quella tecnologica”, interviene Lorenzo Anzola, corporate It director di Mapei. “L’ecosistema di partner e consulenti aiuta certamente, ma è l’azienda utente che deve strutturarsi in maniera adeguata al proprio interno e, come si diceva, creare quelle competenze ibride che riescano a tradurre le esigenze, reali e comprese, del business per portarle all’attenzione dell’area It e, dunque, anche ai vendor tecnologici”.

Gianluca Storia, project leader di Creditech

Gaetano Campolo, application operations specialist – team leader di Vodafone

Gaetano Campolo, application operations specialist – team leader di Vodafone e Gianluca Storia, project leader di Creditech, concordano evidenziando “la necessità di strutturare un vero e proprio meccanismo di governance dei processi afferenti ai vendor” ossia “la capacità di controllo non tanto, o non solo, sugli accordi contrattuali in sé, quanto sul governo, che deve necessariamente rimanere interno, dei servizi provenienti dagli attori esterni affinché si riesca ad impostare un vero e proprio processo di ‘tuning’ rispetto alle esigenze specifiche che si vengono a creare. Una governance di questo tipo, richiede però figure in grado di interpretare e capire le necessità e gli obiettivi del business e che sappiano poi tradurre tali richieste ai vendor affinché possano costruire insieme all’It aziendale il progetto più idoneo”, sottolinea Campolo.


Informatica, un unico focus: la data integration

Informatica Software, nata nel 1993 dall’idea di due studenti americani nella Silicon Valley, è uno dei principali fornitori indipendenti di software per l’integrazione dei dati, offerta che ha consentito alla società di raggiungere nel 2011 un fatturato complessivo di 784 milioni di dollari, con una crescita del 21% rispetto all’anno precedente. L’offerta della società, copre le aree di data integration, data governance, data management (trasversali su tutte data quality e data protection), attraverso soluzioni specifiche ma modulari e interoperabili che compongono un un’unica piattaforma, nativamente integrata (integrabile inoltre con tutte le soluzioni tecnologiche e i database già presenti nelle aziende). L’ultimo lancio della società è Informatica 9.5: la piattaforma si è arricchita, con quest’ultima release, di nuove funzionalità specifiche per i Big data. In particolare, la soluzione garantisce una maggiore interoperabilità tra sistemi per accedere ai dati, compresi quelli provenienti dai social media, e la possibilità di spostarli all’interno di Hadoop (l’ormai noto framework open source che supporta applicazioni distribuite con elevato accesso ai dati: permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati), in modalità sia batch sia real-time.

Nicoletta Boldrini

giornalista

Segue da molti anni le novità e gli impatti dell'Information Technology e, più recentemente, delle tecnologie esponenziali sulle aziende e sul loro modo di "fare business", nonché sulle persone e la società. Ha fondato il portale AI4Business di DIgital360 ed è stata direttore di ZeroUno da aprile a dicembre 2019. Il suo motto: sempre in marcia a caccia di innovazione #Hunting4Innovation

Il dato: l’asset strategico dell’azienda ‘information centric’

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 3