Information Management: cosa cambia con i Big Data Analytics?

La digitalizzazione pervasiva ‘complica’ la vita agli ‘Information Manager’ che devono riuscire ad estrarre valore di business da un patrimonio di dati sempre più vasto. Se l’informazione è ormai uno degli asset strategici del business, bisogna governarla e renderla produttiva in contesti sempre più complessi tra Big Data, Mobility, Internet of Things. Su questi temi si confrontano in una tavola rotonda virtuale alcuni vendor Ict.

Pubblicato il 10 Dic 2014

ZeroUno: Alla luce dei paradigmi tecnologici ed evolutivi che spingono la digitalizzazione delle imprese, come cambia l’Information Management in azienda? Quali sono le opportunità, da un lato, e le sfide e i rischi dall’altro?

Rosagrazia Bombini – VP & Managing Director per l’Italia, Qlik

Rosagrazia Bombini Qlik: Perché la gestione dei dati abbia un’influenza positiva è necessario che il valore delle informazioni venga sfruttato al massimo. Questo può avvenire solo con la “democratizzazione del dato” che permette a tutti di analizzare i dati pertinenti alla propria funzione. In questo scenario l’It deve innalzarsi ad abilitatore e non controllore in toto del dato, mettendo a disposizione degli utenti business strumenti che facilitino l’estrazione di valore dalle informazioni. Fino a quando saranno necessarie capacità informatiche avanzate per l’analisi quotidiana dei dati, l’It sarà intrappolato in un ruolo operativo e non di supporto alle strategie aziendali.

Maria Luisa Mignemi SAS: La rapidità decisionale rappresenta oggi un fattore critico per il successo aziendale: i big data e i moderni strumenti di analytics permettono al business di anticipare la domanda, tarando le scelte sulla disponibilità di dati fruibili in real-time, ma esiste il rovescio della medaglia. Il paradosso è che con gli enormi volumi di dati a disposizione, ciò che occorre di più è avere meno, cioè avere solo quello che realmente serve. Tracciare ogni singola operazione genera un surplus informativo e il rischio è di non riuscire a isolare i dati utili ai propri obiettivi. Archiviare e mantenere i dati è altamente dispendioso, sia perché bisogna minimizzare il pericolo di furto o violazione, attivando misure di sicurezza adeguate, sia perché occorrono spazi e sistemi di storage altamente performanti.

Alessandro Passoni – SAP: Siamo sicuramente agli albori di una fase di discontinuità nel mondo dell’It, in particolare dell’Information Management. Non esiste più il vincolo tecnologico (si riusciva anche prima a trarre valore dal dato trasformandolo in informazione ma nella complessità tecnologica si perdeva molto del patrimonio informativo), e l’impatto di questa trasformazione permea le line of business. La percezione delle potenzialità legate all’analisi dei Big data da parte delle aziende è sicuramente positiva, ma esiste un elevato rischio di fallimento laddove i progetti non vengano gestiti correttamente; il pericolo sta nel prevedere un programma di sviluppo troppo ‘grande’ rispetto alla capacità dell’azienda di adeguarsi ed evolvere. È corretto ‘guardare lontano’ ma bisogna procedere per gradi con progetti governabili e, soprattutto, che diano risultati tangibili nel breve periodo.

Carmine Stragapede – Direttore Generale, Intel Italia

Carmine Stragapede – Intel: Social Enterprise, Marketing Automation, Digital Marketing, Big data sono tutti aspetti fondamentali delle strategie digitali dalle quali un’impresa odierna non può esimersi. Ridisegnare l’azienda in termini digitali è possibile solo attraverso l’It, ma la sfida maggiore risiede nella capacità di adattamento o addirittura revisione dei processi di business. Le imprese hanno ‘metabolizzato’ la necessità di cambiamento ma affinché questo avvenga concretamente servono competenze chiave nuove come il Digital Strategist o l’Innovation Manager.

ZeroUno: Può l’infrastruttura informativa disegnata nell’ultimo decennio, che oggi impegna l’It soprattutto sul mantenimento dell’esistente lasciando poco spazio a un’efficace valorizzazione degli asset informativi, supportare architetture applicative sempre più dinamiche, dati generati da miriadi di sensori e analytics che possono essere ovunque? Come deve trasformarsi l’It in funzione di un Information Management da cui dipende il business di un’azienda?

Bombini: Certamente, nel nuovo contesto che si sta delineando, è indispensabile restituire all’It un ruolo strategico che negli anni della trasformazione in commodity dei servizi offerti è stato un po’ eroso. In particolare, ci auspichiamo che il Cio possa essere parte dei board aziendali e passi da essere un ‘Chief Information Officer’ a vero ‘Chief Innovation Officer’. In questo scenario, l’Application Portfolio Management insieme all’Information Management (all’interno del quale riveste un ruolo cardine l’analisi del dato) diventa una capacità chiave che pone l’It di fronte al difficile compito di misurare il valore di quelli che sono a volte ‘intangible assets’.

Mignemi: Indipendentemente da quanto possano essere sofisticati gli strumenti di business intelligence a disposizione, ogni sistema di raccolta e analisi dei dati deve fondarsi su architetture coerenti e integrate, su modelli matematici definiti e sulla certezza dell’informazione. Ma un’iniziativa vincente ha bisogno anche del fattore umano. All’It il compito di ‘traghettare’ le Lob verso le opportunità derivanti da big data e analytics, sviluppando nuovi skill tecnici e abilità di intermediazione ancora più incisive. Ma per trasformare i dati digitali in informazioni logiche, facilmente fruibili agli utenti aziendali, serve la figura chiave del data scientist, preposta alla modellazione dei dati e in grado di restituire senso a sequenze di numeri.

Alessandro Passoni – Solutions Sales Specialist Big Data area Emea, SAP

Passoni: La chiave sta nella tecnologia che deve inserirsi in un ambiente esistente complesso e stratificato portandolo a livelli di semplificazione e flessibilità maggiori. Guardando nello specifico all’Information Management, parliamo di tecnologie che calate in contesti esistenti riescono ad aggregare dati e trasformali in informazione senza stravolgere lo strato infrastrutturale e le architetture It esistenti, ma semplicemente ‘sovrapponendosi’ ad esse (come nel caso di SAP Hana). È indubbio che la trasformazione non passi solo dalla tecnologia ma implichi anche un cambio di approccio e la ricerca delle adeguate competenze: servono coloro in grado di comprendere i dati e di estrarne valore di business (data scientist).

Stragapede: L’evoluzione, necessaria, dell’Information Management è l’espressione concreta di come l’It debba trasformarsi con un approccio end-to-end. La crescita dei dati e la capacità di connessione e comunicazione globale (anche tra oggetti) possono abilitare la digital transformation delle aziende solo se l’It riesce a fornire gli strumenti adeguati per tradurre in valore (cioè informazioni utili) la miriade di dati disponibili. Servono quindi soluzioni adeguate che permettano di sfruttare l’informazione lungo tutta la catena del valore, dall’acquisizione del dato alla produzione di ‘conoscenza’ (realizzabile con i Big data analytics). Oggi il cloud è una grandissima risorsa perché permette di accedere immediatamente alla tecnologia necessaria per abilitare servizi e processi di business in chiave digital.

ZeroUno: Quali sono le tecnologie ‘indispensabili’ per poter reggere questo cambiamento con efficacia e modellare un sistema di Information Management di valore per le aziende?

Bombini: Grazie all’ausilio delle tecnologie più moderne che permettono agli utenti di fare autonomamente Data Discovery e visualizzazione avanzata dei dati, è possibile raggiungere e sfruttare quell’intelligenza informativa periferica, che vive nelle linee di business. Una migliore capacità di acquisire, condividere e analizzare le informazioni avviene solo se vengono utilizzati strumenti adeguati che consentano di scoprire i dati in modalità self-service e, possibilmente, anche da remoto attraverso i dispositivi mobili. Secondo noi per ottenere il massimo dall’information management è necessario offrire la possibilità illimitata di creare analisi personalizzate dei dati e di esplorare le connessioni tra le informazioni, stimolando la capacità intuitiva degli utenti aziendali e lasciando all’It il controllo centralizzato di gestione e governance aziendale.

Maria Luisa Mignemi – Professional Services & Presales Regional Director, Central East Europe, SAS

Mignemi: Rendere disponibile il patrimonio informativo abilita un circolo virtuoso sia in termini di produttività interna sia di customer satisfaction, ma ciò significa abilitare strumenti di protezione e policy di accesso efficaci per ridurre il rischio di data loss e theft, ma anche rendere disponibili strumenti di analytics facili e intuitivi sia nell’utilizzo sia nella consultazione della reportistica. Stiamo parlando di Data Visualization, cardine della filosofia SAS: un insieme di tecniche per l’esplorazione visuale/interattiva delle informazioni, che permette a tutte le figure aziendali di ottenere una vista di sintesi (o di dettaglio) sul business, senza preoccuparsi di tutta la complessità retrostante la raccolta e l’elaborazione dei big data.

Passoni: Più si ragiona in termini di business più il concetto di real-time è stressato. Partendo da questo presupposto, uno dei tasselli cardine di un sistema di Eim è la performance a livello di computing, motivo per cui si parla di capacità in-memory. In questo senso, l’allineamento e l’ottimizzazione tra software e hardware risultano imprescindibili: non ha senso proporre una soluzione software per l’analisi dei Big data basata sul data base in-memory se sotto non ho una piattaforma hardware capace di supportarne le prestazioni. Motivo per cui proprio su questi specifici ambiti abbiamo da tempo intrapreso una partnership molto stretta con Intel.

Stragapede: La nostra focalizzazione sta nel ‘computing’. Intel è passata da azienda incentrata, come visione, sui Pc client e server a guardare e indirizzare la tecnologia abilitante il calcolo e la comunicazione di qualsiasi ‘oggetto’, rispondendo quindi alle sfide in termini di volume, velocità, varietà e valore dei dati, attraverso Cpu ottimizzate per il calcolo in real-time, per esempio, ma anche intervenendo a livello di software (sul fronte del file system). Va proprio in questa direzione la partnership con SAP grazie alla quale abbiamo sviluppato una nuova famiglia di processori (Intel Xeon E7) che abilita analisi in-memory e in real-time. I tasselli tecnologici indispensabili vanno quindi dall’hardware con capacità computazionale al software con capacità analitica, senza dimenticare la user interface (sono gli utenti di business a dover e poter sfruttare al massimo queste potenzialità tecnologiche).

Per maggiori informazioni: Big data analytics, come fare e quali le competenze necessarie

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4