Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Analytics: percorsi evolutivi per arrivare al centro dell’impresa

pittogramma Zerouno

Analytics: percorsi evolutivi per arrivare al centro dell’impresa

07 Mag 2015

di Nicoletta Boldrini

Near-real-time, semplificazione e visualizzazione, analisi prescrittive capaci di ‘rispettare’ e ‘stimolare’ l’intuito dei decision maker, analisi Big data abilitate dal cloud… il tutto anche in mobilità. Abbiamo chiesto ad alcuni top vendor di approfondire le prospettive evolutive degli analytics

L’evoluzione degli analytics e della data visualization aumenta la libertà degli utenti di business nell’esplorazione dei dati, con impatti diretti sulla governance delle informazioni e sul ruolo dei Sistemi Informativi.

Angelo Tenconi, Consulting & Pre-Sales Director di Sas

Secondo Angelo Tenconi, Consulting & Pre-Sales Director di Sas, proprio per queste ragioni, “la direzione It deve riuscire a soddisfare le crescenti esigenze analitiche, centralizzando al contempo il governo dei dati e assicurandone la qualità”. Se da un lato il primo passo deve essere quello del disegno di una infrastruttura applicativa semplice e modulare, economica da mantenere e scalabile, dall’altro ci si deve muovere, sostiene Tenconi, per “mantenere saldamente il controllo dei dati, pur garantendo autonomia di fruizione agli utenti: si tratta di definire con le Lob (e con il team It stesso) un modello di servizio basato su ruoli e responsabilità lungo tutto il processo di distribuzione del dato (dall’acquisizione dalle fonti fino all’elaborazione dei kpi di massima aggregazione per l’executive manager)”.

Walter Aglietti, Big Data Leader di Ibm Italia

“Sistemi di qualità specifici per le informazioni aziendali o più genericamente sistemi di governance del dato sono in realtà complessi perché richiedono un approccio rigoroso che coinvolge non solo l’It ma tutte le strutture aziendali”, sostiene Walter Aglietti, Big Data Leader di Ibm Italia.

Zoran Radumilo, Innovation Sales Director di Sap

“La scarsa qualità del dato è il primo motivo per cui si stima che nel 2017 il 60% dei progetti di Big data non andrà oltre la fase pilota”, incalza Zoran Radumilo, Innovation Sales Director di Sap. “Le aziende sono sempre più consapevoli di questo rischio e non a caso le grandi multinazionali stanno creando una nuova figura di executive, il Chief Data Officer (Cdo), che si pone come obiettivo di aiutare le organizzazioni a massimizzare il valore dell’informazione e a definire una precisa strategia di Enterprise Information Management (Eim)”.

Enrico Salvatori, Hp Autonomy Emea South Business Consultant di Hp Enterprise Software

Porta l’attenzione sul valore del dato Enrico Salvatori, Hp Autonomy Emea South Business Consultant di Hp Enterprise Software, che sottolinea come conservare tutto non significhi affatto avere dei dati di valore: ““Per far sì che poi sia possibile estrarre valore è necessario che il dato grezzo si trasformi in informazione e poi in consapevolezza. Questo vuol dire che, dopo aver garantito, attraverso l’utilizzo di adeguate soluzioni, la qualità del dato, è fondamentale dotarsi di ulteriori strumenti che consentano di trasformare tale dato in informazione. Solo allora si è in grado di scoprire gli “unknow-unknown” (gli elementi ‘sconosciuti’, o semplicemente non visibili, che offrono al decision maker quella conoscenza utile al processo decisionale), e concentrarsi sul miglioramento dell’efficienza (riduzione dei costi) e dell’efficacia (aumento della revenue)”.

Qualità = Valore

Flavio Venturini, Country Leader Business Analytics di Oracle Italia

“Il problema della qualità del dato è sempre esistito a livello di datawarehouse: era e rimane uno dei punti critici della definizione architetturale e progettuale”, interviene Flavio Venturini, Country Leader Business Analytics di Oracle Italia. “Tradizionalmente le politiche di data quality erano definite nelle fasi iniziali di progetto ed implementate di conseguenza, prevedendo procedure di recovery e ‘riciclo degli scarti’ complesse e costose. Oggi viviamo una crescita continua ed esponenziale dei dati, che richiede di affrontare il tema in modo diverso, partendo cioè da una visione dei dati come entità ‘viva’, ‘molteplice’ e che si arricchisce di nuovi contenuti e significati giorno dopo giorno, anzi momento dopo momento”.
Ed allora il datawarehouse diventa dinamico. Venturini a tal proposito parla, piuttosto, di data pool che richiede una nuova strategia: “A fianco al normale Etl, va creato un ambiente nuovo, un ambiente di ‘Sandboxing’ in cui sia possibile valutare come i dati che alimentano il data pool stiano cambiando ma anche, e soprattutto, come nuove tipologie di dati possano essere incrociati con i dati in essere al fine di creare ulteriore valore analitico [riguardo al back end tecnologico, Oracle ha recentemente lanciato Big Data Discovery, uno strumento che semplifica l’accesso al patrimonio informativo ed è in grado di ‘scoprire’ nuove informazioni e prevedere risultati in tempo reale – ndr]”.

Francesco del Vecchio, Presales Directory, Italy di Qlik

“A nostro avviso, l’analisi dei dati deve portare all’ottimizzazione del processo decisionale strategico. Detto questo, c’è da considerare che è sempre più difficile che le decisioni all’interno delle aziende vengano attribuite a un ristretto gruppo di persone; la tendenza, infatti, è quella di distribuire il processo decisionale all’interno dell’organizzazione”, sottolinea dalla sua prospettiva Francesco del Vecchio, Presales Directory, Italy di Qlik. “In base alla nostra esperienza, i benefici che si ottengono dalle decisioni prese in modo decentrato si moltiplicano se si consente a più persone di esplorare i dati e collaborare sui risultati attraverso l’utilizzo di strumenti di data discovery self-service”.

Luca Zurlo, Southern Europe & Middle East Manager di Tibco Analytics

“Anche per l’Information Management valgono i trend tecnologici in atto quali il ‘Computing Everywhere’, cioè la possibilità di elaborare informazioni ovunque, grazie ai nuovi dispositivi mobili, dai tablet agli smartphone, e l’‘Advanced, Pervasive and Invisible Analytics, che consiste nella capacità di filtrare i dati in arrivo da piattaforme mobili, IoT (Internet of Things), dispositivi indossabili e via dicendo e rendere disponibili le informazioni necessarie nel momento giusto e alla persona più corretta”, porta in evidenza Luca Zurlo, Southern Europe & Middle East Manager di Tibco Analytics. “Ciò premesso, è evidente come le caratteristiche imprescindibili di una soluzione di Information Management e Business Intelligence attuale vadano ricercate nella flessibilità, intesa come possibilità di interfacciarsi e integrarsi in ogni contesto e con qualsiasi applicazione; nella scalabilità, ovvero la capacità di crescere al crescere delle esigenze degli utenti e nella semplicità d’uso, che consenta a chiunque, anche se non esperto, di impiegare gli strumenti offerti senza problemi. Il tutto, partendo dal presupposto indispensabile che, alla base, vi siano dati corretti”.
“Le informazioni, siano esse dati strutturati o meno, possono essere ospitate e sfruttate da nuove infrastrutture che (a partire da Hadoop, alle appliances, ai database NoSQL) rispondono a differenti requisiti. Molte di queste informazioni, come i dati provenienti dal mondo social, riescono a dare valore al busines solo se opportunamente legate a quelle provenienti dai sistemi aziendali (pensiamo ad esempio all’impatto sulle vendite di una campagna su un social media)”, sottolinea Aglietti di Ibm. “Ed è per questo motivo che architetture come quella del data lake [sistemi di storage repository object-based che ospitano i dati nella loro forma ‘nativa’, quindi anche destrutturati, ndr], che disegnano uno scenario in cui sistemi tradizionali e nuovi convivono, stanno emergendo come l’approccio migliore per salvaguardare quanto già disponibile in azienda aggiungendo il valore portato dai nuovi dati”.
Zurlo invita a riflettere sul fatto che il valore aziendale si possa ritrovare anche grazie alla facilità d’uso degli strumenti: “Tibco Analytics si è sempre mossa in direzione della semplicità d’utilizzo delle proprie piattaforme, rendendole sempre più incorporabili (embedded) all’interno delle applicazioni degli utenti e integrabili nei loro ambienti It, in modo che il valore e la potenza degli analytics emerga anche continuando a lavorare con gli strumenti con cui un utente è già abituato ad operare e verso i quali si sente più confidente”.
Un approfondimento tecnologico su questi aspetti lo offre anche Radumilo che, prendendo ad esame le componenti del sistema Sap Enterprise Information Management, sottolinea come “per generare valore di business si debba partire dalla qualità del dato e da strumenti che lavorino su vari fronti come: data integration, che permette di accedere alle informazioni rilevanti provenienti da fonti diverse; data quality management, per rendere il dato affidabile e certo; content management, che centralizza e ottimizza la gestione, la governance e l’accesso ai dati. Tutte queste componenti assicurano che il dato raccolto sia effettivamente ‘un’informazione di qualità’ e che essa possa essere messa a disposizione del decisore facilmente e in real-time, creando contestualmente ‘l’utilità del dato’, cioè fornendo il dato utile e rilevante a chi ne ha realmente bisogno”.

Verso nuovi modelli di analisi
“Per quanto riguarda le tecnologie che abilitano le analisi dei dati, occorre fare un passo indietro”, ammonisce del Vecchio tracciando lo scenario evolutivo che vede sempre più la pratica degli analytics spingersi vero l’analisi prescrittiva (in grado cioè di fornire anche delle ‘raccomandazioni’ al decision maker). “Una cosa è avere semplicemente dei dati a disposizione – evidenzia del Vecchio -, un’altra è disporre di uno strumento che permetta di navigare tra le informazioni rendendole facilmente utilizzabili attraverso la visualizzazione e con lo scopo ultimo di rispondere con facilità ai quesiti che ci si pone per poter poi arrivare a prendere le decisioni”.
Nasce con questo obiettivo, per esempio, Qlik Sense, “uno strumento self-service di visualizzazione e scoperta dei dati studiato per ottimizzare le performance e la governance in ambito aziendale”, descrive il manager dell’azienda. Qlik Sense offre agli utenti la possibilità illimitata di creare analisi personalizzate dei dati e di esplorare le relazioni che esistono tra le informazioni per rivelarne istantaneamente le connessioni esistenti”.
Un’analisi di tipo prescrittivo sui nuovi dati ha potenzialità enormi se poggia su fondamenta solide. “Innanzitutto deve basarsi sulla disponibilità dei dati che hanno un impatto su ogni aspetto del business: si pensi ad esempio ad un diverso modo di concepire la produzione di beni (la fabbrica digitale o internet of things), o ai dati della pubblica amministrazione e molto altro ancora”, invita a riflettere Aglietti di Ibm. “Considerando che questi dati costituiscono l’80% di tutti quelli prodotti in generale, capiamo quanto siano essenziali per un’azienda che deve identificare l’infrastruttura tecnologica più adatta per far sì che queste informazioni siano parte attiva del processo di analisi”.
L’infrastruttura tecnologica non riguarda soltanto la conservazione dei dati ma anche le opportunità offerte dalla prescriptive analysis, che pone sfide e richiede nuove tecnologie (oltre che nuovi metodi di concepire l’analisi dei dati). “Analisi di questo tipo implicano la possibilità di analizzare con continuità i cambiamenti che intervengono sui dati e che potrebbero cambiare in maniera radicale lo scenario di riferimento e quindi il business: significa dotarsi di infrastrutture adeguate che siano capaci di fare confronti e applicare modelli ai dati in tempo reale. Da ultimo, è importante che le differenti tipologie di analisi (predittiva, prescrittiva) possano lavorare su dati omogenei e possano contare su metodi precisi, modelli e controllo sull’informazione”, puntualizza ancora Aglietti.
“L’analisi prescrittiva attualmente si basa principalmente sull’analisi di trend e sul comprendere cosa sia meglio fare proponendo quelle azioni correttive che statisticamente hanno portato maggiori benefici. È evidente che questo tipo di analisi diventa affidabile nel momento in cui si ha la possibilità di accedere a tutto il dominio dell’informazione (interno/esterno e strutturatoon strutturato)”, è il punto di vista di Salvatori di Hp. “Le aziende possono fidarsi dell’analisi prescrittiva nel momento in cui hanno degli strumenti adeguati in grado di fare un’analisi sul 100% delle informazioni e non solo sul 10% che rappresenta il volume dei dati ‘transazionali’ delle tradizionali applicazioni legacy”.
Parla invece di ‘approccio integrato’ all’analisi predittiva Radumilo di Sap, facendo riferimento a una nuova versione di Sap Predictive Analytics per “riuscire ad avere dati in tempo reale e conoscere in profondità il comportamento d’acquisto del consumatore, rispondere in modo più efficace ai trend di mercato, creare valore per il business o migliorare la profittabilità dell’organizzazione”. E torna sul concetto di real-time anche Venturini di Oracle: “Oggi si è in grado di trasformare le analisi in veri e propri insight che possono essere immediatamente utilizzati con strumenti di Real-Time Decision basati sull’autoapprendimento (sistemi che raccolgono lo storico delle azioni effettuate, incrociano i dati e propongo risposte/decisioni in tempo reale). È quanto, ad esempio, sta facendo il Ministero del Lavoro con il portale Cliclavoro: gli analytics del sistema consentono di rendere più efficienti gli incroci tra chi cerca e chi offre lavoro grazie ad un efficace motore di regole (Oracle Real Time Decision), che consente al sistema stesso di agire proattivamente verso le aziende andando a proporre loro i candidati più indicati per determinate posizioni”.

Analytics real-time, un aiuto dal cloud
“La certezza delle informazioni rappresenta il requisito fondamentale per l’analisi prescrittiva, che automatizza il processo decisionale. Ma non basta: la figura del Data Scientist, con conoscenze di business, statistiche e informatiche, permette di determinare e applicare ai Big data il modello matematico corretto per ottenere dinamicamente risultati utili al business”, dice Tenconi di Sas aggiungendosi alla discussione. “La tecnologia è pronta per garantire il passo, ma bisogna saperla usare. Con il crescere della sofisticazione, aumentano i rischi: le strategie di Information Management richiedono una potenza di storage e di calcolo superiore, così come figure altamente specializzate. Una risposta arriva dal cloud e, in particolare, dagli hosted services, soluzioni SaaS che risiedono all’interno di un Virtual Private Cloud che Sas dedica alle aziende clienti insieme ad una serie di servizi a corollario: dalla customizzazione delle funzionalità all’esecuzione delle analisi da parte di un pool di esperti”.
Entra nel merito delle tecnologie e delle soluzioni possibili anche Aglietti di Ibm secondo il quale oggi “tecnologie come Hadoop ed i database NoSQL, invece che rimpiazzare il tradizionale approccio ai dati basato su database relazionale, ne sono un naturale complemento: questo consente di conservare l’investimento effettuato ed allo stesso tempo rinnovare ed ampliare il business. Discorso diverso per le appliance, dispositivi in grado di garantire prestazioni nettamente superiori ad un database relazionale ad un costo notevolmente minore, in scenari dove i volumi in gioco sono alti ed è necessaria un’analisi molto spinta e con prestazioni efficienti”. Ibm, in questo senso, sta offrendo un contributo al mondo Open Source attraverso la fondazione di Open Data Platform (in consorzio con Pivotal e Hortonworks) “con lo scopo di accelerare la diffusione delle tecnologie basate su Hadoop ed allo stesso tempo di rendere il più omogeneo possibile il panorama open source (fin troppo frammentato)”, sottolinea Aglietti. “Ibm distribuisce e certifica Apache Hadoop ‘arricchito’ con una serie di funzionalità che ne consentono l’adozione immediata nell’It di un’azienda (in cloud o on-premise). Da non dimenticare poi Watson Analytics che porta la potenza del ‘cognitive computing’ alla portata dell’utente finale per l’analisi avanzata dei dati”.
“L’informazione al centro, questo è il motto dei prossimi anni; e tutto ruota intorno a questo”, osserva Salvatori di Hp. “Da un lato la strategia aziendale deve essere orientata ad avere una piattaforma che sia in grado di gestire i Big data e quindi in grado di analizzare i grandi volumi, con una variabilità del dato (strutturato, semi-strutturato e non strutturato), con velocità di analisi near-realtime diminuendo al minimo la vulnerabilità del dato, sia da attacchi esterni sia da rischi interni con adeguate procedure di protezione, backup e archiviazione (ed è qui che si innesta la strategia di Hp con Haven, la piattaforma open per i Big data, per estrarre dai dati quel valore che il business si attende)”.
“Una delle più grandi sfide che nel breve termine i Cdo e i Cio si troveranno ad affrontare è il crescente trend verso un accesso alle informazioni di tipo ‘self service’ Gli utenti richiedono di poter accedere ai dati senza dover passare dall’It e in tempo reale”, conferma Radumilo di Sap. “Inoltre, nel caso un’azienda stia già gestendo il proprio business in modalità Cloud, on premise o ibrida, una soluzione Eim deve offrire accurati analytics e visualizzazioni semplici a tutti gli utenti business, che non necessariamente sono Data Scientist o laureati in facoltà Stem (science, technology, engineering, and mathematics). La caratteristica imprescindibile che una tecnologia di analisi deve presentare per essere di successo è quindi di permettere ai responsabili di concentrarsi sul core business dell’azienda”.
Il che significa semplicità, caratteristica che secondo del Vecchio di Qlik si concretizza con la ‘visualizzazione. “Le visualizzazioni dei dati rappresentano uno strumento potente in quanto sfruttano le capacità innate delle persone di esplorare ed elaborare informazioni complesse. Utilizzate nel modo corretto, le visualizzazioni dei dati consentono di riassumere in modo intelligente le informazioni e dare un nuovo significato ai dati”. L’aggiunta di visualizzazioni alla BI esistente non è comunque sufficiente; è altrettanto importante il modo in cui l’azienda usa le visualizzazioni stesse. “Per ricavare informazioni approfondite, gli utenti devono essere in grado di interagire ed esplorare le visualizzazioni per comprendere meglio i dati; per questo Qlik Sense non offre solo la possibilità di creare ‘belle visualizzazioni’, ma consente agli utenti di esplorare le informazioni in modo naturale, utilizzando la propria intuizione”, evidenzia ancora del Vecchio, secondo il quale un altro trend iniziato che continuerà a guidare le strategie di Information Management è il mobile. “La possibilità di accedere alle informazioni in qualunque luogo e in qualunque momento può offrire un grande valore aggiunto a tutti i reparti aziendali. Ma questo è possibile solo se le tecnologie sono pensate per offrire una vera esperienza mobile: tutte le funzionalità, compresa la visualizzazione, l’analisi, la creazione, la collaborazione e l’amministrazione devono sempre risultare disponibili. Gli utenti devono essere in grado non solo di analizzare in mobilità i dati, ma anche creare nuove visualizzazioni (in questo senso, Qlik Sense offre un ambiente di creazione ‘lato server’ con funzionalità di drag & drop e accesso a risorse condivise in librerie)”.
Riporta l’attenzione sull’importanza della visualizzazione anche Zurlo di Tibco Analytics sottolineando come le soluzioni della propria azienda, “in particolare, le suite Jaspersoft e Spotfire, consentano di avere in ogni momento la possibilità di visualizzare in modo dinamico, semplice e preciso i principali parametri riguardanti l’operatività della propria azienda e confrontarla, per esempio, con l’andamento del mercato di riferimento. La qualità delle informazioni raccolte è garantita dai tool utilizzati dalle piattaforme Tibco Analytics per accedere ai connettori per i principali repository di dati, quali MongoDB, Hadoop, Cassandra, ecc.”.
Cloud e Big data sono le due direzioni sulle quali si sta muovendo da tempo anche Oracle. “Per quanto riguarda le caratteristiche che deve assumere un datawarehouse moderno, certamente c’è una forte esigenza di visualizzazione avanzata, di avere una capacità di trasformazione semplificata, di condivisione del percorso di analisi e non solo del risultato finale”, afferma Venturini. “Il cloud è un fattore che cambia completamente il punto di vista delle aziende. Portare applicazioni in cloud, piuttosto che usare il cloud in termini infrastrutturali, cambia il baricentro dell’Information Management: da processo esclusivamente interno all’azienda esso sta diventando sempre più esterno. Vi sono dati che vengono raccolti direttamente su internet oppure da sensori (M2M) per non parlare di tutto il mondo dell’Internet delle cose. Sono dati esterni che non è necessario che un’azienda si porti in casa”.
In quest’ambito il cloud è fondamentale in quanto consente di gestire molti processi direttamente all’esterno. “Certamente poi l’azienda deve essere capace di integrare quanto fatto su cloud con il proprio mondo on premise”, ricorda Venturini.

Nicoletta Boldrini

Giornalista

Analytics: percorsi evolutivi per arrivare al centro dell’impresa

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4