Big data analytics in un ambiente dati eterogeneo con Tableau

Per analizzare, esplorare e trarre valore da una grande quantità di dati con fonti e formati differenti servono strumenti flessibili, versatili ed efficaci ma anche utilizzabili direttamente dai decision maker che, con Tableau, in modo autonomo, possono identificare e visualizzare trend e insight condividendoli anche direttamente in cloud

Pubblicato il 14 Gen 2021

Marta Abbà

Giornalista

Statistica bayesiana: cos’è e come aiuta il processo decisionale

Man mano che i dati diventano più eterogenei e le tecnologie più complesse, i big data analytics assumono un ruolo fondamentale all’interno dei processi decisionali anche a livello di business. Nasce quindi l’esigenza non solo di avere dati di buona qualità e di gestirli in maniera conforme alle normative ma anche di disporre di software che permettano il coinvolgimento di ogni figura professionale e promuovendo il concetto di collaborative data science all’interno dell’azienda.

Secondo l’Osservatorio Big Data Analytics e Business Intelligence il valore del mercato degli Analytics nel 2019 era pari a 1,7 miliardi di euro, un dato in continuo aumento rispetto agli anni precedenti ( +23% sul 2018 e oltre il doppio rispetto a 5 anni prima) da associare a quello relativo alle voci di spesa che nel 47% dei casi è relativa ai software, il più delle volte finalizzati alla visualizzazione e all’analisi (53%). Tra gli strumenti più diffusi, perché agile e particolarmente efficace nella democratizzazione del dato, c’è Tableau che, grazie alle sue potenti performance di visualizzazione dati, permette ai decision maker di realizzare report e analisi anche in ambienti eterogenei, senza dipendere dal reparto IT se non per un veloce set-up iniziale.

Perché fare big data analitycs nel 2021

Dietro alla big data analytics si cela un nuovo modo di fare data management che deve tener conto del mutamento di scenario legato alla digital transformation. L’avere a disposizione una grande quantità di dati oggi diventa una vera sfida per chi usa big data analytics in ambienti eterogenei e non si deve limitare alla redazione di report ma spingersi a fornire degli elementi per guidare le decisioni future. Diventa fondamentale la capacità di rilasciare i dati velocemente e in modo che siano disponibili e accessibili a tutti i livelli aziendali. Questo è l’obiettivo dei software come Tableau che mettono a disposizione dei manager un forte potere di visualizzazione del dato e una velocità di reazione adatta alle esigenze di un’azienda che vuole avere una marcia in più sul mercato grazie all’utilizzo dei big data.

Verso una democratizzazione dei big data analytics con Tableau

Tra le principali e più evidenti caratteristiche di uno strumento come Tableau c’è sicuramente l’introduzione in azienda della Self-Service Data Analytics, ovvero la possibilità per tutti di analizzare ed elaborare i dati a disposizione alla ricerca di trend e insight spaziando su vari tipi di visualizzazione, inserendo filtri differenti ed effettuando drill down, quando necessario. Dietro a questa approccio così user friendly c’è un tool che, utilizzato nella fase finale della big data analysis, “legge in modo efficace e veloce i dati che si trovano su varie piattaforme aziendali e svolge due principali compiti – spiega Davide Donna, Managing Partner di The Information Lab, azienda che in Italia distribuisce Tableau – Prima di tutto sistema i dati attraverso Tableau Prep, uno strumento di data preparation molto intuitivo, con una interfaccia grafica a blocchi, che consente di gestire i database provenienti da più fonti e con formati diversi, consolidandoli in unico formato. E poi c’è Tableau Desktop il vero cuore di questo software, per analizzare su una lavagna bianca ed esplorare in modo visuale le grandissime quantità di dati a disposizione, semplicemente trascinando le colonne della base dati aggregata appena creata. Sempre Tableau permette anche di condividere il lavoro fatto in un ambiente comune e accessibile a tutti che può essere on premise o in cloud”.

Un’azienda munita di un sistema di raccolta dati, semplicemente utilizzando Tableau, riesce a prepararli, analizzarli e visualizzarli. Grazie alla flessibilità dello strumento, non è nemmeno necessario avere una infrastruttura definitiva già pronta e funzionante, si può iniziare a lavorare su basi di dati temporanee, per poi collegarsi a data base o data lake definitivi in un secondo momento.

I vantaggi di Tableau in ambienti eterogenei

“Oltre a collegarsi a tutti i database di big data disponibili sul mercato – spiega Donna – Tableau ha un motore di calcolo estremamente veloce che consente di lavorare sia in modalità ‘live’ che ‘per estratti’. Nel primo caso lo si collega in modo sincrono al database e si ottiene un aggiornamento immediato della dashboard sia quando si hanno nuovi dati, sia quando si modificano filtri o impostazioni. In questo modo si può davvero sfruttare al meglio la potenza dei big data. Se invece ci si vuole svincolare dai ritardi della base di dati o della rete, si può lavorare per estratti. In questo caso Tableau salva una fotografia sul proprio database temporaneo e consente di processare in modo estremamente rapido i dati”.

Tableau si distingue soprattutto per la sua efficacia nella rappresentazione dei dati “ha molteplici connettori attraverso cui consente di rappresentare qualsiasi tipo di dato in modo particolarmente efficace – spiega Donna – anzi è il software stesso a guidare l’utente nella scelta della visualizzazione a seconda della tipologia di dati”.

Un altro vantaggio nell’uso di Tableau è il suo approccio al trattamento dei dati, finalizzato a minimizzare il consumo di memoria. Nell’analytics tradizionale prima si prendono in considerazione tutti i dati a disposizione al minimo livello di aggregazione, poi man mano si formano dei gruppi di dati secondo i criteri desiderati. Mentre Tableau ha un approccio diverso, presenta subito i dati al massimo livello di aggregazione e poi permette di fare dei drill down. Questo comporta un’ottimizzazione delle risorse e minimizza il consumo di memoria ma allo stesso tempo non limita l’utente che sarà libero di indagare anche i dettagli della propria base dati.

Big Data Analytics in ambienti eterogenei: 3 casi d’uso

Sono diversi i campi di applicazione di uno strumento versatile come Tableau, quelli che lo vedono affrontare con successo tutte le complicazioni legate ai big data analytics in ambienti eterogenei sono quelli riguardanti il manufacturing, il marketing e le mappe geografiche. Nel primo caso, attraverso l’utilizzo di dati provenienti da dispositivi IoT, Tableau durante la fase produttiva permette di rappresentare visivamente in modo chiaro l’andamento di diversi componenti e di cogliere in modo immediato il verificarsi di eventuali problematiche. Nel marketing è uno strumento molto amato perché permette di avere una visione di insieme e allo stesso tempo di analizzare ogni specifico aspetto di ciascun singolo cliente. È però con le mappe geografiche che Tableau mostra un ulteriore e differenziante vantaggio perché è l’unico che non pone limiti sul numero di punti che possono essere rappresentati su una mappa. “Questo esempio – conclude Donna – mette in luce come avere una potentissima macchina visuale possa fare davvero la differenza”.

Come ottimizzare le performance di Tableau

Questi ed altri aspetti che caratterizzano Tableau non devono farlo sembrare uno strumento riservato agli esperti perché si può beneficiare dei suoi vantaggi senza avere particolari competenze tecniche. “Serve solo l’aiuto di un consulente o di un collega IT per il setup iniziale: una volta correttamente creato il collegamento con la base dati, l’utente business si trova a lavorare con delle semplici tabelle – precisa Donna – Dopo un training di un paio di giorni per imparare a sfruttare tutte le potenzialità di questo tool, sarà perfettamente autonomo sia nell’analisi che nella visualizzazione dei dati”.

Quando un’azienda decide di adottare Tableau attraverso The Information Lab, riceve infatti una formazione relativa all’utilizzo del software ma non solo. “Suggeriamo anche come costruire un progetto ed effettuare analisi efficaci ottenendo rappresentazioni interessanti per chi le andrà a consultare, forti della nostra esperienza di analisi dati e di data visualization.” Un altro aspetto su cui viene posta particolare attenzione è l’ottimizzazione delle performance per evitare che vengano creati insiemi di dati ‘indigesti’, che rallenterebbero il processo di analisi e facendo perdere quell’immediatezza per cui è stato scelto.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3