Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Analytics: cosa significa, quando e come si usa

pittogramma Zerouno

Guida

Analytics: cosa significa, quando e come si usa

Una Guida dove, oltre alla definizione e alle differenze con la BI, si sintetizzano le principali applicazioni (dalle web analytics, come Google Analytics, alle soluzioni per la manutenzione preventiva), le caratteristiche dei Data Lake e i principali trend tecnologici, metodologici e di mercato

06 Giu 2019

di Patrizia Fabbri

Per chi ama la propria lingua è spesso irritante assistere all’utilizzo indiscriminato dell’inglese, ma è pur vero che, soprattutto in ambito tecnologico, la lingua inglese produce neologismi più rapidamente dell’italiano e soprattutto si tratta di termini condivisi a livello globale. Per cui in alcuni casi è indispensabile farne uso. Data analytics, che in italiano dovremmo tradurre, come faremmo per data analysis, con “analisi dei dati”, ne è un esempio eclatante.

Data analytics ha infatti un significato ben preciso molto diverso dalla data analysis. In questa Guida, oltre a darne una definizione precisa, se ne approfondiranno le differenze rispetto alla business intelligence tradizionale, quali sono le tecniche e le tecnologie che la contraddistinguono, quali gli ambiti applicativi e le principali problematiche, dagli impatti del GDPR alla carenza di competenze, senza ovviamente dimenticare uno sguardo al mercato italiano e alle principali soluzioni disponibili.

Cosa significa analytics

Analytics è il processo scientifico di scoperta e comunicazione dei modelli significativi che possono essere trovati nei dati. In pratica i dati grezzi vengo trasformati in insights (intuizioni) utili per prendere decisioni migliori e si basa su un insieme di scienze, tecniche e tecnologie che vanno dalla statistica, alla matematica, alle tecnologie di business intelligence di base, al reporting, all’elaborazione analitica online (Olap) e varie forme di analisi avanzate.

Questa definizione in sé non dice molto e per una più precisa comprensione del significato di analytics è di aiuto vedere la differenza rispetto ad altre discipline, come analysis o business intelligence, e da quando l’analytics ha iniziato a “staccarsi” dalle tradizionali tecniche di analisi dei dati per trasformarsi in una disciplina a sé stante, ossia con la comparsa dei big data.

Analytics o analysis?

La differenza tra questi due termini è semplice e chiara: l’analysis è focalizzata sulla comprensione del passato, quello che è successo; analytics si concentra sul perché è successo e su cosa succederà dopo.

Quali sono le differenze tra analytics e business intelligence

Più articolata è la differenza tra analytics e business intelligence.

La differenza principale tra le due sta nel concetto di modellazione insito nella prima, ma questa necessità di sviluppare modelli non si sarebbe manifestata se non si fosse consolidato (grazie alla digitalizzazione pervasiva e alla crescente disponibilità di dati) il fenomeno dei big data. Ecco perché analyticsmodellibig data sono 3 termine indissolubilmente legati tra loro.

È infatti l’evoluzione dei big data che ci aiuta ancor di più a capire le differenze tra analytics e business intelligence:

  • la business intelligence utilizza la statistica descrittiva con dati ad alta densità di informazione per misurare cose, rilevare tendenze, ecc., utilizza cioè dataset limitati, dati puliti e modelli semplici per scoprire cosa è successo e perché è successo; grazie alla business intelligence sono state affinate le tecniche ETL ossia di estrazione, trasformazione e caricamento dei dati in un data warehouse;
  • l’analytics utilizza la statistica inferenziale e concetti di identificazione di sistemi non lineari per dedurre modelli e per rivelare rapporti e dipendenze ed effettuare previsioni di risultati e comportamenti, utilizzando dataset eterogenei (non correlati tra loro), dati grezzi e modelli predittivi complessi.

La business intelligence è superata?

Non bisogna però pensare che la business intelligence sia non solo un termine obsoleto, ma anche un insieme di tecniche superate perché così non è, l’analytics, per essere efficace, ha anche bisogno di tecniche di business intelligence più tradizionali per garantire la qualità del dato. Quello della qualità del dato è un concetto che vale sempre e comunque: senza dati di qualità non c’è analytics o analysis o business intelligence che possa essere efficace, quindi i concetti di Data Quality e Data Governance sono quanto mai fondamentali.

Cosa sono i big data e perché si parla di big data analytics

Non fa male a questo punto un piccolo ripassino di cosa significa big data. Oggi è possibile raccogliere un’innumerevole quantità di dati, come conseguenza di Internet, dell’Internet of Things, dell’industrial Internet of Things e della diffusione della cosiddetta app economiy. I dati che vengono prodotti sono molteplici, come per esempio i dati degli utenti di un sito web, dei loro post su Facebook, o dell’utilizzo di un’app, dagli oggetti collegati alla rete ecc.

Le classiche 3 V

Ma non si tratta “semplicemente” di quantità enormi e di tipologia differente, quello della disponibilità e del loro cambiamento in tempo reale è un altro elemento che caratterizza i big data. Ecco perché li si è definiti con il modello di crescita tridimensionale delle 3 V definito nel 2001 dall’analista Douglas Laney:

  • Volume: quantità di dati generati ogni secondo da sorgenti eterogenee quali: sensori, log, eventi, email, social media e database tradizionali.
  • Varietà: tipologia differente dei dati che vengono generati, collezionati e utilizzati: prima dell’epoca dei big data si tendeva a prendere in considerazione per le analisi principalmente dati strutturati e la loro manipolazione veniva eseguita mediante uso di database relazionali; per avere analisi più accurate e più profonde, oggi è necessario prendere in considerazione anche dati non strutturati (file di testo generati dalle macchine industriali o i log di web server o dei firewall ecc.) e semi strutturati (per esempio atto notarile con frasi fisse e frasi variabili) oltre che quelli strutturati (come la tabella di un database).
  • Velocità: si riferisce alla velocità con cui i nuovi dati vengono generati: si tratta non solo della celerità nella generazione dei dati, ma anche della necessità che questi dati/informazioni arrivino in tempo reale al fine di effettuare analisi su di essi (è fondamentalmente da questa caratteristica, che introduce il concetto di streaming, che si arriverà a pensare alla costruzione di data lake a fianco o al posto dei tradizionali data warehouse, ma su questo torneremo poco più avanti).

La 4° e la 5° V

Con il tempo, sono state introdotte una quarta V, quella di veridicità, e poi una quinta, quella di Valore:

  • Veridicità: come scrivevo poco sopra, quello della qualità del dato è un concetto basilare per analisi efficaci. Diciamo che nei primi anni di comparsa dei big data, molte aziende si sono talmente entusiasmate dalla quantità e varietà dei dati disponibili, da finire con il prestare minore attenzione a questo aspetto, salvo poi trovarsi con dati talmente inquinati da rendere qualsiasi analisi non solo inattendibile, ma addirittura pericolosa. Ecco quindi che ci si è resi rapidamente conto che la “veridicità” doveva essere considerata una caratteristica intrinseca del dato da inserire nel processo di analisi.
  • Valore: ci si riferisce alla capacità di trasformare i dati in valore. Anche questo è un concetto, di per sé ovvio e che è alla base della nascita stessa della business intelligence, sul quale è stato necessario rimettere l’accento proprio perché la grande abbuffata dei big data lo aveva fatto perdere un po’ di vista. La qualità di un dato, oltre ad alcuni elementi oggettivi, implica un problema concettuale, che se non attentamente affrontato inquina i risultati di ogni analisi, ossia la concettualizzazione di business che sta dietro a un qualsiasi progetto di analytics: bisogna definire con chiarezza, in stretta relazione con il business owner del processo che genererà un determinato dato, quali sono gli elementi che caratterizzano il dato stesso. È così che l’analytics porterà poi veramente valore di business e che questo valore sarà misurabile. Per esempio: in un progetto di loyalty possono esserci molte ambiguità nella definizione di cliente infedele: se non si conosce bene il processo di business, se non si definisce con precisione cosa caratterizza il cliente infedele, l’analisi che ne deriverà non potrà essere corretta.

Data Warehouse e Data Lake: definizione e differenze

Ma dove stanno in azienda i dati? La domanda ci introduce ad altri due termini, Data Warehouse e Data Lake, sui quali è necessario fare un minimo di chiarezza, soprattutto per non incorrere nel tipico, e superficiale, approccio che dichiara morte certe tecnologie perché non rispondono pienamente alle esigenze della “trasformazione digitale” (e penso ai mainframe, agli ERP ecc.). La facilità con cui, a volte anche per esigenze di marketing, si definiscono “rock” certe tecnologie induce a pensare che le “altre” debbano essere rapidamente dismesse.

Il Data Warehouse secondo alcuni dovrebbe seguire questa sorte: in realtà non solo la sua costruzione è frutto di investimenti ingenti, ma per alcuni tipi di analisi svolge benissimo la propria funzione e quindi si vanno sempre più spesso definendo architetture ibride che vedono i più tradizionali Data Warehouse affiancarsi ai più smart Data Lake.

Il conio del termine Data Lake è del 2010 ed è da attribuire a James Dixon, CTO di Pentaho (società di BI poi acquisita da Hitachi Data Systems), che utilizzò la metafora dell’acqua (i dati) e del lago o della bottiglia (bacino e contenitore) per esemplificare il concetto:

Data Warehouse

L’acqua, i dati, vengono imbottigliati in contenitori diversi a seconda del tipo di fonte che li ha generati e della destinazione e dell’uso a cui sono destinati; i dati vengono quindi salvati in formati omogeni, raffinati e pronti per essere distribuiti a operatori e sistemi con funzioni specifiche.
Il processo ETL è tipico dei Data Warehouse, alla base del cosiddetto “schema on write” dove viene definita a priori la struttura del database, i dati vengono scritti in questa struttura definita e quindi analizzati. Il processo è complesso e costoso dovendo tener conto delle future integrazioni e implementazioni con nuove sorgenti, fondamentale se non si vuole costruire un contenitore rapidamente obsoleto.
Le sue caratteristiche e modalità di accesso sono perfette per utenti che hanno bisogno di analisi abbastanza semplici e, soprattutto, che sanno cosa cercare, quale tipo di relazione analizzare. Sono utenti di business che trovano in questi “contenitori” e nei sistemi di business intelligence che li interrogano ottime risposte in termini di reportistica e per capire l’andamento di fenomeni conosciuti. E infatti le evoluzioni di queste soluzioni, nella prima decade degli anni 2000, erano concentrate sull’interfaccia utente e sulla possibilità, per gli utenti, di costruire proprie dashboard per analisi di specifico interesse per l’utente stesso.

Analytics - Architettura di riferimento di un Data Warehouse
Architettura di riferimento di un Data Warehouse
Fonte: DataZoomers

Data Lake

I dati, come l’acqua, fluiscono in questi “bacini” liberamente dalle fonti che li generano e in questi bacini vengono esaminati e campionati nei loro formati originari: solo nel momento in cui vengono interrogati da applicazioni e operatori vengono convertiti in formati leggibili dai sistemi aziendali e quindi possono essere confrontati con altre informazioni. Un Data Lake può includere dati strutturati da database relazionali (righe e colonne), dati semi-strutturati (CSV, log, XML, JSON), dati non strutturati (e-mail, documenti, PDF) e dati binari (immagini, audio, video).
Ogni elemento viene identificato in modo univoco attraverso una serie di tag che corrispondono ai suoi metadati; questo consente, nel momento in cui un Data Lake viene interrogato relativamente a un problema specifico, di estrarre i dati rilevanti e quindi sottoporli ad analisi. È il cosiddetto “schema on read” dove i dati vengono letti senza dover essere “scritti” secondo uno specifico modello.
Il Data Lake, rispetto al Data Warehouse, ha il vantaggio di essere molto duttile e non richiedere lunghi tempi di implementazione; ha una gestione più semplice ed è reversibile senza problemi (tipologie differenti di dati possono essere inserite e/o cancellate senza dover applicare modifiche alla struttura).
I Data Lake sono l’ideale per effettuare analisi sempre più profonde, scoprire relazioni inimmaginabili che possono portare all’identificazione di nuovi business, ma che necessitano di figure specializzate nell’analisi, tra cui primeggiano i Data Scientist, ma delle quali c’è grande carenza.
Ma…c’è un ma. Secondo Forrester i risultati sono stati inferiori alle aspettative: i data lake si sono dimostrati troppo costosi, lenti nell’aggiornamento e ciò che è stato fatto è risultato inutile, ripercorrendo fallimenti già visti nel passato con i data warehouse e le piattaforme di BI.

Analytics -Architettura Data Lake
Esempio di architettura di un Data Lake
Fonte: Cloudera

Modelli di analytics

Gli strumenti di analytics vengono solitamente suddivisi in 4 macro categorie:

  • Descriptive Analytics, l’insieme di strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o aree funzionali.
  • Predictive Analytics, strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro; sono caratterizzati da tecniche matematiche quali regressione, forecasting, modelli predittivi, ecc;
  • Prescriptive Analytics, tool avanzati che, insieme all’analisi dei dati, sono capaci di proporre al decision maker soluzioni operative/strategiche sulla base delle analisi svolte;
  • Automated Analytics, strumenti in grado di implementare autonomamente l’azione proposta secondo il risultato delle analisi svolte.

Il mercato degli analytics in Italia

I dati dell’Osservatorio Big Data Analytics & Business Intelligence rilevano che il mercato Analytics in Italia nel 2018 ha raggiunto poco meno di 1,4 miliardi di euro, confermando ancora una volta il trend di crescita che lo sta accompagnando da anni, con un CAGR del +21% nel periodo 2015-2018

Decisamente in ritardo le PMI che rappresentano solo il 12% del mercato.

Per dare una vista di dettaglio delle direttrici di spesa in Analytics, i ricercatori del Politecnico hanno scomposto la spesa complessiva in 3 voci principali: risorse infrastrutturali (21%), software (45%) e servizi (34%). Per quanto riguarda la prima voce, le infrastrutture possono essere acquisite fisicamente, con un modello di erogazione on premises, oppure in cloud, attraverso un modello a consumo, da un provider esterno all’organizzazione che si prende carico dell’erogazione del servizio.

Analytics: trend tecnologici

Dall’Osservatorio del Polimi alle società di ricerca internazionali come Gartner e Forrester, tutti hanno cercato di evidenziare trend consolidati o emergenti nell’ambito della data analytics. Eccone una sintesi

Real time analytics

In sé, non è certo una novità; il suo nuovo impulso innovativo sta nella possibilità di elaborare i dati in streaming, mentre continuano ad arrivare e non solo dopo essere stati depositati nei vari database o data lake: “È questa la vera potenza: l’elaborazione avviene mentre un framework per lo storage come Apache Kafka, diventato de facto lo standard per l’analisi dei dati in streaming, porta i dati nel data lake, l’analisi avviene in quello che possiamo definire il data river”, afferma Carlo Vercellis, responsabile scientifico dell’Osservatorio del Politecnico. Ricordiamo che Apache Kafka è una piattaforma open source di stream processing distribuito sviluppata dall’Apache Software Foundation che consente, con bassa latenza e alta velocità, di gestire feed dati in tempo reale, effettuare ETL (Extract, Transform, Load) e, appunto, fare operazioni in tempo reale agendo direttamente sul dato durante il flusso.
“L’analisi dei dati lungo il percorso verso il data lake, estraendo insight per compiere delle azioni, è alla base di alcune innovative applicazioni nell’ambito del marketing di prossimità, dell’identificazione delle frodi, della proactive maintenance e, in generale, in tutto il mondo dell’IoT. Tutto un mondo che dà vantaggio competitivo”, ha precisato Vercellis.

Machine learning e augmented analytics

Il volume dei dati da scegliere, raggruppare ed esaminare per trarne decisioni cresce a livelli tali da renderne in pratica impossibile l’uso per il business senza automatizzare i processi coinvolti. Nasce quindi una generazione di sistemi, indicata con l’espressione ‘augmented analytics’, che utilizza le piattaforme di machine learning e gli algoritmi di analisi contestualizzata agli eventi per alimentare nuovi servizi analitici, più capaci di approfondimento e spesso incorporati nelle applicazioni cui le analisi sono destinate. Secondo Gartner si tratta di un trend che diverrà mainstream a breve, perché automatizzare l’identificazione dei data set, dei pattern e delle ipotesi permette ai più capaci utenti delle applicazioni business (i ‘power user’) di fare da sé analisi predittive e prescrittive e agire di conseguenza utilizzando strumenti di self service data analytics.

Self service data analytics

La self-service data analytics, ossia la diffusione di strumenti che permettono all’utente di business di gestire in autonomia il processo d’interrogazione dei dati (dall’esplorazione all’analisi, fino alla visualizzazione degli insight), diventa driver tecnologico per abituare all’utilizzo dei dati un numero maggiore di utenti.
L’Osservatorio del Politecnico riconduce le soluzioni di Data Visualization e Reporting a quattro categorie principali delle quali di seguito riportiamo le percentuali di adozione nelle grandi aziende italiane nel 2018:

  • Report: cruscotti statici volti a visualizzare, in maniera sintetica, analisi svolte da Data Scientist o Data Analyst. Tendono ad essere condivisi nei formati di office automation più comuni, via e-mail o su portali aziendali di collaborazione (86% delle grandi aziende li utilizza, soltanto nel 2% dei casi in via esclusiva);
  • Dashboard periodiche: cruscotti di visualizzazione dinamici in cui l’utente può interagire con i dati in maniera limitata, per esempio inserendo filtri o compiendo operazioni di drill-down. L’aggiornamento dei dati avviene periodicamente, a intervalli differenti a seconda del contenuto specifico, e non necessariamente nel momento stesso in cui la fonte dati viene aggiornata (81%);
  • Dashboard aggiornate in tempo reale: cruscotti di visualizzazione dinamici in cui l’aggiornamento dei dati avviene in tempo reale, quando viene aggiornata la fonte dati (34%);
  • Strumenti di Visual Data Discovery: strumenti che abilitano, attraverso l’interazione visuale con i dati, l’esplorazione del data model e lo sviluppo di analisi complesse, quali analisi previsionali o di ottimizzazione (58%).
Self- service Data Analytics
Gli strumenti di Self- service Data Analytics – Fonte: Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano

Data as a service e data monetization

Oltre alla pura vendita del dato cosiddetto “grezzo”, le analisi che vengono effettuate sui dati raccolti danno vita a informazioni molto appetibili che possono essere vendute.

Si parla quindi di monetizzazione diretta o indiretta:

  • con la prima si identifica la valorizzazione del dato grezzo, così come viene raccolto, senza ulteriori elaborazioni e la vendita può avvenire a progetto (cioè con una singola transizione) o in sottoscrizione (nella vendita si definisce un intervallo di tempo entro il quale i dati vengono aggiornati dalla realtà venditrice);
  • più complessa la monetizzazione indiretta dove entrano fortemente in gioco le tecnologie di big data analytics e quello che si vende è un servizio dove al dato viene associato uno strato di intelligenza che deriva dalla capacità di interpretazione dei dati (dove quindi entra in gioco tutta l’expertise specifica dell’azienda).

IDC ha affermato che nel 2025 la data monetization rappresenterà per molte aziende una delle principali fonti di reddito.

Nel cercare di capire la capacità da parte delle aziende italiane di monetizzare i propri dati, l’Osservatorio 2018 del Politecnico sottolinea prima di tutto un dato inquietante, ossia la crescente incapacità delle aziende di estrarre valore dai propri dati: se nel 2017 la percentuale di dati effettivamente utilizzati nelle aziende era intorno al 40%, nel 2018 scende al 30%; dal punto di vista della tipologia vi è ancora un peso dell’84% sul totale dei dati strutturati (transazionali e non), esattamente come nel 2015.

Nel contempo però il Politecnico evidenzia due importanti segnali d’innovazione: le aziende che acquistano dati dall’esterno aumentano dal 32% al 45% rispetto al 2016 e la percentuale di aziende che dichiarano di svolgere il ruolo di Data Provider raggiunge il 28%, con una crescita del 21% negli ultimi due anni.

Insight Platform

Secondo Forrester (studio Insight platform, connect data to action), le insight platform (piattaforme di conoscenza) stanno emergendo come evoluzione dei tool di big data management o analitici attraverso l’aggiunta di nuovi strumenti per sviluppare e testare insight, effettuare misure e monitoraggio da un’unica suite. Si tratta di soluzioni che unificano tutto ciò che serve per creare tool che gestiscono e analizzano i dati, integrano e provano gli insight per tradurli in azioni di business, quindi catturando i feedback per alimentare processi di miglioramento. Questo genere di soluzioni supera le difficoltà che oggi impediscono di tradurre la conoscenza in azioni, unificando la gestione dei datti per differenti servizi.

Non solo dati e metadati Hadoop, ma anche flussi e batch prodotti da altri framework di big data management. Poiché per ottenere insight utili possono servire più tipologie di analisi, è importante poter scegliere tra differenti tool di query, visualizzazione, modeling, eventualmente dotati di capacità real time. Mettendo insieme data management, tool analitici e strumenti real time, le insight platform possono supportare logica di business in grado di automatizzare la gestione dati, le analisi e i modelli predittivi.

Nel system of insight dati, informazioni qualitative e quantitative, azioni mediate dal software operano all’interno di un ciclo chiuso: concetto molto diverso dalle attuali pratiche di utilizzo di big data analytics e di business intelligence.

Il circolo virtuoso collega applicazioni che:

  1. correlano i dati con gli insight,
  2. inseriscono gli insight nelle operazioni di business, traducendoli in azioni,
  3. collegano le azioni con i dati riportandoli al punto iniziale del processo di continua ottimizzazione.

In questi contesti le insight platform aiutano a creare applicazioni che fanno girare più velocemente i system of insight mettendo a disposizione quello che serve in termini di gestione dati, big data analytics, testing e tecnologia d’esecuzione.

forrester_insight_platform
La struttura dell’insight platform – Fonte: Forrester Research Inc, Insight platforms, connect data to action

Il metodo Agile nell’analisi dei dati

Secondo gli esperti di Boston Consulting Group (BCG) le cause di ritardo nei progetti aziendali di big data analytics hanno aspetti comuni. Data engineer, data scientist, esperti di modeling matematico, d’informatica e statistica hanno difficoltà a comprendere gli obiettivi del business e quindi a catturare elementi di valore nelle analisi.

Lo studio Using Agile to help fix Big Data’s big problem di BCG identifica il problema nel modo in cui si sviluppano le analisi: applicando i classici metodi a cascata del project management in cui ogni attività dipende dal completamento della precedente e dal tempo passato in riunione per l’allineamento delle attività. Lo Studio identifica la soluzione nell’adozione della metodologia Agile che, grazie all’approccio iterativo ed empirico applicato a team interfunzionali, consente di arrivare rapidamente ad un Minimum Viable Product (MVP): la versione parziale, ma utilizzabile, del prodotto che, con i successivi feedback degli utenti e perfezionamenti, possa arrivare a soddisfare aspettative e obiettivi.
Per approfondire l’argomento rimandiamo all’articolo Come usare il metodo Agile nella big data analytics.

Analytics - Agile-to-Fix-Big-Data
Il metodo Agile accelera i progetti di Big Data e migliora i risultati – fonte: BCG

Le competenze necessarie per l’analytics

La carenza delle necessarie competenze, alquanto diffusa oggi in tutti i comparti dell’ICT, nell’ambito della Business Intelligence è legata in particolar modo a tre figure, secondo quanto spiega Vercellis:

  • Tecnologiche – Persone con skill di tipo matematico e algoritmico, finalizzati soprattutto al tema del machine learning e dell’Artificial Intelligence
  • Di connessione – Business translators, ovvero “traduttori” dei problemi che nascono nel contesto del business e che sono in grado di trasformarli in task specifici da proporre alla data analysis
  • Business oriented – Il Business analyst, che individui i problemi all’interno delle varie parti dell’azienda e li porti all’attenzione delle persone preposte a risolverli

È fondamentale che questi ruoli non vengano considerati a compartimenti stagni, ma le competenze delle persone che li svolgono devono almeno in parte essere sovrapposte, in modo che possano dialogare efficacemente. Come fare? Vercellis propone tra le possibili soluzioni job enrichment e job rotation, ma soprattutto una formazione che sia più comprensiva dei vari elementi che possano dare una visione più ampia che vada oltre la singola figura.

Gli ambiti applicativi

In una società data driven, gli ambiti applicativi della data analytics sono molteplici. Quelli di seguito raccolgono gli ambiti più rappresentantivi.

Marketing Optimization e web analytics

Da processo creativo a processo altamente guidato dai dati: il marketing è uno dei principali utilizzatori delle più avanzate tecnologie di analytics. Le organizzazioni di marketing utilizzano l’analisi per determinare i risultati delle campagne o degli sforzi e per guidare le decisioni per l’investimento e il targeting dei consumatori. Gli studi demografici, la segmentazione della clientela, l’analisi congiunta e altre tecniche consentono ai professionisti del marketing di utilizzare grandi quantità di dati di acquisto, sondaggio e panel per capire e comunicare la strategia di marketingUno strumento basilare per la marketing optimization è la Web Analytics che consente di raccogliere informazioni a livello di sessione su un sito Web. Ci sono diversi strumenti gratuiti, come Google Analytics, o a pagamento che vengono utilizzati a tale scopo. Grazie all’analisi di queste interazioni è possibile tracciare il referrer, cercare parole chiave, identificare l’indirizzo IP e tracciare le attività del visitatore. Con queste informazioni, un marketer può migliorare le campagne di marketing, i contenuti creativi del sito Web e l’architettura delle informazioni. Le tecniche di analisi utilizzate frequentemente nel marketing includono la modellazione del marketing mix, le analisi dei prezzi e delle promozioni, l’ottimizzazione della forza vendita e l’analisi dei clienti, ad esempio segmentazione.

Tramite i tool di web analytics si possono analizzare con un ottimo grado di dettaglio le proprie piattaforme digitali, effettuando benchmark con i dati provenienti dal mercato o con altre organizzazioni e siti del settore

People Analytics

La people analytics è applicata specificatamente alle risorse umane. L’obiettivo è, attraverso l’analisi di dati comportamentali oltre a quelli classici relativi alla formazione, al cv ecc., capire quali dipendenti assumere, quali ricompensare o promuovere, quali responsabilità assegnare ecc.. L’analisi delle risorse umane sta diventando sempre più importante per capire quale tipo di profili comportamentali riuscirebbero e fallirebbero. Ad esempio, un’analisi può scoprire che gli individui che si adattano a un determinato tipo di profilo sono quelli con maggiori probabilità di riuscire in un determinato ruolo, rendendoli i migliori dipendenti da assumere.L’utilizzo della people analytics può avere uno spettro di azione molto ampio: dall’analisi della produttività delle vendite a quella del turnover e della fidelizzazione dei dipendenti, da quella degli incidenti e delle frodi fino a quella che consente di capire quali sono i dipendenti capaci di determinare una maggiore fidelizzazione e soddisfazione dei clienti.

Portfolio analytics

Si tratta di un’applicazione molto comune per banche e agenzie di credito sia bilanciare il rendimento del prestito con il rischio di default per ciascun prestito: i conti raccolti dalla banca possono differire in base allo status sociale (facoltoso, medio, povero, ecc.) del titolare, alla posizione geografica, al suo valore netto e a molti altri fattori, l’utilizzo della portfolio analytics consente di incrociare e analizzare tutti i dati combinando analisi di serie temporali con molte altre questioni al fine di prendere decisioni su quando prestare denaro ai diversi segmenti di mutuatari o decisioni sul tasso di interesse addebitato ai membri di un segmento di portfolio per coprire eventuali perdite tra i membri in quel segmento .

Risk analytics

I modelli predittivi nel settore bancario sono sviluppati per garantire certezza ai punteggi di rischio per i singoli clienti; si tratta quindi di una applicazione di analytics in parte sovrapponibile alla precedente anche se ha uno spettro di azione più ampio. Viene infatti utilizzata, per esempio, per analizzare se una transazione online o effettuata con carta di credito può essere fraudolenta utilizzando dati relativi alla cronologia delle transazioni del cliente.

Security analytics

Riguarda le tecniche di analytics per raccogliere e analizzare eventi di sicurezza per comprendere e analizzare gli eventi che presentano il maggior rischio. È una delle aree della data analytics di maggiore sviluppo.

Accanto ai rischi provocati da minacce malware o da vulnerabilità note, che potrebbero essere già fortemente mitigati con normali antivirus e con il patching tempestivo delle applicazioni, aumentano quelli più sofisticati e persistenti che richiedono la capacità di cogliere e analizzare “segnali deboli”. Fra questi, per esempio, traffici di dati che apparentemente sembrano nella norma ma che, invece, adeguatamente esaminati, si rivelano anomalie che possono costituire l’anticamera di attacchi veri e propri.

I cybercrimali fanno ampio uso di analytics per lanciare i loro attacchi: grazie al social engineering è molto più facile far cadere un utente nella trappola del phishing per permettere un attacco APT (Advanced Persistent Threat).

Andare a caccia di minacce nascoste e persistenti, tenere costantemente sotto controllo i traffici di dati sulle reti, e individuare i comportamenti anomali degli utenti, è l’obiettivo della Security Analytics.

ITSM analytics

L’utilizzo della data analytics in ambito strettamente tecnologico, per modellare un ‘next generation’ IT Service Management, è un altro ambito di forte crescita.

Gli strumenti di analytics consentono infatti di estrarre informazioni utili, tra la miriade di dati disponibili, per l’IT, in particolare per intervenire in modo efficace sul Service Management.

In particolare, vi sono alcuni interessanti ‘casi d’uso’ che producono valore sia sul piano IT sia nei confronti dell’utente/consumatore:

  • It Service Analytics, strumenti con funzionalità di analisi real-time che forniscono la massima visibilità e trasparenza sulle relazioni tra le ‘transazioni’ di business e il comportamento delle applicazioni e delle infrastrutture IT a supporto di tali servizi; il valore dell’IT sta proprio in questa visibilità e capacità di analisi, il valore per l’utente di business (il principale cliente dell’IT) sta nel più efficace allineamento tra business e IT e, di conseguenza, nella migliore qualità del servizio ricevuto.
  • Interaction Analytics, strumenti particolarmente utili per il Service Desk: gli strumenti analitici consentono di correlare tutti i dati inerenti i servizi IT attraverso i quali l’utente interagisce (profilo, storia degli eventi, accessi, business data, utilizzo delle applicazioni, richieste di intervento e supporto, ecc.); l’analisi di questi dati fornisce informazioni utili per migliorare il servizio di Help Desk, per esempio, ma anche per automatizzare eventuali processi come gli interventi di supporto.
  • Problem Analytics in questo caso gli strumenti consentono di effettuare analisi correlate degli eventi in real-time non solo automatizzando eventuali processi di intervento ma anche abilitando un sistema di ‘supporto preventivo’, consentendo all’It di procedere prima ancora che l’utente possa percepire un calo nel servizio IT. Si ha così miglior qualità del servizio, maggior capacità di risposta e riduzione dei tempi di intervento.
  • Capacity Management, in questo caso gli strumenti di analytics consentono all’IT di modellare dinamicamente le risorse IT con più efficacia, in particolare in funzione delle reali esigenze degli utenti e delle risorse IT necessarie ad ‘alimentare’ i servizi erogati.

Manutenzione preventiva

Dalla manutenzione predittiva dei macchinari all’interno delle fabbriche a quella degli oggetti (dalle auto ai frigoriferi ecc.), l’analytics combinata con le tecnologie IoT e di edge computing rappresenta un altro ambito in crescente espansione.

Dalla ricerca 2019 dell’Osservatorio Internet of Things della School of Management del Politecnico di Milano, le applicazioni più diffuse in questo ambito sono legate principalmente alla gestione della fabbrica (Smart Factory, 62% dei casi) per il controllo in tempo reale della produzione e la manutenzione preventiva o predittiva. Una delle principali direzioni di sviluppo dell’Industrial IoT, infatti, è l’analisi e gestione dei dati raccolti, ma soltanto il 33% del campione ha già iniziato a farlo (e chi lo fa è sempre soddisfatto dei benefici).

Software analytics

Si tratta dell’analisi dei sistemi software che tiene conto del codice sorgente, delle caratteristiche statiche e dinamiche (per esempio Metriche del software) e dei relativi processi di sviluppo ed evoluzione per migliorare, descrivere, monitorare, prevedere e migliorare l’efficienza e l’efficacia dell’ingegneria del software nell’intero ciclo di vita del software, in particolare durante lo sviluppo del software e la manutenzione del software. La raccolta dei dati viene in genere eseguita mediante il mining dei repository software, ma può anche essere ottenuta raccogliendo azioni dell’utente o dati di produzione. È uno dei trend tecnologici individuati da Gartner per il 2019 e che si muove su tre direzioni:

  • la prima è la trasformazione degli strumenti di AI rivolti ai data scientist in strumenti adatti a essere utilizzati dagli sviluppatori;
  • la seconda è l’introduzione in questi tool di capacità di AI che servano ad automatizzare in modo ‘intelligente’ (context ed event-aware) i processi di testing e code-generation;
  • la terza è l’aggiunta di una base di conoscenza dei processi di business cui le applicazioni sono destinate.

Questa evoluzione, secondo Gartner, farà anche cambiare l’organizzazione dei team di sviluppo da una struttura basata sulla collaborazione tra data scientist e sviluppatori a una basata su sviluppatori (anche non professionali) capaci di usare da soli modelli e tool di sviluppo AI predefiniti e forniti come servizio.

Patrizia Fabbri

Giornalista

Patrizia Fabbri è giornalista professionista dal 1993 e si occupa di tematiche connesse alla trasformazione digitale della società e delle imprese, approfondendone gli aspetti tecnologici. Dopo avere ricoperto la carica di caporedattore di varie testate, consumer e B2B, nell’ambito Information Technology e avere svolto l’attività di free lance per alcuni anni, dal 2004 è giornalista di ZeroUno.

Analytics: cosa significa, quando e come si usa

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4