ZeroUno: Il fenomeno big data e le nuove funzionalità delle soluzioni di advanced analytics applicate in un contesto di estrema complessità competitiva come quello attuale hanno rivoluzionato il concetto di business intelligence e possono rappresentare la base per scoprire nuove opportunità di business. Come si posizionano i Sistemi Informativi in questo scenario? Quali gli elementi principali di attenzione?
Tomatis: Oggi ci troviamo a trattare nuove tipologie di dati: si parla spesso del grande bacino dei social networks, ma è soprattutto dal mondo dell’Internet of Things che sta arrivando una vera e propria rivoluzione (pensiamo alle opportunità che possono derivare, in termini di proposta di nuovi servizi, per esempio, dall’analisi dei log nell’utilizzo di una pay Tv). E questo cambia radicalmente il paradigma della business intelligence: si passa da una situazione in cui si usavano i dati per misurare fenomeni che erano conosciuti, a una situazione in cui ci si trova di fronte a dati che bisogna combinare tra loro per scoprire nuovi fenomeni. Quindi sono le stesse unità di business a trovarsi in difficoltà perché si tratta di inventarsi nuove opportunità dai dati, ma non solo: fino a poco tempo fa la capacità di analisi in termini di business era di competenza sostanzialmente del top management e del marketing; oggi invece interessa altri comparti aziendali, come le operation, la logistica, la produzione. Quindi la business intelligence può assurgere a una sorta di laboratorio di R&D per nuovi prodotti e servizi. È chiaro che in questa trasformazione il ruolo dei Sistemi Informativi è centrale, purché questi siano capaci di mettersi in gioco ponendosi tra la tecnologia, gli utenti e i partner esterni ossia i software integrator o i software vendor. La vera svolta sta nell’essere in grado di sfruttare questo potenziale assumendo un ruolo trainante nell’implementazione di queste soluzioni, mantenendone la governance perché senza di essa si aprono scenari pericolosi in termini di sicurezza, integrità e qualità del dato e si rischia una ingestibile anarchia.
Dossena: Per operare una scelta che non si limiti a rispondere a esigenze contingenti, ma che porti vantaggi nel lungo periodo, anche sull’attività stessa dei Sistemi Informativi, è indispensabile porre l’attenzione, oltre che ovviamente sui requisiti di business, su alcune caratteristiche tecnologiche: il basso costo di manutenzione; la possibilità di modulare la capacità infrastrutturale in base al mercato e al settore in cui l’azienda opera; la facilità di gestione. Altro elemento importante è che l’It possa mantenere il controllo del dato lasciando nel contempo gli utenti liberi di utilizzare la soluzione: l’It deve rimanere l’owner del dato, in termini di gestione, sicurezza e mantenimento della sua integrità e qualità, ma l’utente deve essere autonomo nella sua capacità di analisi. L’It deve definire insieme al business i diversi ruoli che possono avere accesso al dato e in quale modo, verificando ogni singola fase del processo per avere una chiara visione di chi fa (e può fare) cosa e definendo con precisione i diversi livelli di responsabilità del dato.
Persani: Può sembrare banale dirlo, ma è ovvio che per non essere anticipato dalle Lob, il Cio deve assecondare le richieste del business e deve farlo mantenendo un costante allineamento con le mutate esigenze: se le soluzioni tradizionali di business anlytics e business intelligence analizzavano i dati del passato per fare le analisi e poco si preoccupavano di quali comportamenti erano in grado di far prevedere i trend futuri, oggi l’analisi predittiva è una conditio sine qua non. Il secondo elemento, che ci aiuta anche a capire la reale differenza tra un tradizionale progetto di data warehousing e uno di big data analytics, è che un progetto big data presenta tre caratteristiche fondamentali. La prima è la velocità, intesa non come tempo di risposta ma relativa al tempo intercorrente tra creazione del dato e fruibilità per l’utente finale e questa velocità si ottiene eliminando il più possibile gli stadi intermedi del processo; datamart, datawarehouse, sistemi di business intelligence che si aggiornano l’uno con l’altro allungano la catena del processo mentre oggi esistono motori in real time, come Sap Hana, che permettono di accorciare questa catena. La seconda sono i volumi; ma è la terza quella che realmente contraddistingue i big data dai dati tradizionali ossia la necessità di gestire e analizzare dati strutturati e dati non strutturati; quindi un Cio, nello scegliere la soluzione più idonea alla propria realtà aziendale, deve orientarsi verso soluzioni che offrano la possibilità di utilizzare motori in real time e siano in grado di garantire sia l’analisi storica del dato sia quella predittiva, sia dati strutturati che non strutturati.
Zurlo: Bisogna prendere atto di un cambiamento epocale dove i big data rappresentano uno degli elementi, accanto al cloud e altri trend disruptive, che impongono il ripensamento della figura del Cio. Sebbene al Cio sia richiesto, ovviamente, un presidio della tecnologia al fine di operare le scelte che meglio rispondono alle esigenze della propria azienda e di mantenerne la governance, oggi la sua focalizzazione principale deve spostarsi (e nella maggior parte dei casi si è già spostata) verso una partecipazione attiva alla definizione delle strategie aziendali, nelle quali l'Ict non gioca più un ruolo di solo "supporto" bensì diventa elemento fondante. È questa la premessa fondamentale che deve guidare anche la scelta delle soluzioni di business analytics, il resto sono dettagli.
Firpo: Al di là di questa specifica tematica, ci sono due elementi sui quali il Cio deve porre la propria attenzione, elementi che sono trasversali a tutti i sistemi informativi e non riguardano esclusivamente la big data analysis: l’efficienza operazionale e l’ottimizzazione dei costi. Dal nostro punto di vista, entrambe sono ottimamente indirizzati dalle tecnologie open source perché, oltre ai vantaggi noti in termini di costi, le community sulle quali si basa ogni progetto open source rappresentano un bacino enorme, naturalmente innovativo e competente, in grado di offrire componenti che possono rispondere a molte esigenze tecnologiche e di business. Il modello open source inoltre prevede anche distribuzioni di livello enterprise per garantire stabilità, performance e supporto. In ambito big data, ad esempio Hortonworks o Cloudera sono tra le più diffuse per l’implementazione della piattaforma Hadoop; l’uso di una distribuzione di questo tipo consente di trattare e consolidare quantità massive di dati, permettendo all’It di predisporre rapidamente, e a costi contenuti, una piattaforma di base per rispondere alle eventuali richieste del business, scegliendo in seguito i componenti più adatti a far fronte a alla specifica esigenza.
Falcone: Direttamente o indirettamente l’ownership del dato, e quindi anche dei big data, sia dal punto di vista applicativo sia da quello gestionale o di storage è del Cio e dei Sistemi Informativi. Responsabilità del vendor è fornire soluzioni che, oltre a semplificare le profilazioni e le interfacce più legate agli utenti business, semplifichino il processo anche per coloro che hanno l’ownership del dato, ampliando le funzionalità dei sistemi di data mangement già presenti in azienda.
CommVault infatti estende elementi di base di gestione del dato, come il backup, fornendo ai Cio tutti quei sistemi di analytics che consentono di trasformare il dato in informazione utile al business. Quindi la nostra soluzione, in particolare con l’ultima release Simpana 10, fornisce interfacce che, attraverso una reportistica integrata, consentono di poter prelevare dai sistemi i dati precedentemente gestiti per renderli fruibili, quindi analizzabili, da qualsiasi utente, e che possono rappresentare l’input sul quale effettuare analisi più complesse utilizzando sistemi di analytics più sofisticati.
ZeroUno: Il tema dell’analisi della complessità apre una problematica non banale sul piano delle competenze, sia sotto il profilo degli skill tecnologici sia rispetto alle capacità di analisi e interpretazione dei dati. Come colmare queste lacune? Quale ruolo possono avere i vendor nel supportare la formazione di figure professionali adeguate?
Dossena: Fino a poco tempo fa all’interno delle aziende si aveva il cosiddetto "laboratorio analitico" che eseguiva le analisi, utilizzando determinati algoritmi e modelli, sulla base di specifiche inviate dalle linee di business alle quali poi veniva inviato il risultato di queste analisi. Ne derivava un certo scollamento tra chi produceva le analisi (il laboratorio analitico, di competenza dell’It) e chi (l’utente finale, quindi il business) doveva prendere decisioni sulla base di queste analisi. Sas cerca di colmare questo gap in due modi: da un lato avvicinando gli utenti finali alle tematiche analitiche rendendo più semplice la fruizione degli algoritmi statistico-analitici sui quali l’utente può realmente prendere delle decisioni; dall’altro aiutando chi ha le competenze analitiche a rendere più semplici e interpretabili i risultati ed essere, nel contempo, più veloce nella definizione dei modelli di analisi.
Questa semplificazione del processo analitico intrinseca nella nostra soluzione, si affianca al supporto formativo classico sui nostri strumenti, ma anche a quello nell’upgrade o nell’acquisizione di competenze analitiche da parte degli utenti aziendali e alla collaborazione con università e politecnici per la realizzazione di corsi e master su queste tematiche.
Falcone: Per far fronte alla carenza di competenze, abbiamo realizzato una struttura che propone diverse offerte formative, fruibili sia via web sia tramite corsi all’interno dell’azienda. L’idea fondativa è stata quella di creare una base di conoscenza condivisa che potesse interconnettere tutti gli operatori che utilizzano i dati aziendali e poter costruire su questa base delle verticalizzazioni, a livello formativo, su diversi aspetti della gestione del dato da quelli più tecnologici a quelli più orientati al business.
Tomatis: È indubbio che se la complessità legata alla capacità di domare e gestire la tumultuosa mole di dati oggi disponibile è correttamente affrontata, la sfida che si apre immediatamente dopo, e cioè come trasformare in valore queste nuove miniere di informazioni, è ancora in gran parte da affrontare. Perché se alcuni contenuti informativi dei big data sono immediatamente e intuitivamente fruibili dagli utenti di business grazie agli strumenti di business analytics, molti altri si celano al di là dell’intuibile, nelle relazioni nascoste tra i dati. Si impone quindi l’esigenza di disporre di nuovi skill di dominio statistico e funzionale da integrare con le competenze di business e quelle tecnologiche, ma occorre soprattutto superare la separazione classica dei ruoli tra sistemi informativi e business, verso un’integrazione di scopo. Un cambiamento del quale i software integrator possono divenire i catalizzatori apportando la conoscenza sulle nuove competenze applicate alle soluzioni di advanced analytics e favorendone l’integrazione con quelle specifiche di business e con il resto del contesto informativo aziendale. È in quest’ottica che Consoft Sistemi sta investendo su nuovi skill che sappiano associare alle competenze tecnologiche su big data ed advanced analytics anche quelle di dominio funzionale e di processo.
Zurlo: Si parla molto della carenza di figure come quella del data scientist, ma forse ne parla un po’ troppo. Sta sicuramente emergendo la necessità di una figura multidisciplinare; esistono gli esperti nelle diverse discipline, ma manca una figura che riunisca in sé queste differenti competenze e questa è una carenza del nostro sistema scolastico. Quello che noi di Tibco Jaspersoft stiamo facendo, capitalizzando il nostro essere nati dal mondo open source, è di avere trasformato il materiale informativo e tutto ciò che la community rappresenta in veri e propri corsi universitari online che forniscono un programma avanzato di formazione nelle discipline della business intelligence e degli advanced analytics.
Persani: Naturalmente Sap mette in atto tutti i programmi per supportare i clienti, dal punto di vista formativo, nell’utilizzo delle proprie soluzioni sia dal punto di vista tecnico che applicativo. Ma oltre a questo ci siamo orientati anche su attività di carattere più generale per rispondere alla problematica della carenza di competenze. La prima è l’adesione all’iniziativa Academy Cube promossa dalla Commissione Europea che offre a studenti e neolaureati in tutte le discipline la possibilità di acquisire competenze in ambito science, technology, engineering e mathematics; sono già oltre 8000 le iscrizioni a livello europeo e sono 400 le opportunità di lavoro che ne sono a oggi scaturite. La seconda è il Sap Startup Focus ,che aiuta a promuovere l’innovazione sostenendo startup che utilizzano la nostra tecnologia.
Firpo: Per rispondere adeguatamente alle esigenze emergenti sono necessari almeno tre livelli di competenze: il primo è quello di tipo tecnologico e la figura di riferimento è il data engineer, che per poter predisporre l’architettura tecnologica adeguata alla sua trattazione, deve capire l’origine del dato, le sue caratteristiche intrinseche e la tipologia di analisi che si deve implementare (nel caso dell’open source, per esempio, l’ecosistema è composto da centinaia di componenti e per scegliere quella più adatta bisogna conoscere bene la tipologia di applicazione che si desidera implementare); il secondo livello è il regno della modellazione del dato, quindi del data scientist, che deve avere competenze statistiche, computazionali, ecc. (per quanto ci riguarda, per questo livello ci avvaliamo anche di ricercatori e docenti universitari specializzati nelle specifiche discipline); il terzo livello, infine, è quello da noi denominato “data meaning” (una variante rispetto al classico data mining) che corrisponde all’expertise necessaria per estrarre nuovi significati di “business” dalle correlazioni che emergono dalla big data analysis. È a questo livello di competenze (che però senza i primi due non ha possibilità di esprimersi) che si deve la creazione di nuovi modelli di business che nascono proprio dall’identificazione di correlazioni non valutate in precedenza.
ZeroUno: I nuovi strumenti devono avere una fruibilità diffusa in modo da consentire una distribuzione pervasiva della capacità di analisi; è richiesta una sorta di “democratizzazione” degli analytics. Quali sono le principali caratteristiche tecnologiche che una soluzione di business analytics deve avere per rispondere a questa esigenza?
Tomatis: Una delle tre caratteristiche che contraddistinguono i big data, insieme a volume e varietà, è la velocità, ed è proprio la velocità esecutiva nel percorso che va dalla cattura del dato al momento della decisione, a risultare decisiva per una competizione vincente. Una rapidità di azione è possibile solo garantendo l’accesso diretto al dato appena “catturato” da parte dei decisori di business. Questo non deve però significare limitarsi a mettere a disposizione di tutti gli utenti aziendali potenti strumenti di advanced analytics e attendersi così che questi trasformino milioni di dati in informazioni di valore. Più che a una democratizzazione, si andrebbe incontro a un’anarchia degli analytics. Occorre invece strutturare un percorso organico di distribuzione dell’informazione passando per un’identificazione puntuale dei profili dei business user, molto più di quanto avvenuto fino ad oggi, adottando soluzioni tecnologiche che associno a una grande duttilità di utilizzo una puntuale definizione della profilazione. La sfida da questo punto di vista è proprio quella di garantire la massima personalizzazione delle soluzioni, fino al livello di singolo utente, senza che questo si trasformi in oneri di gestione inaccettabili per i sistemi informativi, che devono garantire una corretta segregazione del dato, indipendentemente dallo strumento e dal luogo dal quale sia fruito.
Dossena: Una soluzione di business analytics deve essere semplice e intuitiva per l'utente finale, indipendentemente che sia business o tecnico, e deve essere sicura perché la governance del dato è un elemento fondamentale; ma pur essendo semplice e sicura deve essere molto potente: l’analisi apparentemente semplice è frutto di algoritmi sofisticati. La risposta di Sas a queste esigenze è quindi un'estrema semplificazione nell’usabilità delle soluzioni, con la definizione del profilo dell’utente che la andrà ad utilizzare e della modalità di utilizzo: un utente business preferisce sicuramente lavorare con interfacce web, desidera poter vedere i risultati da mobile e solo nel momento in cui avrà bisogno del dettaglio analitico richiederà ulteriori approfondimenti che non necessariamente devono essere fatti in mobilità. Questa semplicità d’uso si basa però su una piattaforma con un motore analitico molto potente.
Persani: Accanto agli elementi a cui ho accennato nel mio primo intervento – integrazione con un motore real time e capacità di analisi sia storica sia predittiva e di dati strutturati e non – credo siano necessarie altre tre caratteristiche: facilità di implementazione, capacità di scalare a una soluzione realmente enterprise per garantire univocità del dato e infine fruibilità delle informazioni da parte di tutti gli utenti con i device e le modalità che questi ultimi sono soliti utilizzare (dall’analista ‘affezionato’ all’interfaccia Excel o Excel-like, al top manager che vuole visionare informazioni sul proprio iPad magari mentre è in aereo e quindi anche non essendo connesso). Infine, ovviamente, la soluzione deve essere in grado di supportare e lavorare su tutti i sistemi It utilizzati in azienda, siano essi on-premise o in cloud.
Zurlo: Rapidità di implementazione e di integrazione con le applicazioni presenti in azienda, facilità di gestione e di utilizzo: sono queste le caratteristiche fondamentali della nostra soluzione; il nostro valore è quello di consentire la creazione di qualsiasi tipo di report nel giro di pochi minuti, da qualsiasi fonte provenga il dato e in ogni contesto tecnologico. Siamo l’unica soluzione di advanced analytics, per esempio, ad essere fruibile via cloud da Amazon Web Services: in pochi click e in pochi minuti è possibile connettere i propri dati con la piattaforma su Aws e avere i primi report. Per questo Tibco Software ha deciso di acquisire la nostra realtà, proprio perché ne ha compreso l’originalità e il valore e noi ne siamo molto orgogliosi [lo scorso aprile Tibco Software ha acquisto Jaspersoft per 185 milioni di dollari con l’intenzione di arricchire la sua offerta di soluzioni analitiche con le funzionalità Intelligence Inside di Jaspersoft – ndr].
Firpo: La condizione di partenza è quella di rispettare i vincoli che ogni singola azienda pone sulla visualizzazione dei dati: la piattaforma di analisi deve consentire il rispetto delle policy aziendali e quindi la creazione di profili basati su queste policy è una condizione imprescindibile.
Premesso ciò, l’aspetto principale è quello di disporre di una struttura delle informazioni stratificata in modo da poter fornire: informazioni di sintesi, possibilmente in tempo reale, sempre aggiornate, consultabili con diversi device mobile a chi necessita di una visione di insieme, tipicamente il top management; e informazioni più dettagliate che consentano di compiere analisi di profondità. In questo caso la disponibilità su device mobile non è strettamente necessaria, perché l’analista necessita di interfacce più complesse (non facilmente fruibili su un tablet) e di soluzioni che rendano disponibile la storicità del dato (l’aspetto importante è più che altro l’andamento storico del dato stesso, non le variazioni dell’ultimo secondo).
Falcone: Il primo elemento fondamentale è l’accessibilità everywhere senza che l’utente debba preoccuparsi del device o dell’interfaccia utilizzata. Il secondo è un sistema di controllo degli accessi che sia indipendente, ma integrato nel contesto aziendale: la soluzione deve avere il proprio sistema di profilazione, definendo chi fa cosa, ma deve potersi integrare con sistemi di controllo degli accessi sicuri che operano nell’azienda, in modo tale da poter sfruttare tutto quello che l’azienda ha già fatto per poter garantire la sicurezza in azienda. È poi fondamentale che la modalità di accesso sia sicura quindi vi deve essere la possibilità di utilizzare canali di accesso cifrati che impediscano di intercettare il dato durante la consultazione.
Ma su tutto un aspetto mi preme sottolineare: gli analytics legati ai big data non devono necessariamente comportare l’introduzione di una soluzione specifica in azienda; bisogna estendere la gestione e l’analisi dei big data utilizzando soluzioni, come Simpana 10, focalizzate per propria natura sul data management.