Big data e analytics: gli elementi del successo

L’attenzione alle analisi in tempo reale sui big data come elemento d’innovazione dell’impresa è alta e presente ai diversi livelli aziendali. Ma perché i progetti non falliscano occorre che l’It abbia chiarezza di visione sugli obiettivi, controllo sull’adozione delle tecnologie e soprattutto nuove competenze estese alle diverse funzioni aziendali. Se ne è discusso nel “Breakfast con l’Analista”, organizzato recentemente da ZeroUno in collaborazione con Fujitsu e NetApp.

Pubblicato il 23 Lug 2014

Ai primi di luglio, nel tradizionale e accogliente ambiente del ‘Camparino’ di Piazza del Duomo, si è tenuto un ‘Breakfast con l’Analista’ che, organizzato da ZeroUno con la collaborazione di Fujitsu e NetApp, aveva per tema “Big Data e real time analytics”. Un argomento di crescente interesse da parte delle imprese che ne hanno compreso il valore strategico. Come ha detto Stefano Uberti Foppa, Direttore di ZeroUno, riprendendo un’osservazione fatta, non a caso, da un partecipante a un incontro precedente svolto sullo stesso sul tema, “le analytics devono rappresentare la ‘ricerca e sviluppo’ dell’azienda”, precisando il ruolo fondamentale delle analisi nell’interpretare le complesse logiche del mercato, della competizione e della capacità stessa di generare offerta dell’impresa che presiedono all’individuazione di nuovi prodotti o servizi.

In questo compito, l’It deve oggi affrontare una duplice sfida: quella data dall’esplosione in volume e in diversità di dati divenuti rilevanti per il business e quella dell’applicazione delle analisi non più e non solo sullo ‘storico’ raccolto nei Data warehouse ma anche su ciò che accade nel presente. L’esigenza di analisi in tempo reale non nasce solo dal crescente valore del ‘fattore tempo’, che porta ad agire sempre più in fretta, ma anche dalla cosiddetta ‘democratizzazione’ della BI, con analisi non solo finalizzate alle scelte strategiche, ma anche e sempre più al servizio delle operazioni correnti. “Un fatto – ha continuato Uberti Foppa – che comporta, oltre all’ovvia discontinuità tecnologica che occorre implementare per avere un supporto infrastrutturale adeguato, anche la ricerca di competenze, di modelli organizzativi e di processo capaci di creare un diverso approccio alla BI, trasversale alle modalità operative dell’azienda”.

I relatori da sinistra Stefano Uberti Foppa, Direttore di ZeroUno e Paolo Pasini, Responsabile dell’unità Sistemi Informativi e direttore dell’Osservatorio Business intelligence di Sda Bocconi

La parola è quindi passata a Paolo Pasini, Responsabile dell’unità Sistemi Informativi e direttore dell’Osservatorio Business intelligence di Sda Bocconi. Dopo un’introduzione sul valore dei dati come risorsa economica diretta, come base di nuovi prodotti o servizi e, anche, come fattore generante di spin-off dedicate alle analisi, Pasini ha parlato delle figure aziendali e degli aspetti organizzativi portatori nell’innovazione che l’analisi dei big data comporta per l’impresa e per l’It. Da indagini svolte dall’Osservatorio BI risulta di cruciale importanza la creazione di un comitato interfunzionale di top manager (Marketing, Finance, HR…) che comprenda il Cio e lo affianchi nel decidere le aree su cui investire e nel lancio dell’iniziativa. Ma perché questa abbia successo occorre un budget adeguato (con valutazione del Roi), il supporto del Ceo o della proprietà e, importante, un patrimonio di competenze interne tecnologiche, analitiche e interpretative delle analisi. Di queste Pasini ha esposto le opzioni di sviluppo (interno o acquisendo specialisti del settore) e la posizione dei Competence Center, che risulta di preferenza centralizzata o presso le Lob piuttosto che presso l’It. “Solo su queste basi – ha concluso Pasini – l’iniziativa può partire, con progetti mirati, ma inquadrati in un disegno generale dal quale discendano la scelta delle fonti d’informazione e delle tecnologie”.

Competenze tecniche ma rivolte al business

Stimolato da un commento di Uberti Foppa sull’opportunitàecessità (emersa dalla ricerca presentata da Pasini) di creare quei comitati interfunzionali “che potrebbero costituire quel mitico linguaggio che l’It sta ricercando da anni nei confronti del business”, il dibattito si è subito sviluppato sul tema cruciale delle competenze. Ha dato il via Roberto Fonso, Cio di Banca Popolare di Milano, che ha rivendicato al marketing, in quanto responsabile dello sviluppo dei nuovi servizi e quindi primo fruitore delle analisi, il ruolo di driver delle iniziative di BI sui big data, ma ha riconosciuto nello stesso tempo “la necessità di mettere assieme competenze a cavallo delle due funzioni” (cioè marketing e It). Il punto è stato ripreso da Stefano Takacs, Head of South Europe It Operations di Vodafone Servizi e Tecnologia, per il quale le competenze di business (marketing e commerciali) sono indispensabili: “Per valorizzare l’output delle analisi real time su big data e trasformarlo in vantaggio competitivo con campagne modificabili in tempo reale e capaci di cogliere in modo preciso le esigenze del cliente. Ritengo però – ha aggiunto – che le competenze It siano il catalizzatore di questa trasformazione. Perché il business non è sempre ben consapevole di ciò che con i big data si possa fare”. Per far ciò occorre prima che il Cio “comprenda meglio le dinamiche e le potenzialità del business per proporre soluzioni che vi rispondano adeguatamente”, e poi che abbia “le spalle coperte dal lato della tecnologia”, con sistemi e appliance in grado di velocizzare l’output estraibile dai dati. Una cosa che, ha aggiunto Takacs, è “una conseguenza naturale” dell’aver saputo cogliere i bisogni del marketing e delle altre funzioni aziendali e aver convinto i responsabili della opportunità di investire in nuove infrastrutture in grado di rispondere, appunto, a questi bisogni.

Anche per Roberto Malaguti, Responsabile Applications di Auchan, l’It dev’essere capace “di sviluppare competenze interne sia tecniche sia anche e soprattutto vicine a quelle di chi dovrà fruire delle analisi per renderle produttive per il business”. Sono un po’ le doti che dovrebbe avere la figura del “data scientist” di cui tanto si parla per cogliere nel mare di informazioni potenzialmente disponibili quelle capaci di promuovere stimoli e proposte d’innovazione. “Se questa percezione manca – ha concluso Malaguti – è difficile che gli investimenti infrastrutturali abbiano un ritorno”.

Dal Cio al Chief Data Officer

Su questi temi è intervenuto Roberto Patano, Senior Manager Systems Engineering di NetApp, che, pur rappresentando una realtà tecnologica, è stato d’accordo sul fatto che non è da questa che si deve partire. “Le tecnologie ci devono essere, sono abilitanti per far sì che tutto funzioni, ma quando si parla di big data la vicinanza al business è essenziale. L’It deve essere ben cosciente di ciò che marketing, finance o quant’altro hanno bisogno ed essere innovativo nelle proposte. Mi piace – ha aggiunto – l’espressione ‘fantasista del dato’ che Pasini ha usato per i data scientist, perché rappresenta bene la capacità d’intuire correlazioni invisibili, ma che possono offrire all’azienda un vantaggio competitivo”. Una capacità, ha concluso, “che o si sviluppa in casa, e non è facile se vi sono competenze It consolidate, o va cercata fuori. Ci sono in Italia, molte realtà, anche piccole, che si stanno specializzando con soluzioni verticali: appliance che aggregano dati in modo mirato per alcuni mercati”. Anche per Davide Benelli, Business Program Manager di Fujitsu, che ha parlato citando proprie esperienze, solo se l’It è in buona sintonia con il business può trovare la soluzione adatta e vincere le eventuali resistenze interne agli investimenti. Così è stato sia per i progetti nati dal marketing sia per quelli promossi dall’It. “In entrambi i casi spetta però all’It – ha sottolineato Benelli – garantire la sicurezza dell’infrastruttura. Una cosa essenziale perché le resistenze di molti clienti per queste tecnologie (le appliance e i sistemi analitici che operano in real-time sui dati ‘vivi’ – ndr) nascono da timori sulla loro affidabilità”.

Spetta anche all’It, come ha osservato Mario Gentile, It Marketing e Vendite Manager di A2A (servizi di pubblica utilità), il problema di controllare lo sviluppo ‘a macchia di leopardo’ delle analytics causato da soluzioni che il marketing a volte avvia in modo indipendente: “Sta bene agevolare queste iniziative, ma bisogna ricondurle a una visione d’insieme che porti beneficio a tutta l’azienda”. E diano, in mano all’It, quella sicurezza e affidabilità di cui s’è detto. Una strada per risolvere il nodo dei rapporti tra business e It affidando a quest’ultima, come ha detto Uberti Foppa, il ruolo di “consulente progettuale” rispetto ai bisogni delle funzioni aziendali è stata infine proposta da Giovanni Pedrani, Service Manager di Rcs Mediagroup. Si tratta del Cdo, il Chief Digital Officer, una nuova figura di top manager, che sta sopra al Cio e fa parte del board, la cui funzione è traghettare l’impresa dai modelli di business tradizionali a quelli che sfruttano le tecnologie digitali. Nel mondo dei media in cui opera Rcs questo passo è già segnato e l’avvento di un Cdo si impone, ma nella società digitale il discorso vale per moltissime organizzazioni. Un pericolo per il Cio? Al contrario: la nuova figura rappresenta di fatto quell’evoluzione di cui tante volte (a partire proprio da ZeroUno) si è parlato per chi guida l’It. Un’opportunità che nessun Cio può permettersi di perdere.


In due per l’azienda real-time

Nel solco di una partnership tecnologica che le vede collaborare da tempo sul fronte dei sistemi ad alta disponibilità Fujitsu e NetApp hanno recentemente presentato FlexFrame per Sap. Si tratta di un’infrastruttura integrata e pre-testata che assegna dinamicamente in funzione dei carichi di lavoro le risorse di elaborazione (Fujitsu Primergy) e storage (NetApp Fas) sia fisiche che virtuali richieste dalle applicazioni Sap. La soluzione permette di consolidare e virtualizzare i servizi Sap realizzando con relativa facilità un ambiente multi-utente ad alta efficienza e disponibilità che riduce i costi operativi e assicura, tramite i sistemi di ripristino incorporati, l’erogazione dei servizi. L’infrastruttura FlexFrame è inoltre adatta a ospitare ambienti di elaborazione in-memory Sap Hana, con una capacità scalabile sino a 16 Tbyte. Risulta quindi una soluzione mirata per quelle realtà che, operando con analisi in tempo reale sui dati ‘live’ forniti dai sistemi gestionali, necessitano di una piattaforma di certificata affidabilità.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati