Vendor e utenti per percorsi organizzativi e tecnologici comuni

Aspettative, problemi e soluzioni relativi alla valorizzazione dei big data presso le aziende italiane: se ne è discusso, in un confronto tra utenti e vendor IT, nel corso della Tavola Rotonda che si è tenuta durante il convegno “Big Data, il valore della complessità”, organizzato da ZeroUno in collaborazione con ClubTI.

Pubblicato il 29 Mag 2012

Presieduta e moderata da Stefano Uberti Foppa, direttore di ZeroUno nel corso del convegno “Big Data, il valore della complessità” organizzato lo scorso 7 maggio da ZeroUno in collaborazione con il ClubTI, si è tenuta una Tavola Rotonda che ha visto confrontarsi una folta rappresentanza di organizzazioni utenti, università e di vendor Ict.

Uberti Foppa, allo scopo di tracciare una prima panoramica di riferimento, ha dato il via alla discussione invitando per primi gli utenti presenti ad esporre i modelli operativi e soprattutto le finalità e le aspettative, in termini di vantaggi per l’impresa, con i quali hanno affrontato il problema. E’ stato anche precisato, sempre dal chairman, un punto di partenza importante: tutto il convegno (e di conseguenza anche questo resoconto) ha avuto l’obiettivo di discutere come impostare un percorso verso una gestione ottimale di quella grande mole di dati strutturati e soprattutto non strutturati che può andare sotto il nome di Big Data. Quindi niente false aspettative in termini di risultati già verificabili ma un’analisi, la più articolata e onesta possibile, di come fare, sotto il profilo tecnologico, organizzativo e di competenze necessarie, per affrontare il tema della complessità informativa.

Utenti e dipendenti, ma soprattutto persone

Marco Albertoni, Smarter Analytics Leader, Ibm

A questo invito ha risposto per primo Marco Albertoni (Ibm) che parlando nella veste, in questo caso, di utente più che fornitore di tecnologia (il problema della gestione delle informazioni complesse, su una base dimensionale mondiale come è quella di Ibm rappresenta una vera sfida), ha osservato come il lavoro principale in Ibm (svolto, significativamente, da una divisione ad hoc creata all’interno dell’area Finance) sia consistito “nel capire quali processi aziendali potessero essere trasformati attraverso l’introduzione di nuove tecnologie”, cioè quelle appunto disponibili per la gestione e analisi dei big data.

Giuliana Bonello, Product Manager Business Intelligence & Data Quality, CSI Piemonte

Per chiarire il concetto, Albertoni ha citato il caso della gestione del personale Ibm India (dove la società conta circa 80 mila dipendenti), spiegando come in un mercato del lavoro dinamico come quello indiano la funzione HR sia supportata da tool di analisi di dati complessi in grado, tramite modelli matematici, di prevedere il rischio di perdita degli elementi migliori e quindi di calibrare i programmi d’incentivazione. Un approccio analogo, ma in una situazione del tutto diversa, è stato svolto, come spiegato da Giuliana Bonello, in Csi Piemonte. Dopo aver analizzato i dati relativi all’utilizzo dei propri sistemi informativi per ottimizzarne l’impiego, il Consorzio ha individuato gli ambiti dove il valore di tali analisi è più sensibile per la PA. Ad esempio, quello sul bilanciamento dei costi del servizio in funzione delle entrate, in modo da indirizzare (“anche in chiave di equità sociale”, ha osservato Bonello) le risorse ai progetti più rilevanti.

Franco Dradi, Enterprise Sales Director, RIM/BlackBerry Italy

Federico Giannini, responsabile Sviluppo Corporate Systems, Fastweb

Più ‘tradizionali’, in quanto sviluppatisi essenzialmente dal filone delle analisi rivolte alla conoscenza del mercato e degli utenti, gli ambiti d’impiego dei big data esposti da Federico Giannini (Fastweb), che ha sottolineato la necessità di velocizzare al massimo le analisi sui dati per poter adeguare le operazioni commerciali a un business molto competitivo, e da Franco Dradi (BlackBerry), che si è soffermato sul volume dei dati che i dispositivi mobili (tra le maggiori fonti del fenomeno stesso dei big data) sono in grado di fornire e quindi sui problemi di efficienza, sicurezza e soprattutto governabilità che ne derivano per l’It. Anche Alessandra Chiuderi (Mondadori) ha parlato di analisi del consumatore, con un’esperienza interessante (vedi "Dai fondamentali fino all'analisi più raffinata, nelle correlate a questo articolo) specialmente per gli aspetti organizzativi.

Alessandra Chiuderi, responsabile Crm Direzione Generale Digital, Mondadori

Infatti, dopo aver unificato e razionalizzato in un repository creato ad hoc tutte le fonti dati presenti nelle varie business unit (libri, periodici, abbonamenti…) integrandovi le informazioni non strutturate provenienti da siti Web e reti sociali, è stata creata una nuova direzione generale, chiamata Digital. Lo scopo è quello di sfruttare il patrimonio informativo derivante dalla ‘visione globale’ del cliente così ottenuta secondo un avanzato principio di cross-selling in modo trasversale agli obiettivi delle varie business unit ma coordinato alle strategie generali dell’azienda. Il progetto Mondadori, ha sottolineato Chiuderi, “è stato spinto dall’It, risultata unico centro aggregante di tutti i dati dell’azienda”, e questo ha innescato la discussione sul ruolo propulsivo dell’It e del suo peso quale interlocutore nei confronti del fornitore di soluzioni.

Le nuove tecnologie disponibili

Spostando il discorso sul ruolo dei vendor, Uberti Foppa si è quindi rivolto ai rappresentanti dell’offerta per parlare della necessaria evoluzione/trasformazione dei sistemi informativi e delle infrastrutture e di come fare per poterla attuare. “Più precisamente – ha detto Uberti Foppa – proporre oggi un ’offerta in ambito big data significa essere coscienti che al di là dell’eccellenza tecnologica si sta parlando di progetti fortemente impattanti sull’organizzazione dell’utente; quindi le modalità di costruzione, co-disegno della soluzione devono prevedere, anche sul fronte del vendor, delle competenze nuove in termini di processi da migliorare e di risultati da ottenere. Non sempre questa competenza è presente”.

Amedeo Prodi, Customer Solution Manager, Sap

Amedeo Prodi (Sap), dopo aver premesso come l’It debba anche in quest’ambito agire interpretando i problemi posti dal business, osserva come, stante il consolidamento delle applicazioni aziendali (Erp, Crm, Sales management e così via) e la flessibilità e velocità operativa imposta dal business, il problema dei big data sia già ben presente nelle aziende. Un’opzione che si offre all’It è, ad esempio, il ricorso alle tecnologie di elaborazione in-memory per quelle situazioni che richiedono analisi e decisioni in tempo reale.

Fabrizio Fantasia, Business Developer, Sybase

Una scelta che “velocizzando le applicazioni correnti rende fruibile al business un nuovo modo di farne uso a fronte delle nuove esigenze”. Sul fronte del real-time interviene Fabrizio Fantasia (Sybase) che dopo aver convenuto con Prodi sul fatto che per gli aspetti di volume e velocità quello dei big data non sia un fenomeno nuovo, aggiunge come la crescente importanza delle analisi in tempo reale suggerisca, oltre a un ricorso a specifiche tecnologie (database colonnari e analisi in-memory), una semplificazione dell’architettura di data management: “Occorre creare un layer unico di accesso alla totalità dei dati, tale da poter sviluppare modelli associativi e di navigazione che siano tipici dell’utente e non reimpostati da limiti tecnologici”.

Danilo Piatti, Country Manager Italy, Autonomy (an HP Company)

Michele Guglielmo, Territory Manager Italy, Splunk

Significativi, a proposito dell’eterogeneità dei dati da trattare e quindi del ruolo nodale della piattaforma unica di accesso, i contributi al dibattito portati da Michele Guglielmo (Splunk), che ha parlato dell’importanza dei dati machine-to-machine, generati cioè dall’interazione diretta all’interno dei sistemi informativi e i sensori e/o attuatori collegati, e di Danilo Piatti (Autonomy-HP) che ha invece parlato dell’analisi in chiave semantica dei contenuti dei dati non strutturati. Si tratta, a ben guardare, di aspetti opposti di uno stesso problema: da un lato vi è quella che si può definire ‘operational intelligence’ (“facciamo il Google per l’It”, ha aggiunto Guglielmo per rendere l’idea), che abilita le operazioni di analisi estraendo le informazioni dai dati-macchina, i più essenziali tra quelli che girano all’interno di un sistema; dall’altro invece le analisi si svolgono estraendo i relativi significati indifferentemente dalla forma e dall’organizzazione delle informazioni di partenza.

Massimo San Giuseppe, Ceo, QlikView Italy

In ogni caso, come osserva Massimo San Giuseppe (QlikView), a prescindere dalla tipologia dell’informazione cercata e dalla sua rilevanza per il business, che è comunque fondamentale, non si può pensare di affrontare il problema dei big data con le soluzioni attuali. Sia sulle soluzioni analitiche, a proposito delle quali San Giuseppe ovviamente ricorda l’approccio associativo di QlikView, sia sulle modalità tecnologiche (in-memory, appliance e quant’altro) con le quali applicarle ai dati. Lo dimostra la convergenza dei messaggi dei vendor verso le tecnologie di cui si è detto e lo anche dimostra l’opinione degli utenti che, secondo i dati preliminari della Web survey ancora in corso da parte di ZeroUno in partnership con Sybase, illustrati da Uberti Foppa prima della tavola rotonda, per affrontare la problematica nel 71% dei casi prevede un rinnovamento tecnologico.

Vedere oltre e vedere insieme

Giacomo Lorusso, Sales Director, SAS

Per quanto, come detto da più parti, i big data in una certa misura esistano di fatto da tempo, nessuno esclude che per molti punti di vista l’It e più in generale l’intera organizzazione aziendale si confronti con un fenomeno nuovo. Secondo Giacomo Lorusso (Sas) l’importanza dei dati esterni all’impresa, specie se non strutturati, porta infatti a dover uscire dal governo dei dati interni (una visione che per Lorusso ”sta diventando un fattore di rischio”) per aprirsi al “confronto con il business sui valori dei nuovi dati e su come vadano gestiti e trattati, in modo da trovare, di concerto con il fornitore di tecnologia, un’architettura di data management capace di trattare le diverse situazioni”. Ciò significa anche, in pratica, “saper dire se e quando acquistare un’appliance, quando lavorare in-memory, quando in modalità in-database, se e quando usare il cloud computing e così via”. Non è solo un problema tecnologico, in quanto la scelta, conclude Lorusso, “dipende prima di tutto dalla rilevanza e dalla volatilità dell’informazione per le esigenze del business”.

Di conseguenza, per Albertoni (Ibm, ma questa volta in veste di vendor It), il problema per il fornitore sta nel dimostrare al business il valore dei dati. E per questo occorre un’It informata e che segua gli aspetti tecnologici ma anche una figura nuova: “Quella di un ‘data scientist’ o analyst’ che si ponga fra business e It per costruire modelli matematici sofisticati in grado appunto di estrarre dai big data il valore cercato. Una figura che serva anche, come ha osservato Luca Solari (professore straordinario di Organizzazione Aziendale, Università Studi di Milano) “ad uscire dai meccanismi classici di analisi della realtà”. Una persona, o un gruppo di persone, che anche se forse non costruirà i modelli di analisi dei dati sarà capace di dare loro un senso nuovo, “reinterpretando i dati secondo un’idea nuova e diversa da ogni precedente”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 12