Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

In-memory computing, accelerare le decisioni per trasformare il business

pittogramma Zerouno

In-memory computing, accelerare le decisioni per trasformare il business

20 Ago 2013

di Arianna Leonardi

In un mercato sempre più veloce e selettivo, la capacità di processare rapidamente e dinamicamente grandi moli di dati strutturati e non, accelerando le decisioni, diventa la chiave di volta per il successo aziendale. L’in-memory computing, aprendo la porta a nuove opportunità applicative e di business, offre un prezioso paradigma per creare valore competitivo, ma occorre un cambio di passo anche da parte dell’It. Sono stati questi i temi discussi lo scorso giugno durante l’incontro “Breakfast con l’Analista” organizzato da ZeroUno in collaborazione con Fujitsu e Intel, a cui hanno partecipato i responsabili It di importanti realtà italiane.

Velocità, flessibilità, efficienza: oggi le chiavi della competitività obbligano le aziende a innovare continuamente i prodotti, adattare rapidamente i processi e ridurre drasticamente il lead-time, senza perdere di vista gli obiettivi di qualità e risparmio. Bisogna “premere l’acceleratore” sulle decisioni traendo valore dallo sterminato patrimonio informativo oggi disponibile e in crescita esponenziale. L'in-memory computing offre un nuovo paradigma per lo sviluppo di applicazioni in grado di gestire query avanzate o eseguire operazioni complesse su database estesi in tempo reale, ovvero in modo molto più veloce e scalabile rispetto alle architetture convenzionali. Ma la tecnologia da sola può bastare a raggiungere gli ambiziosi traguardi di business? L'argomento, in tutte le sue sfaccettature e implicazioni, è stato discusso durante l’incontro Breakfast con l'Analista dal titolo In-memory computing per correre al ritmo del business, organizzato lo scorso giugno da ZeroUno in collaborazione con Fujitsu e Intel, a cui hanno partecipato i responsabili It di importanti realtà italiane.

L'articolo continua nella pagina seguente

 

*BRPAGE*

(segue dalla pagina precedente)

“Forrester parla di Business technology – esordisce in apertura di dibattito Stefano Uberti Foppa, direttore di ZeroUno -: il ruolo dell'informatica sta evolvendo da mero strumento di supporto alle attività aziendali a 'fattore guida' in grado di indirizzare il business. Maggiore é il livello di digitalizzazione dell'impresa, più ampio é il contributo della tecnologia in termini di creazione del valore e aumento della capacità competitiva. In questo contesto, l'in-memory computing merita una riflessione in virtù della duplice capacità di restituire efficienza nell´analisi dei dati e di creare nuove opportunità di business, migliorando la capacità di proposta e di risposta dell'It alle esigenze aziendali".

Tecnologia: opportunità anti-crisi, in grado di trasformare il business

Per meglio inquadrare i termini della questione, inserendola nell'opportuna cornice socio-economica, interviene Anna Maria Di Ruscio, partner e direttore generale di NetConsulting. "Nonostante l'allarmismo per la crisi in atto, oggi la tecnologia offre alle imprese una effettiva opportunità di riscatto, permettendo di trasformare il business e non soltanto di guidarlo. Nell'economia digitale, a differenza che in quella reale, l'Italia è allineata al resto del panorama internazionale, con persino delle punte di eccellenza: nel tristissimo 2012, ad esempio, la vendita degli smartphone nel nostro Paese è aumentata del 62% rispetto alla media mondiale del 41%. Secondo l'ultimo Rapporto Assinform-NetConsulting, i nostri utenti web hanno superato i 41 milioni e navigano in media un'ora e 28 minuti al giorno. Anche lo sviluppo della Internet of Things, che cresce a ritmi esponenziali, è destinata a cambiare il modo di operare delle aziende". Nella paralisi della recessione, insomma, molto si muove e, come suggerisce Di Ruscio, "ci saranno ancora accelerazioni evidenti" (smartphone e tablet, ad esempio, sono solo l'inizio della rivoluzione mobile, ma stanno già entrando in commercio nuovi dispositivi wearable, come orologi e occhiali intelligenti, che avranno un forte impatto non solo nell'esperienza consumer, ma anche sui processi aziendali).

Nel Global Digital Market, il fermento innovativo è affiancato dall’aumento di popolarità dei social network (“un utente italiano – afferma Di Ruscio – ha in media tre account su diverse  piattaforme”) e dalla crescita esponenziale della mole di dati, sempre più reperibili e condivisi (“negli ultimi cinque anni, le informazioni digitali sono aumentate di nove volte in volumi, superando attualmente le tre unità di Zetabyte”). “Secondo l'ultima Cio Survey – prosegue l’analista -, nel 2013 i dati aziendali strutturati aumenteranno in quasi il 75% delle organizzazioni, mentre la crescita delle informazioni destrutturate riguarderà una percentuale di oltre l'80%. Questo porterà le aziende a rivedere le proprie architetture di storage, con un'adozione crescente delle tecnologie di Business analytics e dei database in-memory”.

La mobility rappresenta un altro driver di cambiamento importante, che, oltre a contribuire all’incremento informativo, secondo Di Ruscio, disgrega i confini aziendali e ridisegna le dinamiche di relazione/comunicazione dentro e fuori l’organizzazione. In Italia, si spostano sul digitale anche le transazioni commerciali, con l’ecommerce che ha raggiunto gli 11 miliardi di euro di fatturato (+17% 2012 su 2011) e le vendite sui canali tradizionali che sono precipitate di cinque punti percentuali.

“Anche su settori tipicamente tradizionali – prospetta Di Ruscio -, si innescano nuove dinamiche di processo, ovvero modalità alternative di lavorare e produrre, anche grazie ai progressi tecnologici: si pensi, ad esempio, al crowd funding o alla stampa 3d e alla loro portata innovativa sui processi aziendali. L’offerta di prodotto, invece, si evolve sempre di più in direzione dei servizi: non si vende più solamente un oggetto, ma anche tutta una serie di servizi a corollario [ad esempio, l’acquisto di un’automobile si associa alla proposta di polizze assicurative, soluzioni per i navigatori satellitari e così via, ndr]; si creano così nuove filiere di valore, con i fornitori di servizi che gravitano intorno ai prodotti. Il cambiamento, insomma, corre a ritmi sempre più veloci e le imprese devono avere la capacità di stare al passo, immaginando nuove logiche operative”.

In-memory: dettagli tecnologici e vantaggi di business

Sotto questo profilo, l’in-memory computing risponde ai nuovi dettami del mercato, perché permette di affrontare il cambiamento gestendo una grande mole di dati su dispositivi diversi, grazie alla maggiore capacità elaborativa. Riconoscendo i vantaggi di business derivanti, Fujitsu è impegnata sul fronte dell’in-memory attraverso l’offerta di un’infrastruttura hardware pre-configurata, certificata e ottimizzata per l’impiego della piattaforma in-memory Hana (High Performance Analytic Appliance) di Sap.

Secondo la multinazionale giapponese, infatti, questa tecnologia disruptive porta gli ambienti Oltp (Online Transaction Processing) e Olap (Online Analytical Processing) all’interno di un unico sistema, accelerando le funzionalità di analisi e reporting. Le query vengono elaborate non sui dischi di massa all’interno di database statici, ma in modo dinamico direttamente sulla memoria principale del server (molto più veloce, ma meno capace in termini di volumi). Per riuscire a gestire sulla Ram una mole di dati maggiore, si ricorre a una serie di accorgimenti tecnologici: la compressione dei dati con un fattore da 5 a 10; l’esecuzione del backup in background, sfruttando inoltre la possibilità di scegliere dischi più o meno nobili a seconda della criticità del dato; il parallel processing (l'esecuzione simultanea di operazioni complesse su più microprocessori o core) su sistemi scalabili che arrivano a comprendere, nel caso di Fujitsu (il riferimento è al supercomputer “K” sviluppato dall’azienda nipponica), fino a 1024 nodi (ovvero, singole macchine rack collegate tra loro). Oggi una Ram può arrivare a supportare istanze di dati fino a 16 terabyte.

Come dichiarato dal vendor, il primo vincolo che viene abbattuto grazie al progresso tecnologico dell’in-memory è la latenza, vantaggio che per le aziende si traduce in “riduzione degli sprechi di tempo e di denaro”. L’esperienza di un produttore di apparecchiature elettroniche, che, dovendo processare quotidianamente 53 milioni di dati su 9 milioni di clienti per ricavarne dei report, ha ridotto i tempi dell’operazione da 3 giorni a 2 minuti, è esemplificativa delle opportunità di accelerazione offerte dal nuovo paradigma di data management. Nella vision di Fujitsu, l’in-memory offre un cruscotto real-time sulle attività aziendali, abilitando applicazioni prima impensabili e restituendo maggiore sicurezza e affidabilità nelle decisioni strategiche. Il real-time, insomma, apre nuovi spazi competitivi.

All’obiezione di Stefano Bossi, It engineer di Mediaset, sull’opportunità di utilizzare la tecnologia Flash in alternativa all’in-memory per accelerare la disponibilità e l’analisi dei dati, Fujitsu risponde che le due soluzioni non si escludono a vicenda, ma possono essere usate in modo complementare a seconda dell’utilizzo e della tipologia delle informazioni.

Dello stesso avviso anche Marco Soldi, marketing development manager di Intel, partner di Fujitsu, che racconta il contributo del chip maker all’in-memory computing, attraverso continue evoluzioni di prodotto. “Negli ultimi anni – racconta -, le novità introdotte nei processori Intel hanno avuto come focus il miglioramento dell’accesso ai dati, in un’ottica di maggiore velocità: abbiamo perfezionato le interfacce di I/O e la gestione della memoria dedicata alle operazioni di presa e rilascio dei dati. I moderni processori multi-core non fanno più solamente il lavoro di Cpu, ma per gestire le richieste crescenti di input/output hanno a disposizione una cache molto ampia, contribuendo a supportare le attività in-memory”.

Aziende alla ricerca di velocità, velocità, velocità

Ma, chiariti gli aspetti tecnologici, come si pongono le imprese italiane di fronte alle nuove opportunità liberate dall’in-memory computing? L’interesse c’è, come dimostra l’intervento di Demetrio Migliorati, head of costumer administrator di Banca Mediolanum: “Nella nostra struttura organizzativa, le dinamiche relazionali e di comunicazione tra sede centrale, rete commerciale e clienti sono importantissime. In questa triangolazione, la circolazione e l’aggiornamento delle informazioni diventa strategico e la disponibilità dei dati real-time portata dall’in-memory può dare un contributo significativo nell’accelerare i tempi di risposta. La velocità è un must nella raccolta e analisi dei dati (nel nostro caso, hanno un peso significativo anche quelli destrutturati che forniscono informazioni utili sul comportamento del consumatore ai fini di migliorare il servizio alla clientela con prontezza e interattività). Grazie alle tecnologie disponibili, oggi l’It oggi è in grado di offrire al business la proattività di cui ha bisogno e può proporsi come portatore di innovazione”.

“E’ come se ai Sistemi Informativi – sottolinea a questo proposito Uberti Foppa – avessero dato in mano una Ferrari per correre ai ritmi del business, ma i ‘cavalli’ non bastano, senza la capacità di guidare e governare il cambiamento. Per il Cio si tratta di una assunzione di responsabilità: ora ha gli strumenti per fornire risposte adeguate e tempestive, cosicché crescono anche le aspettative del management”.

La questione viene riportata ad una dimensione tecnologica da Stefano Gatti, project and process It manager presso Cerved Group: “Per ottenere vantaggi di business, aumentare la velocità di accesso ai dati non è sufficiente: occorrono degli algoritmi analitici e dei data scientist in grado di processare efficacemente il grande quantitativo di dati messi a disposizione in real-time per trarre informazioni utili ed effettivo valore per l’azienda”.

Domenico Sannelli, Ict infrastructure architecture di Autogrill, invece, insiste sulla necessità di una trasformazione sotto il profilo culturale, organizzativo e operativo: “Adottando una tecnologia dirompente, occorre un cambio architetturale e di approccio. Non si tratta di aggiungere semplicemente una nuova applicazione o funzionalità all’interno del sistema. Nei progetti di ottimizzazione, che prevedono l’implementazione della tecnologia e la riorganizzazione di infrastrutture e processi, diventa difficile dimostrare al business  la correlazione tra costi e benefici. Spesso il demand è molto vicino alle esigenze di business, ma molto distante dalle problematiche di ordine tecnologico: c’è, insomma, un salto quantico tra chi decide le infrastrutture e chi le implementa. Ci vorrebbe un demand più tecnico capace di indirizzare il business nelle scelte e un’unità It capace di pensare in modo più strategico”. All’atto pratico, in Autogrill non si esclude l’adozione futura di tecnologie per accelerare la gestione e l’analisi dei dati: al momento è stato portato avanti un progetto per l’ottimizzazione delle risorse di storage, preambolo per più avanzate strategie di data management.

Anche Ferrovie dello Stato guarda con interesse all’in-memory, ma, secondo Alfonso De Ascaniis, responsabile soluzioni Ict movimento e commerciale dell’azienda, il modo più efficace per allineare It e business passa per un lavoro di stretta collaborazione tra le persone: “Non conta il tempo di risposta della singola applicazione, ma la velocità con cui in generale si soddisfano le richieste aziendali. In questo, puntiamo sulla capacità di intercettare e anticipare i bisogni”.

It sempre più strategico, ma servono nuove competenze

I tempi di risposta sono un tema caldo anche nel settore dell’energia, come spiega Emanuele Andrico, It manager processi core presso Edipower, dove l’informatica è considerata indispendìsabile per rimanere sul mercato e la “ricetta della velocità” passa per l’ottimizzazione delle applicazioni e dei processi in un’ottica sistemica: “Oggi il business ha bisogno di una pluralità di dati provenienti da più fonti: la visibilità si ottiene quando tutti i software sono in grado di interfacciarsi correttamente tra loro, facendo confluire le informazioni in una dashboard che restituisce una risposta univoca e coerente. Lavorando solo sull’ottimizzazione delle applicazioni, senza intervenire a livello infrastrutturale, è possibile ottenere un’accelerazione significativa: è questa la strada che stiamo seguendo. Contemporaneamente, ci troviamo a dovere gestire una mole di dati in continua crescita, che deriva ad esempio da nuovi sensori di monitoraggio: sono informazioni che prima non erano disponibili e che oggi, invece, dobbiamo storicizzare in attesa di un loro utilizzo analitico”.

L’attenzione verso l’in-memory è riconfermata anche da Daniele Benedetti, divisione Innovazione, integrazione e architetture applicative di Pirelli Sistemi Informativi. “Nel nostro caso – dichiara il manager – la latenza tra mondo transazionale e analitico è di un giorno. Portando i due ambienti su un’unica piattaforma, l’in-memory computing offre l’opportunità di accorciare notevolmente i tempi e permette di semplificare l’architettura, riducendo il Tco. L’investimento non è trascurabile, ma le prospettive di risparmio sono rilevanti. La capacità di sviluppare nuovi scenari applicativi, avendo a disposizione dati in modo non solo più veloce, ma anche granulare, pone l’It in una prospettiva diversa rispetto al business, ma occorrono nuove competenze e un lavoro di squadra. I Sistemi Informativi devono rendere le Lob autonome nell’esperienza di analisi dei dati e non è compito facile visto il salto di paradigma, passando  da un’intelligence a livello di dashbord statici a una navigazione interattiva. Insomma, l’It avrà bisogno di nuovi skill per gestire il grande volume di dati a disposizione e trasferire al business il governo sulle informazioni”.

Arianna Leonardi

Articolo 1 di 5