Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Big data analytics e in-memory computing: ecco le fondamenta dell’impresa digitale

pittogramma Zerouno

Big data analytics e in-memory computing: ecco le fondamenta dell’impresa digitale

20 Apr 2016

di Nicoletta Boldrini

La fruizione e la disponibilità delle informazioni nell’era della mobility e del cloud richiedono alla base infrastrutture performanti ‘cloud-ready’ e dotate di architetture di in-memory computing per l’analisi dei dati, soprattutto oggi che le aziende necessitano di ‘conoscenza’ e ‘utilità’ da estrapolare da grandi moli di dati, focalizzando al contempo l’attenzione sugli aspetti di sicurezza.

In quattro anni supereremo i 20 miliardi di oggetti connessi (passando dagli attuali 6,3 miliardi ai 20,7 previsti nel 2020 – fonte: Gartner, novembre 2015), oggetti che genereranno miliardi di dati che andranno ad aggiungersi alla massa di informazioni che già oggi ‘invadono’ il pianeta e che sono originate e fruite al di fuori delle organizzazioni aziendali. “Da tempo le aziende stanno cercando il modo di trarre valore da questi dati – esordisce Andrea Gaschi, Associate Partner di Partners4Innovation, aprendo i lavori di un recente Breakfast con l’analista organizzato da ZeroUno con la partnership di Fujitsu e Intel -; secondo i dati degli Osservatori Digital Innovation della School of Management del Politecnico di Milano, il 44% dei Cio italiani (su un campione di oltre 230 Cio di medie e grandi imprese) vede la Business Intelligence e i Big Data Analytics quale principale priorità di investimento per la digitalizzazione della propria impresa ed il 22% considera l’analisi delle grandi moli di dati la sfida principale per riuscire a supportare la trasformazione digitale del business”.

“Nel nostro caso la BI rappresenta un pilastro strategico importante dell’azienda e ne è il sistema transazionale cardine, nel senso che alimenta a sua volta tutta una serie di applicazioni e architetture da cui dipendono i processi operativi di tutta l’organizzazione aziendale – conferma per esempio Stefano Gianluigi Vellone, Responsabile Business Intelligence Systems di Sky Italia -. Sul fronte Big Data siamo attivi da più di un anno ma con progetti ad hoc (siamo già al quarto ‘laboratorio’ progettuale); la criticità maggiore riguarda sicuramente la difficoltà nel portare al business ‘qualcosa di concreto’, ma in Italia il freno principale è dato dalla normativa sulla privacy che, per esempio, limita moltissimo la profilazione degli utenti o la geolocalizzazione”.

Troppi dati aumentano il gap di opportunità

La vera sfida non riguarda la crescita dei dati ma il loro effettivo utilizzo: “A fronte della crescita dei dati, il gap di opportunità aumenta; la quantità di questi realmente utilizzata in azienda è infatti destinata a scendere dall’attuale 47% al 44%, entro un paio d’anni – sottolinea in modo provocatorio Gaschi -. ‘Tanti dati’ non è sinonimo di informazione e conoscenza; per arrivare a ciò è fondamentale capire come utilizzarli”.

“C’è un mondo, quello dei dati strutturati, che la maggior parte delle aziende gestisce in modo standard, inteso con maturità e risultati efficaci – fa notare a tal proposito Antonio Gentile, Sap & Primequest Business Developer Manager di Fujitsu -, è il dato non strutturato che ‘mette ansia’ ma, di fatto, la commistione e l’integrazione di questi con i dati transazionali tradizionalmente utilizzati in azienda sta avvenendo e non sarà possibile, lato It, ignorarne l’impatto”.

“Il vero tema non è la tecnologia – condivide Luca Magnoni, Head of Digital&Life Apps di Aviva Italia – ma come i dati possano portare conoscenza utilizzabile ai fini di business. Il problema primario dei dati non strutturati, anche ammesso di riuscire a catturare ed analizzare quelli coerenti ed aderenti all’azienda, riguarda il loro ciclo di vita, spesso più breve del processo decisionale. In questo modo si corre il rischio di basarsi su dati ormai vecchi”

Infrastrutture performanti sì, ma ‘occhio alla sicurezza’

I relatori del Breafast, da sinistra: Nicoletta Boldrini, giornalista di ZeroUno, Andrea Gaschi, Associate Partner di Partners4Innovation e Antonio Gentile, Sap & Primequest Business Developer Manager di Fujitsu

E se la volatilità del dato rappresenta una criticità non certo da sottovalutare, anche sul piano infrastrutturale gli interventi necessari non sono banali, soprattutto perché laddove si parla di dati si deve necessariamente parlare di sicurezza. “Dal punto di vista infrastrutturale, soprattutto in ambito in-memory computing, è fondamentale che le aziende si dotino di sistemi efficaci non solo guardando alle prestazioni ma anche, e soprattutto, sul piano della sicurezza e della protezione del dato”, suggerisce infatti Gentile. “Nei sistemi in-memory il dato ‘viaggia’ nel posto più ‘veloce’ delle architetture, la memoria del server, ma al tempo stesso nel luogo più ‘volatile’ e ‘meno protetto’. La prima cosa da fare, dunque, è mettere in protezione i dati, anche quelli in uso nella memoria”.

“La sicurezza è uno dei tasselli più critici nell’ambito sanitario; i recenti casi registrati negli Stati Uniti hanno per esempio mostrato che sul fronte IoT l’industria sanitaria è del tutto impreparata”, sottolinea Alberto Ronchi, Direttore Sistemi Informativi di Fondazione Istituto Auxologico Italiano. “Per il nostro settore ‘aprirsi’ a dati non strutturati è rischioso perché aumenterebbero enormemente le vulnerabilità e le minacce di attacco. Ciò non significa affatto che non sentiamo il problema dei Big Data, tutt’altro; in sanità le moli di dati sono in continua crescita, soprattutto se pensiamo alla diagnostica e ancor più alle attività di ricerca. È pressoché impossibile per un umano analizzare tutti questi dati, la tecnologia diventa non solo il fattore abilitante ma l’unica via possibile, percorribile solo attraverso infrastrutture adeguate”.

“Una delle difficoltà maggiori che spesso riscontriamo nelle aziende sta nell’evoluzione dei sistemi It – conferma dalla sua prospettiva Andrea Galluccio, Innovation Team di Cst Consulting, partner di Fujitsu -. L’analisi Big Data spesso richiede scelte coraggiose anche sul piano infrastrutturale cambiando i sistemi che stanno alla base delle applicazioni analitiche: affinché si riescano ad avere quei risultati concreti che oggi il business ‘pretende’, è necessario intervenire prima di tutto attraverso un assessment dell’esistente per poi comprendere quali step evolutivi compiere, passaggi che possono anche voler dire ‘partire da zero’ con nuovi sistemi più efficaci”.

AAA: esperienze condivise e competenze cercasi

I partecipanti al Breakfast

Tuttavia, da alcune testimonianze dirette riportate dai professionisti It in occasione di questo evento appare evidente l’urgenza di intervento non tanto sul piano tecnologico infrastrutturale quanto, piuttosto, su progettualità lato applicativo, dato che tra carenza di competenze ed esperienze da condividere ci si muove ancora lungo percorsi di ‘sperimentazione’.

“Se da un lato possiamo senz’altro affermare che sul fronte della BI di tipo tradizionale siamo ormai maturi e abbiamo implementato sia a livello tecnologico sia dal punto di vista di processi e organizzazione un modello efficace, dall’altro lato siamo ancora in fase di analisi e sperimentazione per quanto riguarda l’analisi Big Data”, sottolinea Vittoria Velletri, Crm & Business Intelligence Expert di Bayer. “Siamo partiti dall’It per cercare di capire che tipo di esperienze possiamo ‘portare in casa’. ma stiamo riscontrando non poche criticità, a partire dal fatto che non troviamo ancora casi studio efficaci da cui trarre spunto. Questo rappresenta un ostacolo anche dal punto di vista organizzativo perché è ancora difficile comprendere come ci si debba strutturare per trarre reale beneficio dalle tecnologie e dagli analytics, soprattutto sul piano delle competenze interne: chi fa Big Data Analysis è un esperto che conosce il proprio business, non può essere un esterno”.

L’approccio in tema di Big Data Analytics di Pirelli sfrutta i dati provenienti dai sensori che monitorano la catena produttiva per “analisi predittive sul ‘comportamento’ dei macchinari al fine di evitare downtime imprevisti così come sulla flotta delle autovetture per studiare le prestazioni degli pneumatici”, racconta Roberto Monguzzi, Business Analyst di Pirelli Sistemi Informativi. “Chiaramente analisi di questo tipo si ripercuotono sulle scelte infrastrutturali e non sempre la scelta è semplice; nel nostro caso abbiamo trovato ‘risposte ibride’ in base alle richieste degli utenti, dei Data Scientist in particolare che, nel nostro caso, sono proprio competenze che abbiamo all’interno. Abbiamo architetture in house a supporto della Business Intelligence e dei processi consolidati, mentre abbiamo optato per infrastrutture e servizi via public cloud a supporto di Poc, processi nuovi o progetti di ricerca”… a testimonianza ancora una volta del fatto che le fondamenta della nuova impresa digitale saranno sempre più ibride.


Fujitsu a ‘servizio’ dell’in-memory

Molte aziende sono ormai alla ricerca di modi più semplici e intelligenti per trasformare il proprio Dipartimento It in una sorta di ‘centro di business intelligente’ in grado di fornire quella conoscenza necessaria alla nuova impresa digitale per competere in contesti globali aggressivi e dinamici cui siamo ormai abituati. Per rispondere ad esigenze simili, diversi Cio stanno adottando in maniera sempre più diffusa le applicazioni che utilizzano la tecnologia in-memory, come ad esempio la piattaforma Sap Hana, ma scelte di questo tipo devono essere sorrette da infrastrutture performanti che consentano di trarre un beneficio reale ed efficace dall’in-memory. La risposta di Fujitsu si chiama Primequest 2000, piattaforma infrastrutturale per data center che combina le caratteristiche di alta disponibilità dei sistemi Unix con l’efficienza dei costi dei sistemi standard x86. Si tratta di una infrastruttura con componenti avanzate di self-healing come affidabilità, disponibilità e funzionalità, tra cui: riconfigurazione dinamica e la partizione estesa; elasticità di memoria DDR4; nuovi processori della famiglia di Intel Xeon Processor E7 v3; capacità di memoria extra-large fino a 12TB a supporto dell’elaborazione di carichi di lavoro aziendali intensivi. Il modello Primequest 2800B2 a 8 socket è indirizzato a gestire applicazioni più impegnative in termini di memoria, come l’elaborazione in-memory e Sap Hana.

Nicoletta Boldrini

Giornalista

Big data analytics e in-memory computing: ecco le fondamenta dell’impresa digitale

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 3