Tech InDepth

Hpe: l’in memory driven computing per business basati sull’analisi dei dati

Per le aziende avere la possibilità di analizzare grandi quantità di dati in real-time, ogni volta si presenti la necessità di farlo, oggi e domani sarà fondamentale per poter cambiare i propri modelli di business, inventare nuovi servizi, mantenere alta la propria competitività aziendale. Per riuscire a farlo, anche quando il numero di questi dati sarà esploso, HPE ha sviluppato l’in memory driven computing, che ribalta le regole dei modelli di calcolo tradizionali.

Pubblicato il 09 Ott 2018

big-data-in-memory-driven

Le aziende sono sempre più data-driven e alla ricerca di nuovi modelli di business per fronteggiare la competitività del mercato. Il numero di dati utili a orientare le scelte strategiche delle stesse aziende è però sempre più alto e destinato a crescere: per fare la differenza, queste dovranno essere in grado di analizzare un’enorme quantità di informazioni, anche maggiore di quella con cui già oggi generalmente le aziende si confrontano, e farlo con agilità, più volte al giorno, nel momento in cui si rende necessario.

HPE sta lavorando per costruire un modello di computing “in memory driven” con una potenza di calcolo in grado di supportare operazioni di questo tipo, e dunque di sostenere davvero, con architetture all’altezza della sfida, il cambiamento delle aziende.

Ci ha raccontato come Gianni Rugginenti, Direttore Vendite Enterprise Group Private Market, HPE durante i Digital Awards di quest’anno.

I dati che guidano il business

“È un mondo che sta cambiando radicalmente dal punto di vista dell’utenza oggi tutti hanno uno smartphone in mano attraverso cui svolgono le attività più svariate. Pensiamo alle automobili – spiega Rugginenti – Rispetto a quelle di 5 anni fa oggi hanno un fortissimo connotato tecnologico, e in un prossimo futuro sarà davvero altissima la quantità di dati che potranno produrre e che le aziende potrebbero sfruttare”. Per poter lavorare su masse di dati di questo calibro serviranno potenze di calcolo adeguate, capaci davvero di mettere le imprese nella condizione di cambiare il modo in cui fanno business e di offrire nuovi servizi ai propri clienti.

“Guardiamo alla Risk analysis in ambito bancario – prosegue il manager – Un conto è poter fare operazioni di analisi tre volte al giorno, molto diverso è poter fare queste analisi 100 volte al giorno o 1000 volte al giorno, in continuazione, in qualunque situazione: il modo di lavorare può cambiare radicalmente se i dipendenti non sono obbligati ad aspettare il ‘batch di turno’ quotidiano [quindi lo svolgimento delle operazioni di analisi una tantum, magari ad orari prefissati-ndr] per avere le informazioni di cui hanno bisogno”. Il mondo finance è solo un esempio; il vantaggio di sistemi di calcolo così concepiti è facilmente immaginabile in ogni settore. “Avere queste potenze di calcolo significa per un’impresa poter fare cose molto diverse dagli altri; chi non si aggiornerà non avrà nemmeno la possibilità di ‘correre la corsa’ in termini di competitività aziendale.”

In memory driven computing

grafico che mostra il passaggio Dal Processor Centric Computing all’in memory driven computing
Figura 1 – Dal Processor Centric Computing all’in memory driven computingFonte: HPE

La risposta di HPE questa esigenza in termini di potenza di calcolo è una nuova architettura dei computer che mette la memoria, e non il processore, al centro dell’architettura (Figura 1); “Con questa tecnologia, di cui abbiamo già sviluppato dei prototipi, si ribalta completamente il paradigma del computer di oggi”, dice Rugginenti; come spiega il manager infatti, attualmente per realizzare supercalcoli si deve stabilire uno scambio tra più processori dotati ciascuno di una propria memoria; la tecnologia che sta mettendo a punto HPE è concepita in modo differente: “C’è solo una grandissima memoria centrale collegata a tutti i processori e su cui tutti i processori vanno a lavorare; qualcosa che cambia radicalmente i livelli di performance a cui si può ambire”, dice il manager (Figura 2).

Figura 2 – Miglioramento delle prestazioni con la programmazione basata su memoriaFonte: HPE

I prototipi nei laboratori HPE oggi hanno 170 terabyte di memoria Ram, sistemi grazie cui quindi, fa notare Rugginenti, “è possibile mettere in memoria una massa di dati gigantesca” (170 terabyte oltretutto, ricorda anche il manager, sono da considerare un punto d’inizio, non un punto d’arrivo).

Come specificato in un articolo ZeroUno dedicato al tema memory driven computing, nell’ambito delle analisi predittive e prescrittive real-time, l’unica risposta odierna è la tecnologia in-memory analytics, a volte su hardware dedicato; tuttavia non solo il computer memory-driven può scalare con facilità a livelli di exabyte e oltre, ma lavorando su memorie persistenti migliora la sicurezza dei dati eliminando la fase di transito dallo storage alla Ram.

Altri ambiti d’attenzione di HPE

Questa innovazione tecnologica in chiave in memory avviene in un contesto aziendale, quello di HPE, di forte focalizzazione sull’ambito infrastrutturale: “In controtendenza con molti altri attori di mercato che vanno ad arricchire la loro offerta di tutta una serie di proposizioni software e cloud, noi ci concentriamo solo sull’infrastruttura per ‘farla bene’ e proporre tutta una serie di macchine in grado di offrire sia ai cloud provider sia alle singole aziende livelli di potenza fuori dall’ordinario” (l’in memory driven computing è una tecnologia in fase prototipale, ma è notoriamente ampio il portfolio di soluzioni infrastrutturali HPE in commercio, di cui mostra alcuni modelli la Figura 3).

Figura 3 – Soluzioni di punta del portafoglio Hpe attualmente sul mercatoFonte: Hpe

Rugginenti ricorda poi l’impegno del vendor nello sviluppo delle tecnologie cosiddette “di campo” , ovvero legate al mondo IoT e ai luoghi dove i dati vengono generati, tra cui ha una rilevanza particolare il capitolo “Intelligent Edge” che mira a rendere il perimetro della rete intelligente, luoghi dove i dati possono essere subito analizzati ed elaborati, e dunque non necessariamente trasferiti tutti nella risorsa di calcolo centrale, con forti vantaggi in termini di performance e sicurezza del network.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4