Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Ecco l’in-memory Db di Oracle

pittogramma Zerouno

Ecco l’in-memory Db di Oracle

23 Giu 2014

di Rinaldo Marcandalli

“Paradossalmente non c’è molto da dire se non che l’in-memory Oracle è estremamente veloce, robusto e senza limitazioni; gira su qualsiasi piattaforma su cui gira Oracle Db e serve ogni applicazione esistente in modo trasparente e senza modifiche”, con queste parole Tim Schetler, VP of Product Management, Oracle introduce ai primi dettagli di Oracle Db In-Memory.

Tim Schetler, VP of Product Management, Oracle ha fornito i primi dettagli di Oracle Db In-Memory, l’opzione di Oracle Db 12c, preannunciata all’ultimo Openworld, la cui General Availability seguirà di 60 giorni l’annuncio del 10 giugno. Oracle Db In-Memory sarà disponibile contestualmente a Oracle Db 12.1.0.2, release di normale manutenzione, ma verrà rilasciato “in tutte le forme in cui Oracle 12c è reso disponibile. Quindi non solo su sistemi ingegnerizzati da Oracle, ma su tutti i sistemi che ad Oracle Db si appoggiano (Hp, Ibm o Sap per i clienti che lo usano con Oracle Db anziché con Sybase).

“Come tutti sappiamo – ricorda Shetler – l’in-memory è una tecnologia strategica per la sua capacità di analizzare miliardi di valori tabellari al secondo, necessaria agli Analytics per lavorare sulle stream di dati in arrivo. Ma anche per le performance del tradizionale Transaction Processing”. Oracle approccia l’in-memory con la Dual Format Architecture, che consente di far girare i due diversi workload, quello per analytics (real time, heavy volume) e quello per transaction processing, su un unico Db. Senza dover far copie in Data Mart, senza ritardi connessi, con dati allineati all’ultimo minuto.

Tre i differenziatori dell’in-memory di Oracle, secondo Shetler, il primo, è che è una piattaforma “totalmente trasparente: a differenza dei prodotti sul mercato oggi, non richiede alcun cambio alle applicazioni, né limita funzionalità rispetto a quanto disponibile su un Oracle Db. Tutte le Applicazioni in produzione, customer e terze parti, continueranno a lavorare out of the box”.

In secondo luogo è totalmente integrata con le funzionalità Oracle Db esistenti. Non fornisce solo una column store veloce in memoria, ma garantisce anche integrità, sicurezza e fault tolerance della transazione. “Con Sap Hana, Sap ha costruito un in-memory data store molto veloce, ma ora cerca di completargli intorno il resto delle funzionalità db”, sostiene Shetler che, per tacitare chi rileva un ritardo rispetto al competitor afferma: “Oracle è ‘sul pezzo’ dal 2005, con l’acquisizione di Textscan, una compagnia che ha prodotto il primo in memory Db commerciale, ma ha scelto di rendere disponibile la propria soluzione in-memory quando è stato possibile sfruttare tutte le feature di Oracle Db, mettendovi a frutto un’esperienza ultratrentennale”.

Un terzo valore è la dimensione “illimitata” del Db gestibile, grazie a Real Application Cluster (Rac) che distribuisce Db di grandi dimensioni su una molteplicità di Db server che condividono gli stessi contenuti.

“Paradossalmente non c’è molto da dire – riassume Schetler – se non che l’in-memory Oracle è estremamente veloce, robusto e senza limitazioni; gira su qualsiasi piattaforma su cui gira Oracle Db e serve ogni applicazione esistente in modo trasparente e senza modifiche”.

Ma le performance, chiediamo? C’è differenza tra lasciare le applicazioni invariate, o ristrutturarle per avere performance in-memory? E quanto vanno ristrutturate, per ottenere quale vantaggio? “Ogni applicazione che usa l’opzione vedrà l’accelerazione a costo zero: è il primo passo verso la Real Time Enterprise”. Qualche “ristrutturazione applicativa mirata” produrrà ottimizzazioni sostanziali. Nei Beta test in corso, alcune applicazioni PeopleSoft sono arrivate ad esempio ad accelerazioni di centinaia di volte, alcune oltre le mille. “Ci aspettiamo che le aziende applichino l’in-memory ottimizzato a un numero inizialmente piccolo di applicazioni critiche. Ma accelerate in real time le prime, applicazioni loro connesse appariranno di colpo lente; seguirà una seconda ondata di abilitazione al tempo reale, e così via”, conclude Schetler.

Rinaldo Marcandalli
Giornalista

Consulente aziendale e giornalista. 40+ anni di esperienza nello sviluppo software, laboratorio IBM e field, nelle telecomunicazioni prima e poi nelle applicazioni e nel governo del Dipartimento It. Esperienze sul campo in settori bancario, in particolare interbancario, assicurativo e pubblica amministrazione. Da 20+ anni segue prima da consulente e poi come giornalista l’evoluzione dei processi nei settori e da 10+ anni la loro trasformazione progressiva al digitale, specializzandosi nello studio della riorganizzazione agile, digitale e smart delle Aziende.

Articolo 1 di 4