Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

I ‘building block’ di Oracle per il data center in chiave cloud

pittogramma Zerouno

I ‘building block’ di Oracle per il data center in chiave cloud

13 Giu 2011

di Daniele Lazzarin

In un’intervista, Dermot O’Kelly, vice president hardware Emea Oracle, ci spiega il comun denominatore delle ‘macchine integrate’ Exadata ed Exalogic, e della recente soluzione ottimizzata Sparc Supercluster.

Dopo l’acquisizione di Sun, con cui ha completato la copertura dello stack tecnologico che comprende applicazioni, middleware, database, sistemi operativi/virtual machine e server/storage, Oracle ha iniziato a proporre delle integrazioni ‘pre-confezionate’ di queste tecnologie per sfruttare appieno la nuova ampiezza d’offerta. La prima è stata la “database machine” Exadata, a fine 2009, seguita dalla “cloud in a box” Exalogic, e dal recente Sparc Supercluster. Il comun denominatore, ci spiega Dermot O’Kelly, senior vice president Emea hardware sales Oracle, è l’ottimizzazione del data center in vista dell’integrazione di soluzioni cloud computing.
“I data center sono sempre più difficili da gestire in termini di richieste del business, compliance, sicurezza, costi, scalabilità, nonché per i molti strati tecnologici e prodotti diversi da mantenere”, osserva O’Kelly. In tale scenario il cloud promette di ridurre il tutto a un singolo stack con pochi prodotti: “La strada è consolidare, ottimizzare e adottare il cloud: si può fare da sé, trovando tutti i componenti – dai server alle applicazioni – nel public cloud, o si possono comprare i nostri pre-integrati, che eliminano molte complessità perché abbiamo pensato noi all’integrazione nei singoli strati, tra strato e strato, e con le tecnologie degli altri vendor”.
Exadata, Exalogic e Sparc Supercluster quindi si possono vedere come ‘building block’ per ottimizzare i data center, ciascuno con le sue peculiarità. “Exalogic è una macchina per far girare il middleware Java WebLogic e può essere la ‘base’ di un cloud privato; Exadata fa girare database Oracle per applicazioni con altissimi numeri di transazioni, mentre Supercluster fa girare applicazioni e può lavorare con tecnologie di terze parti”.
Exadata in particolare per O’Kelly è il simbolo della rapidità dell’integrazione di Sun, “mantenendo le promesse fatte al momento dell’acquisizione”. Il manager non dà numeri sulle installazioni, ma cita come clienti Procter & Gamble, Merck e molte banche e colossi del retail (in Italia gli utenti sono una dozzina, in gran parte banche, tra cui Banca Popolare Emilia Romagna), ma parla di una coda di ordini da due miliardi di dollari.
“Nel mio lavoro parlo con tanti Cio, e alla fine le loro esigenze sono due: ridurre il Tco e implementare rapidamente. Il loro grande problema è far lavorare insieme hardware e software: li comprano separatamente, spesso hanno due team diversi che se ne occupano. Una proposta come Exadata, con hardware e software ingegnerizzati per lavorare insieme, li interessa molto, perché abbatte le fasi di dimensionamento, acquisto di componenti, testing, configurazione, e i relativi costi e rischi”.
Exalogic, aggiunge il manager, avrà tassi d’adozione ancora più veloci, perché è più semplice da proporre: ”Con questa macchina le aziende possono iniziare a fare cloud senza rivoluzionare la loro architettura”. Il tutto con promesse impressionanti: performance delle applicazioni Java 10 volte più veloci, riduzioni fino al 60% del Tco e fino al 90% per i tempi d’avvio.
“Molti chiedono come sono possibili miglioramenti del genere con componenti in gran parte standard: li otteniamo con software di ottimizzazione appositi ai vari livelli dello stack”. Oracle, conclude O’Kelly, ha potuto fare un’analisi di ottimizzazione completa perché ha la proprietà intellettuale di tutti gli strati dello stack: “Il salto di qualità è arrivato quando abbiamo iniziato a lavorare sull’integrazione database-storage: qui c’era il ‘collo di bottiglia’ critico, che una volta eliminato permette prestazioni 10 o 20 volte più veloci. L’intelligenza di accesso ai dati non è più nel database, è direttamente nello storage”.

Daniele Lazzarin

Articolo 1 di 4