Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Verso il nuovo Data Center. Le strategie e le tecnologie di Hp

pittogramma Zerouno

Verso il nuovo Data Center. Le strategie e le tecnologie di Hp

23 Apr 2008

di Rinaldo Marcandalli

Se in generale i forum di HP esplorano la business technology per “migliori esiti di business”, quello di barcellona dello scorso marzo si è focalizzato sui data center, offrendo a 3000 technology decision maker europei un piano di radicale trasformazione verso il next generation data center, basato sull’annuncio in contemporanea mondiale di una serie di nuove funzionalità e prodotti.

BARCELLONA – L’ultimo Forum Technology@Work di Hp è stato interamente dedicato al data center. Ann Livermore, executive Vp, Hp Technology Solutions Group, e Francesco Serafini, Senior Vp e Managing Director Hp Technology Solutions Group Emea, hanno evidenziato come un Ceo o Cio su tre, oggi, ritengano che entro il 2010 i data center aziendali possano risultare insufficienti. “A fine 2007 l’88% delle aziende spendeva troppo tempo e risorse in modo inefficiente nel data center; l’83% ne gestiva troppi (il 41% più di cinque), e soprattutto l’86% era tranquillo ormai solo nel breve periodo”, dice Serafini. “Due sono le principali preoccupazioni emergenti sul lungo periodo: la flessibilità e la capacità di bilanciare innovazione e ritorno di investimenti di ringiovanimento”.
Nell’analisi di Livermore, emergono così tre driver generali per la primaria “esigenza di trasformazione radicale dei data center per le aziende, in particolare dalle medie alle grandi: l’esplosione dell’informazione digitale da gestire (raddoppia ogni 18 mesi) e su cui capitalizzare; le richieste dal business all’organizzazione Ict, sempre più esigenti in termini di maggior valore a minor costo e a rischi controllati; e l’invecchiamento della stessa infrastruttura, incapace di ringiovanimento continuo”.
Per indirizzare queste esigenze, da tre anni a questa parte l’unità R&d di Hp ha lavorato a costruire un portafoglio di tecnologie di “next generation data center” (NgDc), sviluppate o acquisite, a fondamento della propria offerta software, server e storage e su cui allineare la propria organizzazione servizi, secondo il modello di figura 1.

figura 1 – Il modello organizzativo e di offerta di Hp per la Next Generation Data Center (per visualizzarla correttamente cliccare sull’immagine)

L’investimento è negli strati “Adaptive infrastructure” e Business Technology Optimization (Bto), dove risiedono gli ingredienti necessari alla nuova generazione di data center (e sopra i quali il blueprint Hp prevede il governo ottimizzato dell’informazione, il tutto in un portafoglio mirato a vari settori, dal Finance al settore Media, Energia, Manifatturiero e Pa).
Come definire questa trasformazione cui prepararsi? Livermore la descrive come “transizione dall’attuale data center, insieme complesso di asset fisici (server e storage “standalone”, cioè percepiti separatamente dall’applicazione business) a un “ambiente riunione” di asset nel complesso accessibili come un’unica interfaccia fisica, tramite la quale l’applicazione business potrà essere approvvigionata come Software as a service (Saas): il tutto con un livello di virtualizzazione che dal server si eleva allo stesso data center nel suo insieme”. “Non solo – prosegue Livermore, – l’ambiente opererà pienamente automatizzato e sarà efficiente da un punto di vista sia di spazi che di emissione di calore: in una parola, sarà sostenibile, disegnato ad esserlo fin dall’inizio”.
Hp sa di trovare una popolazione di aziende clienti distribuita su varie fasi in questa trasformazione (dall’architettare strategia e disegno, all’eseguire la transizione, al condurre operazioni e continuo miglioramento). Serafini cita esperienze di punta e di successo presso, ad esempio, Unilever (www.unilever.com) e Deutsche Post (www.deutschepost.de). Hp ha allestito un’offerta di tecnologie (conformi alle linee guida a standard Itil v3) o servizi (7000 professionisti e offerta di formazione sulla governance basata su Itil a 100.000 clienti) che abbraccia “l’intero ciclo di vita della trasformazione al next generation data center, sull’insieme delle aree data center facility, interfacce tecnologiche, applicazioni business e governo servizi” (vedi figura 2). “Nell’offerta di transizione al Next Generation Data Center, crediamo che Hp sia ben posizionata per investimenti fatti, esperienza interna, e l’insieme di software e servizi annunciati” conclude Livermore

IL PERCORSO VERSO IL NUOVO DATA CENTER
ZeroUno ha intervistato Lucio Furlani, Vp Marketing e Alleanze, Hp Technology Solutions Group Emea, per approfondire il ciclo di vita della trasformazione al next generation data center a un primo livello di dettaglio, in termini di valore aggiunto dalle funzionalità annunciate (vedi ancora figura 2).

figura 2 – Le aree interessate dalla trasformazione verso il Next Generation Data Center proposto da Hp (per visualizzarla correttamente cliccare sull’immagine)

ZeroUno: Nello strato Facility data center, in cosa consistono i servizi, richiesti in tutto il ciclo?
Furlani: In servizi critici di consulenza, disegno e assurance di ambienti fisici per l’elaborazione dati, con tecnologie efficienti per l’utilizzo energetico e il raffreddamento (acquisite con Eyp Mission Critical Facilities – www.eypmcf.com).

ZeroUno: E i servizi di consolidamento e virtualizzazione?
Furlani:
Sono servizi di consolidamento applicativo e di virtualizzazione a livello interfaccia tecnologica fra loro strategicamente complementari: coi primi si riduce numero e “footprint” delle facility anche con tecnologie di discovery basata su Rfid (e calano i costi operativi); coi secondi si crea, a partire dagli asset fisici, la classica infrastruttura virtuale (di server, storage e network).

ZeroUno: E l’Adapative Infrastructure as a Service (Aiaas)?
Furlani: Siamo nella fase “Transizione e Operazioni”. Qui l’nfrastruttura adattativa si fa servizio: oltre al software anche server e storage sono dati in servizio in configurazioni precostruite e preconfigurate, con la massima flessibilità gestionale (acquisizione in poche ore di potenze elaborative supplementari per applicazioni business a fronte di fluttuazioni di carico), e un approccio flessibile nella transizione all’outsourcing, che modula al bisogno la conversione di investimenti capitale in spese operative e la riduzione dei rischi operativi. È un nuovo cammino per riequilibrare la spesa It, inizialmente per piattaforme Sap e Exchange.

ZeroUno: E il capitolo Operation Orchestration avanzata?
Furlani: Si tratta della gestione automatizzata del ciclo di vita dei servizi al business. Ciò incide su quell’80% di servizi resi indisponibili al business da errori o cambiamenti di configurazione, o da errori manuali di gestione incidenti. E riduce lo zoccolo di costi di manutenzione, massimizza la disponibilità dei servizi, rafforza i processi standard per la compliance, abbatte il time to market di cambiamenti resi più agili. L’operation orchestration razionalizza il ciclo dagli incidenti al change management, consentendo di pianificare e strutturare in tempi minimi i cambiamenti necessari al Configuration Management Db – ma anche solo di unificare informazione condivisa sui cambiamenti.

ZeroUno: E nelle operazioni vere e proprie?
Furlani: A livello di interfacce tecnologiche, proponiamo il software Hp Insight Dynamics – Vse (IdVse) che dà all’applicazione business una vista unificata (logica) delle risorse siano esse fisiche o virtuali. Pur con il più grande installato di tecnologia di virtualizzazione, Hp nel next generation data center punta oltre il gestire, con logiche e strumenti diversi, server fisici e virtuali (questi ultimi in crescita esplosiva): IdVse mutua al mondo Unix il server logico, per gestire il quale, che sia fisico o virtualizzato, servono gli stessi strumenti e un’unica console che insiste sull’unica interfaccia fisica di accesso. Il vantaggio è l’agilità nelle transizioni: si può rilasciare un server logico magari per sviluppare un’applicazione business, riprenderlo da un ambiente operativo, trasferirlo con un comando di console da un data center a un next generation data center o viceversa. La gestione unificata dei server di IdVse rende la gestione di un data center granularmente decomponibile, e apre la strada ad un consolidamento “al volo” (on the flight consolidation) attraverso il software. Un “capacity planning in tempo reale” ottimizza l’utilizzo delle risorse e abilita un governo senza strappi della transizione stessa.

ZeroUno: Ma c’è anche un nuovo server…
Furlani:
Annunciamo il peso massimo della serie Proliant, Hp Proliant DL785 G5: un server x86 a 8 vie (socket), basato su tecnologia Opteron Quad-Core, di Amd (www.amd.com), disegnato per performare e scalare con applicazioni mission critical in ambiente fortemente virtualizzato (vedi riquadro a lato).


HP segna un punto a favore di amd

La rivalità Amd (www.amd.com) Intel (www.intel.com) vede una Hp (www.hp.com) tradizionalmente bilanciata. Ma gli annunci Hp di Barcellona, pur continuando a dar visibilità all’Itanium di Intel, segnano con  Proliant DL785 G5 un deciso punto a favore di Amd. Randy Allen, Corporate Vp, Server e Workstation Division di Amd, può sottolinearci come, dopo l’avviso al mercato di Microsoft (www.microsoft.com) che Windows Server 2008 sarà l’ultimo server con supporto 32 bit, sia caduta su chip Opteron la scelta Hp per il server a 64 bit individuato come strategico per la transizione al next generation data center. E riassumerci i vantaggi: “oltre ai 64 bit, capacità multicore, ottimizzazione della virtualizzazione, utilizzo efficiente della potenza. Dove multicore (precisamente quad-core, cioè con quattro Cpu) si legge “protezione degli investimenti”: nell’upgrade, ad esempio, da 585 a 785 o a 785 G5 l’unica cosa che Hp deve cambiare è il chip”, spiega Allen. La piattaforma non va ricaricata ogni volta, il  disegno resta valido per una serie di prodotti; un utente finale vede invarianti piattaforma base, mother board, chip set, erogazione di potenza, strumentazione, il che modera il rischio di una transizione ed evita colli di bottiglia da sistemi legacy. “E la virtualizzazione viene ottimizzata da un acceleratore hardware (Rapid virtualization indexing) e resa efficiente dalla capacità di collegare direttamente un processore alle memorie e due processori fra di loro, una capacità consolidata per Amd e ancora futuribile per nostri concorrenti”, conclude Allen. (R.M.)

Rinaldo Marcandalli
Giornalista

Consulente aziendale e giornalista. 40+ anni di esperienza nello sviluppo software, laboratorio IBM e field, nelle telecomunicazioni prima e poi nelle applicazioni e nel governo del Dipartimento It. Esperienze sul campo in settori bancario, in particolare interbancario, assicurativo e pubblica amministrazione. Da 20+ anni segue prima da consulente e poi come giornalista l’evoluzione dei processi nei settori e da 10+ anni la loro trasformazione progressiva al digitale, specializzandosi nello studio della riorganizzazione agile, digitale e smart delle Aziende.

Articolo 1 di 5