Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Server: la crisi ridisegna il mercato

pittogramma Zerouno

Server: la crisi ridisegna il mercato

23 Apr 2009

di Giampiero Carli Ballola

La generale contrazione degli investimenti infrastrutturali imposta dalla recessione economica mondiale colpisce il mercato dei server ridisegnando le posizioni e le strategie dei top vendor del settore. Su Zerouno è nata una nuova sezione – Sistemi & Architetture – che ha l’obiettivo di garantire la copertura di tutte le principali tematiche e novità tecnologiche di prodotto relative all’hardware e alla soluzioni architetturali di cui si compongono i diversi sistemi informativi aziendali.

La crisi mondiale dell’economia è un dato di fatto. Bisogna considerarla nella sua realtà: le perdite dei mercati finanziari hanno innescato una fase di recessione che sta colpendo industria e servizi e questa fase avrà il suo acme proprio nell’anno da poco iniziato. Per il 2009, il Fondo Monetario Internazionale stima una crescita del Pil mondiale dello 0,5%, dieci volte meno che nel 2007, e anche se lo stesso FMI prevede una ripresa nel 2010 è difficile che si possa tornare anche solo al 3,4% dell’anno passato. E un altro dato di fatto con il quale bisogna fare i conti è che, nonostante l’oggettiva necessità, in tempi di crisi, di guadagnare la massima efficienza, questa recessione interessa anche il settore dell’Ict, che di questa efficienza è il primo motore. La buona notizia è che la recessione non colpisce l’Ict come altri settori (secondo Assinform nel 2008 il mercato mondiale Ict è cresciuto del 4,4% contro il 3,4% del Pil mondiale anche se, per il 2009, le stime sono di segno negativo) e che non colpisce in modo indiscriminato, essendovi segmenti che, come vedremo, sono in vivace espansione. Quella cattiva è che un settore certamente colpito è proprio quello dal quale sovente si parte per il rinnovamento dell’Ict aziendale. E cioè l’infrastruttura del data center.
Un’analisi Gartner relativa al mercato dei server nel quarto trimestre 2008 mostra una decisa contrazione delle vendite rispetto allo stesso periodo dell’anno precedente, valutata all’11,7% in quantità e al 15,1% in valore. E come Heeral Kota, senior analyst della casa di Stamford, mette bene in chiaro: “L’andamento del quarto trimestre 2008 è più indicativo di quella che sarà la domanda del 2009 di quanto non siano i dati dell’intero anno”. Cioè: quello che è successo in questo trimestre è quello che ci aspetta nei prossimi dodici mesi almeno. Vediamo allora che ci dobbiamo aspettare.
Dal punto di vista geografico, la recessione del mercato server è globale, con l’eccezione del Giappone, l’unico paese ad avere segnato una crescita (+4,7%) in valore. Sempre in termini di valore, l’area di maggior contrazione è l’Emea (-20,6%), contro il -14,6% del Nord America e il -12,5% dell’America latina, che pure viene considerata tra i mercati emergenti. Ma per quanto globalizzata, la contrazione del mercato dei server non è per nulla uniforme, né per i vari vendor né per le diverse tipologie di prodotto. Se mettiamo a confronto i dati relativi al fatturato e ai pezzi venduti dai primi cinque nomi del settore nel quarto trimestre 2008 rispetto allo stesso periodo dell’anno precedente (vedi le tabelle 1 e 2) si può vedere come quello dei server sia, soprattutto, un mercato che sta cambiando.

Tabella 1: Mercato server: stime fatturato mondiale 4° trimestre 2008 (dollari Usa)
(cliccare sull'immagine per ingrandirla)

 

Tabella 2: Mercato server: stime vendite mondiali 4° trimestre 2008 (unità consegnate)
(cliccare sull'immagine per ingrandirla)


Prima di tutto, parlando di macrotendenze, lo scarto tra il calo dell’11,7% in volume e del 15,1% in valore ci dice che i prezzi (e i margini di profitto) si sono ulteriormente ridotti. Questa erosione è particolarmente sensibile per le macchine più economiche: i server x86 sono calati in volume dell’11.4%, un po’ meno del mercato, ma in valore del 18,1%, molto di più della media. La seconda tendenza, che è un po’ conseguenza della prima, è che la domanda si va spostando verso macchine ad architettura standard, più economiche sia nell’investimento iniziale sia nel Tco, e oggi, grazie ai processori multi-core, decisamente performanti. Quindi: Pc server nella fascia più bassa del mercato e batterie di blade server in quella più alta. Questi ultimi, aggiunge Kota, “sono uno dei pochi segmenti d’offerta ad essere in netta crescita in una situazione sempre più critica riguardo ai costi”. Questa tendenza generale (che ha però, come vedremo, ameno una significativa eccezione) ha notevoli effetti sulle dinamiche dell’offerta.
Se guardiamo al valore, il numero uno è ancora e sempre Ibm, ma il suo primato si è eroso, con la perdita di un punto nella quota di mercato (da 34,4 a 33,4%). Un punto può sembrare poco, ma in un mercato in contrazione ciò comporta un calo del 17,4% del tasso di sviluppo. In altre parole: ha perso 2,3 punti in più della media del mercato (calato del 15,1%) a vantaggio dei concorrenti. Se ora guardiamo alle unità spedite, Ibm è sempre al terzo posto, ma con uno scarto rispetto ad Hp, numero uno e suo vero concorrente (Dell, come si vede dal rapporto tra unità vendute e fatturato, è focalizzata su una tipologia di server differente), che si è tradotto in una netta perdita di share e in un tasso di decremento (-22,3%) che è quasi il doppio di quello del mercato. Il forte guadagno in volume di Hp, passata dal 29 al 32,3% e il buon guadagno in valore (dal 28,3 al 30,0%) sono infatti dovuti in massima parte a vendite sottratte ad Ibm.
Che significano queste cifre? Significano prima di tutto che Hp è il vendor che ha avuto globalmente le performance migliori, o almeno le più equilibrate nel contenere le perdite, sia in valore che in volumi, a livelli sensibilmente inferiori alla media del mercato. E poi che se Ibm è ancora il numero uno in fatturato lo deve sostanzialmente, come sottolinea il commento di Gartner, al successo dei z-system, cioè dei mainframe, unico settore cresciuto in assoluto anno su anno grazie allo sforzo tecnologico fatto per rinnovarne la piattaforma. Questo ha reso il mainframe di ultima generazione un sistema adatto a soddisfare le richieste dei progetti di consolidamento e virtualizzazione, offrendo, a fronte di un investimento che resta impegnativo, un Tco interessante, stante l’elevata efficienza e l’ancor più elevata availability offerta. In parole povere: chi si può permettere di consolidare su mainframe lo fa. Su una scala minore, ma sempre in un mercato di fascia alta, un ragionamento analogo si applica agli enterprise server di Sun, che permettono di consolidare e virtualizzare ambienti e applicazioni Unix-Solaris, Linux e ora anche Windows. Non costano poco, anche se lo scarto tra il tasso di decremento in volume (-3,9%) e in valore (-14,9%) mostra che i prezzi sono stati ridotti, ma rendono molto. E difatti Sun mantiene intatta la sua posizione. Anche il deciso scarto tra la perdita in volume e il guadagno in valore di Fsc (Fujitsu-Siemens Computers), mostra il favore del mercato verso la fascia alta dell’offerta, che non a caso deriva dai sistemi Unix di origine Fujitsu.
All’estremo opposto della domanda, cioè in ambito Pc server, vediamo invece il successo di Dell, che guadagna market share in valore e volume a discapito, sostanzialmente, delle marche minori. Tra i primi dieci vendor solo tre, secondo Gartner, non hanno subìto cali nelle vendite: Lenovo, Nec e Dawning. E il comparto, nel complesso, è quello che ha sofferto di più, con un -20,1% (quasi il doppio della media del mercato) in volume e un pesante -24,7% in valore. Con un restringimento degli introiti non compensato da un aumento dei volumi, è probabile, come conclude Kota, che nel 2009 si assisterà a più di un accorpamento e/o acquisizione nel settore (è di pochi giorni fa il riemergere di un rumor di mercato: l’acquisizione di Sun da parte di Ibm).
A proposito di server consolidation e di virtualizzazione, che del consolidamento è il logico corollario, ancora Gartner rileva, in conseguenza di una seconda analisi, come il tasso di penetrazione di questi progetti presso le imprese sia in fortissima espansione, dal 12% stimato nel 2008 al 20% atteso per il corrente anno. Di conseguenza, il business derivante dalle relative soluzioni aumenterà del 43%, passando in un anno da 1.900 a 2.700 milioni di dollari. Gartner comprende in questo mercato le infrastrutture (cioè la quota del mercato dei server assorbita dai progetti di virtualizzazione), le soluzioni software per la gestione di tali infrastrutture e i cosiddetti ‘hosted virtual desktop’ (Hvd), vale a dire gli ambienti utente completi di sistema operativo e applicazioni (detti anche ‘thick client’) che sono ospitati in forma di macchina virtuale su un server e acceduti dall’utente aprendo una finestra sul dispositivo remoto, che può essere un Pc ‘thin client’ o altro.
Lasciando da parte la componente hardware, che in un progetto di virtualizzazione può anche mancare se si può sfruttare l’infrastruttura esistente, parliamo invece del software, che è un nuovo business. Il vero e proprio software di virtualizzazione, cioè gli hypervisor e gli strumenti di gestione e controllo connessi, è un business che dai già ragguardevoli 914 milioni di dollari del 2008 dovrebbe arrivare quest’anno a 1,3 miliardi, con una crescita superiore al 42%, la più alta di tutto il comparto software. Ma anche se quantitativamente minore, ancora più allettante appare il boom dell’Hvd, che se l’anno scorso ha totalizzato ‘solo’ 74 milioni di dollari, nel 2009 dovrebbe sfiorare i 300 milioni, sempre secondo le stime Gartner. Un mercato che cresce del 300%, cioè si quadruplica in un anno, non può lasciare indifferenti, e difatti Phil Dawson, research Vp di Gartner, vi dedica un commento speciale: “Le imprese utenti devono costruire modelli finanziari di costi-benefici in modo da poter avere una completa valutazione riguardo l’implementazione di client Hvd al posto del tradizionale modello di  client Pc”. Dawson inoltre mette in guardia gli utenti da affrettate adesioni al modello Hvd osservando che ad oggi “nessun vendor offre un set completo di funzionalità per gestire ambienti virtualizzati” e concludendo che “bisogna prepararsi allo sforzo di realizzare da soli un virtualization management system, oppure aspettare la presentazione di toolset più robusti e meglio integrati”.

Leggi anche l'articolo Il day-by-day cambia il data center.

 

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5