Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Software defined data center: semplificare provisioning e gestione ordinaria

pittogramma Zerouno

Software defined data center: semplificare provisioning e gestione ordinaria

16 Lug 2014

di Giampiero Carli Ballola

Il modello Sddc estende concetti di virtualizzazione (astrazione, raggruppamento in pool e automazione) a tutte le risorse e ai servizi del data center. Un ambiente Sddc semplifica e accelera in modo drastico i processi di provisioning iniziale e la gestione ordinaria delle risorse di rete, storage ed elaborazione completamente virtualizzate, applicando potenti procedure di automazione basate su policy. L’azienda e il reparto It raggiungono così livelli completamente nuovi di agilità, efficienza operativa, controllo. Se ne è discusso in un recente Breakfast con l’Analista organizzato da ZeroUno, in collaborazione con Fujitsu e Intel.

Come oramai quasi da tradizione, le salette del Camparino, lo storico bar milanese che si affaccia su Piazza del Duomo, hanno ospitato gli invitati al “Breakfast con l’Analista” che ZeroUno ha organizzato in collaborazione con Fujitsu e con Intel e il cui tema era ”SDDC: Software Defined data Center”. Un argomento che, unitamente alla validità di un ‘format’ che sottrae solo poco più di 1 ora agli impegni della giornata, ha richiamato una ventina di partecipanti tra Cio, It manager e responsabili delle infrastrutture e operazioni di altrettante organizzazioni italiane (in maggioranza) e internazionali operanti in Italia.

L'articolo continua nella pagina seguente

*BRPAGE*

(segue dalla pagina precedente)

“Nel concepire e sviluppare un sistema informativo vanno introdotti elementi di intelligenza che consentano di sgravare il governo dell’infrastruttura. Un’impostazione che passa però anche dalla possibilità di riconvertire competenze interne, con uno sforzo non banale ma che va comunque affrontato nel convincimento di raggiungere una dimensione molto più proattiva e vicina al business, capace di innervare i processi di digitalizzazione dell’impresa”, ha sottolineato Stefano Uberti Foppa, Direttore di ZeroUno, nell’introdurre il tema dell’incontro,

I relatori, da sinistra: Stefano Uberti Foppa, Direttore di ZeroUno, Stefano Mainetti, Codirettore Scientifico dell’Osservatorio Cloud & Ict-as-a-Service della School of Management del Politecnico di Milanom e Danilo Salladini, Business Development Manager di Fujitsu

Ha quindi preso la parola Stefano Mainetti, Codirettore Scientifico dell’Osservatorio Cloud & Ict-as-a-Service della School of Management del Politecnico di Milano che, dopo un’introduzione sull’evoluzione delle tecnologie dei data center, ha esposto i fattori di spinta e di freno all’automazione dell’infrastruttura. Secondo le analisi dell’Osservatorio, sebbene il 37% dei Centri abbia virtualizzato le proprie risorse e il 32% ne stia affrontando il consolidamento, solo l’8% ha in atto progetti di automazione e di servizi cloud per l’infrastruttura. Ostacoli principali risultano, oltre agli oneri e alla complessità degli interventi, la necessità di una visione architetturale dell’infrastruttura, la scarsità di personale preparato e la mancata standardizzazione di strumenti e procedure. Questi problemi rendono oggettivamente molto difficile l’integrazione orizzontale, quella cioè che collega più ‘blocchi’ di risorse virtualizzate dedicate a diversi compiti e che sta alla base del concetto di infrastruttura convergente. Mentre al contrario, l’integrazione verticale, che riguarda la gestione e controllo delle diverse risorse assegnate a un carico di lavoro, è facilitata dalle soluzioni che, grazie anche agli accordi tra i vendor, presenta l’offerta.

La chiamata in causa dell’offerta ha dato a Danilo Salladini, Business Development Manager di Fujitsu, la possibilità di spiegare in un brevissimo intervento come la sua società veda l’automazione delle operazioni come un obiettivo che non può essere raggiunto senza una chiara visione delle esigenze dell’azienda innanzitutto, seguito da un assessment che non riguarda solo le tecnologie, ma va esteso all’organizzazione e alle risorse della funzione It. Solo da questa doppia valutazione, conclude Salladini: “potrà svilupparsi la proposta di un sistema già ingegnerizzato che può essere gestito in modo dinamico e automatico”.

La necessità di una visione strategica

Con questi interventi si è conclusa la prima parte dell’incontro, dando il via al dibattito, che si è avviato con l’intervento di Stefano Brambilla, Technical Manager Direzione Risk Management di Banca Intesa-San Paolo, il quale ha aperto il tema dei pro e contro dei servizi storage cloud osservando come lo storage, a seguito di un’evoluzione che non è stata alla pari di quella dei processori, rappresenti oggi spesso un collo di bottiglia nell’esecuzione delle applicazioni, “…e anche quando si potrebbe incrementarne la velocità – ha soggiunto – il costo resta un fattore punitivo”. Su questo punto si è innestato l’intervento di Lorenzo Brambilla, Ict Manager di Isagro, il quale, avendo premesso di disporre di un’infrastruttura ibrida, con cloud pubblico e privato, ha posto come nodo del problema la difficoltà di programmare le risorse sulle strategie aziendali: “A me interessa relativamente sapere quello che si farà tra un mese: io devo sapere ciò che faremo tra un anno o due,sono questi i tempi di pianificazione degli investimenti infrastrutturali. Abbiamo già fatto passi avanti per guadagnare flessibilità con una gestione software delle macchine, ma il problema di condividere con il business le strategie aziendali rimane” Sul punto è intervenuto Salladini, che ha ricordato come Fujitsu possa seguire i clienti in un percorso di potenziamento della flessibilità del data center attuabile sia con soluzioni di automazione applicabili alle infrastrutture presenti sia, se necessario, con la fornitura di risorse cloud. È chiaro però, ha aggiunto Mainetti, che il nodo della scarsa visione strategica resta. Soprattutto perché per la stessa azienda è difficile oggi pianificare a lungo termine. L’ha detto chiaramente Cesare Rotondo, al momento dell'evento Responsabile Operation Direzione Tecnica di Editoriale Domus portando ad esempio la propria realtà. Impegnata, come altri editori, nel passaggio dalla carta al digitale, l’azienda si trova “a definire un passo strategico che è ancora molto nebuloso”.

Ciò porta, evidentemente, a spostare la strategia dalla pianificazione a lungo termine, “che anche qualora venga fatta – ha detto Mainetti – viene regolarmente superata dagli eventi”, alla flessibilità. Una flessibilità per la quale occorre lavorare su diversi fronti, cloud compreso, per disancorare la risposta dell’It dalla fisicità delle risorse e del data center.

Il dissociare l’erogazione dei servizi dall’assegnazione delle risorse è un discorso che investe anche strutture e competenze dell’It. Lo ha ricordato Uberti Foppa, collegando la necessità di una visione di prospettiva sul da farsi allo sforzo riorganizzativo che deve fare l’It per essere più pervasiva nei confronti del business: “Un discorso molto sfumato che non può prescindere dalle singole realtà, ma che diventa necessario per portare l’It ad assumere un ruolo consulenziale nell’interpretare i progetti a base digitale dell’azienda ed averne, di conseguenza, una conoscenza anticipata e compartecipe”.

Per Silvio Sorrentino, Responsabile Sistemi Informativi del Corepla [consorzio nazionale per il recupero della plastica – ndr], questo discorso è, in buona sostanza, collegato al bisogno generale di trasformare il modo di fornire i servizi al business “…per evitare il rischio del ‘sorpasso da destra’ da parte del business rispetto alla funzione It”. Un problema che è percepito dai Cio e che, secondo Mainetti, per quanto riguarda l’infrastruttura, è reso più grave dalla difficoltà di esporne al board il valore in termini di funzionalità: “Il management comprende bene il valore dell’applicazione, ma meno il valore e il costo di tutto ciò che vi sta dietro”. Qui è intervenuto Renato Stucchi, Responsabile Infrastrutture di Atm, per aggiungere come l’evoluzione del Cio come manager compartecipe della gestione dell’impresa sia una necessità e vada conseguita anche accettando di delegare a terzi, partner tecnologici o fornitori, una parte delle proprie funzioni: “È meglio, per l’It, perdere qualche competenza operativa ma guadagnare una visione strategica”.

Con Stefano Takacs, Responsabile Sud Europa delle Operazioni di Vodafone, il dibattito è giunto al termine tornando sulla tecnologia, con i problemi implementativi dell’automazione del data center, difficile soprattutto in quelle aziende che abbiano infrastrutture dedicate ad applicazioni legacy e comunque critiche per il business. Anche in base all’esperienza fatta, Takacs ha riconosciuto come il consolidamento dei sistemi porti a una standardizzazione e semplificazione dell’infrastruttura che apre la strada a progetti di automazione. Progetti che però restano così complessi da attuare su larga scala da limitarne la realizzazione alle situazioni più ‘facili’, dove il bilancio tra sforzo e risultati sia più vantaggioso. Su questo tema si è aperto uno scambio di opinioni che ha coinvolto sia Mainetti sia Salladini e che ha portato, alla fine, a concludere che conviene procedere per gradi con progetti di integrazione verticale (sullo storage, ad esempio) che abilitino progetti d’integrazione orizzontale tra gli application server da avviare in modo opportunistico a seconda delle occasioni e/o necessità legate alle strategie di business.

Giampiero Carli Ballola
Giornalista

Giampiero Carli-Ballola, nato nel 1942 e giornalista specialista in tecnologia, collabora con ZeroUno dal 1988. Segue i processi di digitalizzazione del business con particolare attenzione ai data center e alle architetture infrastrutturali, alle applicazioni big data e analitiche, alle soluzioni per l’automazione delle industrie e ai sistemi di sicurezza.

Articolo 1 di 5