Software Defined Data Center: tutti i passi da compiere

Una ‘corrente dominante’ che porta le aziende a rivedere le proprie infrastrutture aumentando i livelli di astrazione (dalla virtualizzazione dei server a quella di network e storage) e abilitando una governance dinamica delle risorse, indipendentemente da dove esse risiedano. Parliamo del Software Defined Data Center, un fenomeno che implica numerosi cambiamenti, dalla tecnologia ai processi, alle competenze, con ripercussioni inevitabili anche nel panorama dell’offerta

Pubblicato il 04 Mag 2016

È la ‘nuova ondata’ post cloud ma i numeri parlano chiaro, non si tratta di un ‘semplice’ trend di marketing ma di un approccio cui le aziende stanno guardando seriamente.

Stefano Mainetti, Codirettore Scientifico dell’Osservatorio Cloud & Ict as a Service della School of Management del Politecnico di Milano

Parliamo del Software Defined Data Center (Sddc) che nell’ultimo anno ha registrato significative crescite anche in Italia, come ci conferma Stefano Maninetti, Co-direttore scientifico dell’Osservatorio Cloud e Ict as a service della School of Management del Politecnico di Milano: “Il ‘salto’ si è visto a cavallo tra il 2014 e il 2015: nel 2014 l’87% delle grandi imprese [oltre un centinaio quelle italiane monitorate costantemente dall’Osservatorio Cloud e Ict as a service – ndr] affermava che meno del 50% del numero totale delle infrastrutture server era gestito da un hypervisor; nel 2015 le aziende che si trovano in questa situazione sono scese al 60%. Ciò significa che le imprese si stanno dotando di nuovi e più avanzati sistemi per la gestione delle infrastrutture del data center e che c’è quasi un 30% in più di aziende che ha superato il 50% dei server virtuali gestiti via software”.

Finché la percentuale dei server virtuali rimane minoritaria, questi possono essere gestiti come ‘eccezione’ rispetto alla più tradizionale governance dei server fisici; “quando si supera il 50%, dati anche i vantaggi che ne derivano sul piano del provisioning delle risorse virtuali, diventa importante fare le dovute riflessioni sui processi interni e la gestione dei sistemi”, osserva Mainetti. “Soprattutto oggi che la virtualizzazione ha permesso un concreto consolidamento degli ambienti di private e hybrid cloud all’interno dei data center aziendali”.

Nuovo rischio silos?

Il percorso del Software Defined, in effetti, è iniziato molti anni fa, insieme alla virtualizzazione delle infrastrutture. Non può dunque essere considerato un fenomeno ‘giovane’: i numeri parlano di mainstream, ossia di una ‘tendenza dominante’ che pone l’accento su un processo primario come quello della gestione dell’infrastruttura di tutto il data center (l’ottimale gestione del server – da cui dipende l’architettura applicativa – implica anche un’adeguata distribuzione delle risorse di rete e di storage).

Il fatto che vi siano ambiti specifici della gestione infrastrutturale (Software Defined Network, Software Defined Storage) non deve però far pensare ad una governance ‘a silos’ come accaduto in passato. “Con le macchine fisiche e, di conseguenza, con la gestione fisica delle infrastrutture, la governance ‘a silos’ è derivata, da un lato, dal fatto che la domanda stessa fosse frammentata, nel senso che la gestione del sistema informativo aziendale era effettuata dalle singole funzioni It rispetto a determinate specifiche ed esigenze tecniche (per lo più guidate dal rilascio di nuove applicazioni che richiedevano un adeguamento infrastrutturale alla base; le specifiche dell’hardware derivavano dalle esigenze delle applicazioni) – dettaglia Mainetti -. Oggi che l’It risponde in modo diretto al business ed è chiamato ad essere ‘agile’, con la virtualizzazione spinta dei sistemi tale rischio non esiste più. La virtualizzazione dei server stessa è nata per rompere i silos e stabilire una sorta di ‘standard de facto’ infrastrutturale su cui ospitare applicazioni e servizi It. Oggi chi sviluppa applicazioni sa di avere a disposizione macchine virtuali con determinate caratteristiche ed è in funzione di queste che disegna le soluzioni”.

Chi rilascia ‘macchine virtuali’, di fatto, consente ad applicazioni e servizi di accedere alle risorse infrastrutturali loro necessarie ma secondo specifici requisiti predeterminati (accesso a determinate porte, utilizzo di un tot di risorse, ecc.); “se un’applicazione non è conforme a tali parametri non potrà essere ospitata nel data center”, sottolinea Mainetti. “È la prima volta nella storia dell’It in cui è l’hardware, seppur virtualizzato, a stabilire ‘le regole’ di provisioning. Anzi, è proprio tramite la virtualizzazione che si è arrivati a tale scenario dove lo sviluppo applicativo tiene conto in anticipo di alcuni standard comuni (macchine x86, hypervisor, …)”.

La spinta verso i sistemi iper-convergenti

Il rischio silos è superato dalla virtualizzazione stessa, anche se, ammette Mainetti, “la gestione via software della rete e quella dello storage sono arrivate in momenti successivi rispetto agli hypervisor. Questi ultimi, infatti, sono presenti sul mercato da oltre dieci anni, quindi non solo hanno più storia ma anche dal punto di vista dell’offerta sono disponibili più sistemi di gestione ormai maturi; c’è però da dire che le aziende che da tempo hanno superato la soglia del 50% delle infrastrutture server virtuali hanno maturato l’esperienza necessaria per non ‘cadere’ nuovamente nella trappola dei silos, approcciando invece network e storage virtualizzati già in una logica Software Defined. Motivo per cui oggi le imprese chiedono sistemi convergenti (che unificano server, network e storage) ed iper-convergenti (sistemi che oltre ad unificare i tre livelli infrastrutturali sono gestiti da un unico ambiente software, con un solo hypervisor on the top che gestisce il tutto come un unico sistema virtuale)”.

Lo scenario diventa quindi ‘interessante’ anche visto dalla prospettiva dei vendor: con i sistemi convergenti i vendor di server, storage e network devono collaborare per proporre sistemi perfettamente integrati ed interoperabili ma che presentano poi sistemi di gestione separati (ciascun vendor propone il proprio); con i sistemi iper-convergenti che integrano componenti di fornitori diversi (il problema non sussiste per i sistemi che unificano componenti di un unico fornitore) i player It devono fare uno sforzo ulteriore e definire un unico ambiente di gestione per tutta l’infrastruttura.

“La ricerca di efficienza è dunque ‘comandata’ dal software – puntualizza Mainetti -. Più aumentano gli strati di virtualizzazione più cresce il rischio di inefficienza dovuto proprio alla governance dei sistemi. I produttori di hardware sono sempre più orientati a realizzare soluzioni ‘bare metal’ [ossia sistemi che non hanno al proprio interno un sistema operativo e sui quali, solitamente, vengono installati ambienti che ‘fondono’ in un software unico sistema operativo e sistema di gestione della virtualizzazione – ndr], seguendo quindi le logiche dei produttori di software di gestione della virtualizzazione. Le vie per i produttori di hardware sono dunque due: proporre ambienti full stack con ambienti di gestione proprietari, oppure supportare OpenStack per garantire l’efficienza dei propri sistemi in ambienti di gestione eterogenei. In entrambi i casi, la scelta di chiudersi o aprirsi è ‘guidata’ dalle aziende come VMware, Citrix e Microsoft le quali sono riuscite a ‘imporre’ i propri ambienti di gestione della virtualizzazione nei data center aziendali”.

Cosa vogliono le aziende

Se dalla prospettiva dell’offerta è evidente che ci troviamo di fronte ad uno scenario nel quale primeggiano le aziende del software (quelle degli hypervisor), dal lato della domanda le aziende richiedono ormai da diversi anni agilità e semplificazione. “I data center delle aziende sono ‘fatti per restare’ – conferma Mainetti sulla base delle dichiarazioni dei Cio delle cento grandi aziende italiane da lui stesso interpellati -, e questo è certamente un punto di forza delle loro strategie It. Il punto di debolezza è rappresentato dal fatto che il livello di astrazione necessita di un salto ulteriore (la virtualizzazione dei server non è più sufficiente), con tutte le complicazioni che ne conseguono. La macchina ‘bare metal’ di per sé è considerata commodity (anche se contiene già un sistema di gestione); ciò che ‘fa gola’ è il poter disporre di un unico hypervisor di gestione di tutte le infrastrutture del data center”.

Il motivo per cui ci si spinge verso il Software Defined Data Center, come anticipato, è rappresentato dal fatto che molte aziende hanno ormai consolidato al proprio interno ambienti di private cloud e per poter modellare sistemi di hybrid cloud perfettamente funzionanti ed integrati, hanno bisogno di un sistema di gestione che consenta loro di governare le risorse esterne con la stessa efficienza ed efficacia con le quali governano quelle interne.

“Il percorso forse più complesso è rappresentato dall’evoluzione delle competenze – enfatizza Mainetti in chiusura -. I sistemisti avranno sempre più un ruolo di governance incentrato oggi su nuovi paradigmi (SDDC, Cloud, DevOps,…); quando si iniziano a gestire via software le infrastrutture, le risorse sono allocate in data center esterni, lo sviluppo applicativo si muove ‘in autonomia’ su sistemi e ambienti virtualizzati… è evidente che il ‘vecchio’ sistemista deve evolvere verso un ruolo di management completamente diverso: deve assicurare un controllo granulare di ogni singolo componente dell’infrastruttura ma gestirla da un unico punto”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3