Prospettive

La profonda trasformazione in atto nei data center

Il data center perde centralità, si espande oltre i confini aziendali, adotta le metriche “a consumo” del mondo cloud. Un report Forrester focalizza le principali sfide che le aziende si trovano oggi ad affrontare in un contesto tecnologico di estrema eterogeneità

Pubblicato il 16 Feb 2018

Data Center Nell'era del Cloud

La digital transformation sta cambiando il modo in cui le aziende comprano e usano l’IT, da una parte avvantaggiandosi dei nuovi servizi in cloud, dall’altra scontrandosi con i problemi d’integrazione con le infrastrutture esistenti e con nuove problematiche di gestione. Il report di Forrester From an island to a Web: the modern data center riassume le principali sfide che i sistemi informativi si trovano ad affrontare nella gestione di un IT che è sempre più eterogeneo.

Data center sempre meno “center”

Cosa dobbiamo aspettarci? Per prima cosa i futuri data-center saranno senza “center” per il fatto che l’elaborazione dati avviene sempre più esternamente al perimetro aziendale (presso cloud service provider, in colocation o gli edge dei centri di produzione nel caso dei sistemi IoT), aggiungendo complessità nella gestione. Le metriche di costo dei servizi in cloud stanno diventando parametri universali per la valutazione della convenienza dell’informatica tradizionale, al punto da non poter fare a meno di trasparenza e pay per use nell’acquisto di sistemi fisici. La cessione dei servizi a terze parti libera risorse, ma comporta anche perdite di controllo, visibilità e competenze ci cui occorre tenere conto.

Come nel passato, anche oggi l’evoluzione IT accompagna specularmente quella dei business aziendali crescendo in prestazioni ed efficienza. Non stupisce quindi che ai giorni nostri l’IT sia sotto pressione per erogare servizi più flessibili e competitivi. Oltre al cloud esistono nuove importanti risorse per il data center. Le software defined infrastructure (SDI) riducono la dipendenza dei servizi agli utenti dalle infrastrutture fisiche, aiutando l’IT a lavorare a più alto livello e sempre meno sulle componenti del data center. Questo non significa non dover fare i conti con la capacità d’elaborazione disponibile, la banda o la latenza di rete a livello dello strato di gestione. L’omogeneità tecnologica che di norma consente scalabilità, efficienza e minori costi del data center non può essere garantita nel mix di piattaforme cloud e servizi esterni in uso con la conseguenza di dover affrontare maggiori complessità di gestione e di integrazione tra servizi. Le soluzioni cloud Saas garantiscono meno preoccupazioni all’IT sul fronte fisico, ma hanno bisogno di competenze d’integrazione dati. La diversità infrastrutturale viene inoltre aumentata dalla proliferazione di sensori e oggetti intelligenti IoT che svolgono funzioni di monitoraggio specifiche, per esempio, sulle catene di produzione alla periferia o all’esterno dell’impresa. A differenza del passato, oggi sono le applicazioni a guidare le scelte infrastrutturali IT. I requisiti degli utenti sono quindi alla base della scelta dei provider di servizi assieme alle garanzie in fatto di prestazioni, accessibilità dei tool e conformità con le leggi. Con la crescita delle interconnessioni tra sistemi differenti e distanti tra loro si perde ogni distinzione tra LAN e WAN. Le reti si estendono oltre il perimetro aziendale comprendendo anche le infrastrutture dei fornitori di servizi. Questa situazione vede in crisi il tradizionale disegno hub&spoke delle WAN (dove c’è un data center primario, hub, che distribuisce le informazioni a raggiera, spoke, sugli altri data center periferici), a favore di reti WAN mesh-fabric (dove le interconnessioni avvengono “alla pari” tra di diversi data center senza che ve ne sia uno primario; in questo caso nella rete risiede un più elevato livello di “intelligenza”) che risultano più adatte alle infrastrutture ibride; le WAN diventano un componente critico che tiene uniti i vari componenti del data center.

Come cambiano le logiche di acquisto IT

Il cloud sta radicalmente cambiando i modi con cui le aziende comprano, usano e gestiscono le risorse IT. I costi dei servizi erogati in cloud diventano sempre più un parametro di confronto per i servizi erogati internamente. Il cloud accompagna i modelli di IT “a consumo” che consentono di pagare l’IT solo per ciò che si usa e il pagamento a consumo sta sconfinando anche nel campo dei sistemi fisici: prima nel mondo dei servizi di rete e ora anche in quello dei fornitori di hardware. Alcuni vendor offrono opzioni finanziarie e di gestione che permettono ai loro clienti di pagare i sistemi per ciò che usano. Man mano che sempre più aziende scelgono di usare servizi IT esterni, il possesso e la gestione di un data center sta diventando una commodity. C’è convinzione diffusa che molte applicazioni siano più efficaci in cloud che installate localmente, consentendo di destinare risorse per altri usi. L’astrazione nell’impiego dei servizi IT raggiunto attraverso la virtualizzazione ha ridotto l’importanza dell’hardware, anche se l’IT continua ad aver bisogno di monitorare prestazioni, sicurezza e costi. Nuovi strumenti self-service consentono agli utenti finali di approvvigionarsi di ciò di cui hanno bisogno più velocemente e senza inficiare le capacità di controllo dei team IT.

Il problema del controllo fisico sull’IT

Dopo i data center in outsourcing e i server in co-location non pare un salto quantico passare alle risorse IT on demand; con la diffusione del cloud, molte aziende hanno rinunciato al controllo e proprietà dei sistemi IT a favore di altri benefici, come le prestazioni e i costi più bassi, accettando di controllare i propri asset attraverso i termini di un contratto. Le aziende che non possiedono i loro sistemi IT sono inevitabilmente dipendenti dalle scelte dei loro provider e in qualche caso si trovano a incorrere in problemi legali: le leggi non riescono a stare al passo dell’evoluzione tecnologica, e i servizi cloud ricadono in aree grigie, molto meno mature, per esempio, dell’outsourcing.

Un’agenzia governativa o una normativa nazionale, per esempio, possono stabilire chi ha accesso ai dati collocati presso un provider nel luogo dove il provider ha i server e questo potrebbe comportare il dover cambiare provider, rivolgendosi a chi consente di scegliere la location dei propri dati (ma questo potrebbe non essere il soggetto adatto a fronte di altre valutazioni, per esempio di carattere economico).

Un altro aspetto riguarda cosa succede in caso di mancato pagamento al provider: il modello “as a service” richiede pagamenti costanti per mantenere l’accesso ai dati; in caso di difficoltà economiche o si paga o si perde l’accesso, finendo di fatto per creare ulteriori difficoltà all’impresa.

Attenzione ai dati e al lock-in

Nel modello di data center esteso che abbiamo descritto, la strategia di gestione dei dati deve comprendere tutto ciò che è dentro e fuori dall’azienda. Il minore controllo su alcuni asset IT non riduce la necessità di gestire, rendere sicuri e governare i dati che si spostano nell’ecosistema aziendale. I dati restano “al centro” di tutto e questo ha bisogno di più collaborazione: i team che si occupano di applicazioni devono collaborare con chi si occupa di architetture, per determinare al meglio le caratteristiche dei servizi e delle reti. Nelle scelte va valutato il rischio del “lock-in” ossia di non poter facilmente cambiare provider a causa dei costi per spostare applicazioni e dati su nuovi fornitori. Forrester consiglia di disegnare i servizi in modo “tecnologicamente agnostico” e quindi di non legarsi troppo alle funzioni specifiche delle platform cloud. A questo proposito può essere utile usare strumenti open source per disporre dei livelli di astrazione che permettono di sfruttare qualsiasi piattaforma infrastrutturale. Tecnologie open source come Cloud Foundry e Kubernetes rappresentano degli standard di riferimento adottati dai maggiori cloud provider. Sempre secondo gli analisti di Forrester, troppi servizi esterni possono creare più problemi che vantaggi, rendendo difficile ottenere i livelli di accessibilità e visibilità necessari per risolvere, per esempio, i problemi di performance. E difficilmente problemi complessi possono essere affrontati senza coinvolgere i service provider.

Infine, come nel caso dell’outsourcing, man mano che cresce il livello di astrazione nella gestione IT è inevitabile incorrere nella perdita di competenze interne sulle componenti di sistema; questo potrebbe rendere meno efficaci le decisioni in campo tecnico, rendere l’azienda più dipendente dalle competenze esterne nel cogliere l’innovazione futura.

Ma se l’esternalizzazione implica un minor controllo sull’insieme dell’infrastruttura, Forrester sottolinea che non necessariamente questo è negativo purché se ne abbia piena coscienza e vengano di conseguenza definiti piani di backup e attivati servizi che supportino il dipartimento IT in caso di necessità.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4