Data Center

Data center 2017: Gartner delinea i trend e le linee guida della governance

La Data Center, Infrastructure & Operations Management Conference 2016 di Las Vegas è stato forse l’evento più importante rispetto al calendario di appuntamenti di Gartner. Gli analisti hanno parlato di come cavalcare la digital transformation dei data center, sfruttando il meglio delle risorse Software-defined che entro il 2019 caratterizzeranno il 30% delle infrastrutture aziendali

Pubblicato il 27 Dic 2016

data-center-2017-161226230552

Come saranno i data center nel 2017? La domanda è retorica, considerando il fortissimo impatto del cloud sulla gestione delle sale macchine, fisiche o virtuali. Che si tratti di grandi aziende o di piccole organizzazioni, di filiali o di startup, le nuove linee della governance rispetto ai data center sono sempre più chiaramente orientate a un’impostazione Software-Defined.

Ne hanno parlato proprio in questi giorni gli analisti di Gartner a Las Vegas, in quello che forse è stato l’appuntamento più importante del calendario organizzato dalla società di ricerca: la Data Center, Infrastructure & Operations Management Conference 2016.

La prima cosa evidenziata dagli esperti? Che nell’era della digital transformation il tema della governance ICT non può e non deve essere più solo dettata da un’ossessione per i budget. Non a caso, la road map dell’evento Gartner ha bypassato molti luoghi comuni e molta retorica associata alla trasformazione da Capex a Opex dell’IT puntando al fatto che le aziende devono porsi come obiettivo di negoziare i migliori contratti per avere i migliori servizi non per ottenere quelli più economici. I relatori si sono focalizzati sulla capacità per le aziende di avere tutta la potenza computazionale che serve al business, senza soffrire delle rigidità che fino ad oggi hanno caratterizzato l’ICT pre-cloud.

Data center 2017 in 5 punti

Parlando di data center 2017, Gartner si è concentrata su diversi aspetti chiave a livello filosofico e strategico, dando precise indicazioni su come:

  1. ottimizzare l’operatività dell’IT a supporto dei nuovi ecosistemi analogici e digitali del business
  2. Ideare e implementare un’efficiente strategia cloud
  3. programmare il percorso evolutivo dei data center, elaborando un’infrastruttura all’insegna dell’iperconvergenza, dell’integrazione e della virtualizzazione
  4. ridefinire tutte le strategia di storage, imparando a gestire la memoria come una scienza evolutiva e non come un insieme di processi di archiviazione
  5. pianificare, impostare le risorse e gestire le infrastrutture di rete

Cloud, cioè bimodale, iperconvergente, iperscalabile e Agile

Abbandonando termini come pay per use, as a service e on demand cavalcati dai fornitori, gli esperti hanno puntato l’attenzione sui temi dell‘iperconvergenza e della bimodalità, come un unico approccio basato su una capacità di centralizzare la gestione dei servizi lavorando di integrazione, bilanciando in modo dinamico le risorse fisiche e le risorse virtuali secondo criteri di iperscalabilità che chiamano in causa diverse tecnologie ma anche diverse metodologie di lavoro all’insegna di un’impostazione Agile. Il valore del data center, insomma, è in una nuova capacità di programmazione che, usando una fortissima intelligenza applicativa e una più robusta analisi dei dati, rende estremamente più proattivo e predittivo l’IT, consentendo alle infrastrutture di adattarsi in modo elastico e flessibile a ogni evoluzione del business, nei suoi picchi e nelle sue contrazioni.

Significativo il fatto che Gartner non abbiamo fatto menzione al cloud ibrido, dando per scontato che l’approccio alle nuvole, rispetto alla fruizione dei servizi, sia concettualmente destinato a essere sempre e comunque dinamico. L’obbiettivo primario delle aziende, infatti, deve essere quello di rinnovare i data center, immaginando di poter utilizzare qualsiasi tipo di risorsa senza più avere alcun vincolo di capacità ma anche di integrazione e di accesso. L’iperscalabilità suggerita dagli analisti, insomma, non è altro che un’elasticità nativa dei data center (e delle infrastruture di networking sottostanti) che possono interfacciarsi a qualsiasi sistema, applicazione o tool senza più avere problemi di memoria, di gestione, di velocità e, idealmente, di sicurezza. I benefici delle reti geografiche Software Defined, in particolare, secondo Gartner faranno si che da qui ai prossimi tre anni il 30% delle aziende si sposterà verso questo tipo di networking (contro l’1% di oggi).

Da qui a dieci anni, secondo le previsioni della società di ricerca americana, il maggiore uso di infrastrutture iperconvergenti nei data center preparerà le basi a modelli incentrati sul continuous delivery e sui micro servizi ad hoc. I nuovi componenti hardware sottostanti agli stack delle infrastrutture iperconvergenti, infatti, diventeranno sempre più automatizzati e diffusi, permettendo alle aziende un IT-as-a-service (ITaaS) a valore aggiunto.

La gestione della memoria tra i perni della governance

Parlando di data center 2017 gli osservatori hanno riportato il tema dello storage ai suoi fondamentali: una gestione ottimale dei dati. Il punto di partenza è nella capacità di gestire quella capacità di memoria che sta alla base della virtualizzazione e del cloud ma anche di una Internet of Things che, sensorizzando il mondo ed il business, immette nei sistemi crescenti flussi di dati che portano a lavorare all’ennesima potenza macchine e sistemi.

Se vero che uno dei massimi problemi dei data center è la loro scarsa economia e ieri sotto la lente degli amministratori c’erano l’alimentazione e la potenza, i data center 2017 porranno sotto i riflettori il problema dello storage. Le tecnologie più all’avanguardia oggi sfruttano in vario modo le risorse Flash Array, cambiando i criteri di back up per sposare i Solid State Array. I nuovi orizzonti dello sviluppo si orientano verso sistemi integrati e iperconvergenti che persegueno sistemi di distribuzione dei File e delle applicazioni all’insegna della containerizzazione.

In che modo? Virtualizzando informati, cioè lasciando la maggior parte dei dati in una sorta di container che, come uno strato intermedio, rende le informazioni accessibili attraverso una serie di criteri prestabiliti, gestiti da una unica consolle, sgravando così i data center da una vera e propria deduplicazione. In sintesi, ogni gruppo di controllo offre applicazioni complete, processore, memoria o accesso I/O inclusi, come se fossero risorse isolate senza che sia necessario attivare delle macchine virtuali.

L’arrivo dei chip Intel per server di prossima generazione Skylake tanto attesi per la metà del 2017 innescherà un progressivo aggiornamento dei data center, delineando un’architettura sistemica inedita, che spianerà la strada alle infrastrutture iperconvergenti, che saranno una componente fondamentale del software-defined data center (SDDC).

La gestione delle applicazioni, tra API e Application Performance Management

Un’altro aspetto importante affrontato in occasione della Data Center, Infrastructure & Operations Management Conference 2016 è stato quello di aiutare le imprese a capire come progettare un’infrastruttura Agile a supporto della digital transformation.

Se il tema della softwarizzazione di qualsiasi cosa sarà una dominante dei data center 2017 è anche vero che la programmazione si confermerà un asset portante dello sviluppo. Armonizzare i sistemi preesistenti con quelli nuovi, inventariare e razionalizzare l’eterogeneità di soluzioni innestando strumenti e applicazioni funzionali ai nuovi business digitali significa saper fare interagire diversi mondi che appartengono a release estremamente diverse e non tutte compatibili.

In attesa di una standardizzazione (di cui purtroppo ancora non parla nessuno), la governance può contare sulle API. Sono infatti le Application Programming Interface che consentono di far interagire due programmi (o due piattaforme, o un programma e una piattaforma) nel caso si rivelino incompatibili. Utilizzare un insieme di funzioni o di routine predisposte per svolgere compiti particolari che, in molti casi, forniscono un metodo semplificato per interagire con un componente software di un’altra applicazione, consente l’automazione di alcuni processi e servizi in esecuzione su macchine anche molto diverse. In estrema sintesi, è grazie alle API che si possono estendere le funzionalità di un’applicazione garantendo una duttilità che non era stata minimamente pensata in fase di rilascio dallo sviluppatore o dalla casa madre. Ed è così che si possono sfruttare nuove economia di scala nell’ambito dello sviluppo, salvaguardando buona parte dei sistemi legacy. Per questo nei data center 2017 la programmazione torna a essere una grande protagonista, imponendo ai responsabili dei data center di cercare figure preposte.

Certamente l’hype intorno alle API è ancora in crescita come lo sono le strategie digitali e come l’uso pervasivo di Internet of Things ma già oggi diversi modelli di business sono associati alla pubblicazione e alla condivisione di API che rendono più veloce, più efficiente e più snella l’esecusione di un processo di business (come ad esempio ordinare merci in una catena di fornitura o, più banalmente, inviare tweet all’account Facebook dell’utente, senza utilizzare la password di Facebook).

Come e perché il DevOps sarà un fondamentale dell’operatività IT

Ecco perché Gartner segnala come altro tema importante della governance: il DevOps. Le aziende hanno la necessità di muoversi più velocemente ma, spesso, la pipeline viene rallentata da un’organizzazione in silos del rilascio applicativo. Gartner, spiega come, in scenari simili, un approccio DevOps, basato su una maggiore collaboration tra i team di sviluppo e le It operation permette il rilascio di soluzioni e servizi It più efficaci ma anche di maggiore valore sul piano del business. Il DevOps, per gli analisti, non solo potrà migliorare l’It service management analizzando le performance dei processi esistenti, identificando le potenziali aree di miglioramento in termini di agilità ma consentirà una nuova collaborazione tra development e operation che porterà a una migliore comprensione della governance e dei suoi obiettivi, aiutando a condividere meglio il percorso di sviluppo e i risultati raggiunti.

In conclusione, i data center 2017 danno per scontanto un approccio in cui la softwarizzazione delle risorse si fonda su una serie di tecnologie ormai consolidate che permettono di gestire in modalità logica pressochè qualsiasi cosa, da un semplice server a un intero data center, da una banale applicazione a un complesso gestionale, da una piccola appliance a un’intera infrastruttura di rete. Il tutto con una nuova capacità gestionale basata su una serie di approcci che vanno ben oltre le indicazioni di una generica visione olistica dell’infrastruttura. Le indicazioni di Gartner mai come questa volta sono state puntuali ed estremamente precise.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati