Hybrid world: il data center non è il centro, è un network

Con l’avanzare del mercato cloud, sempre più applicazioni business critical continueranno a spostarsi verso ambienti cloud favorendo l’amalgama di sistemi ibridi all’interno dei data center aziendali. Per i professionisti I&O – infrastructure and operations – diventa fondamentale garantire le massime performance indipendentemente da dove i servizi It effettivamente risiedano, questo significa focalizzare l’attenzione sulle infrastrutture di rete. “Saranno proprio i modelli emergenti di connessione privata o ‘dedicata’ degli ambienti cloud ad influenzare la Business Technology Agenda”, sottolinea Forrester.

Pubblicato il 17 Giu 2016

Figura 3: Gli aspetti importanti per la scelta di un datacenter facility Fonte: Forrester

“Era l’inizio degli anni ’90 quando Sun Microsystems coniò la frase ‘The network is the computer’ , ma mai come oggi tale concetto assume una rilevanza determinante nella trasformazione dei data center”, sottolinea Andre Kindness, principal analyst di Forrester nel recente report ‘Simplify Your Hybrid Infrastructure Strategy With Cloud Exchanges’. “Le architetture distribuite a supporto del business digitale delle imprese si basano oggi in maniera vitale sulle infrastrutture di rete e spesso, queste ultime, sono fuori dal controllo diretto dell’It. Molti servizi digitali e applicativi si estendono attraverso risorse infrastrutturali e di rete eterogenee dislocate in luoghi differenti. Le architetture ed i servizi It si ‘spostano’ dall’elaborazione centralizzata del data center aziendale per trasformarsi sempre più in un mix di risorse interconnesse dislocate ovunque”. La fotografia tracciata in prima analisi da Kindness trova conferma nei risultati della ‘Forrester’s Global Business Technographics Infrastructure Survey’ del 2015, un’indagine condotta a livello globale su oltre 850 infrastructure decision makers di grandi aziende (con oltre 1000 dipendenti), dalla quale emerge con chiarezza che uno dei primissimi fattori critici di attenzione nella scelta di un service provider, a fronte di una crescita di attenzione verso l‘allocazione esterna degli asset del data center, riguarda proprio la connettività (opzioni possibili per la connettività, disponibilità e densità dei carrier rappresentano per l’81% degli intervistati gli elementi di maggior importanza – figura 1). “In generale, i professionisti I&O vogliono piattaforme cross-connected in grado di sorreggere la scalabilità e la distribuzione delle architetture”, spiega Kindness.

Figura 1: gli aspetti importanti per la scelta di un datacenter facility
Fonte: Forrester

Alcuni cloud provider e società di colocation hanno creato le cosiddette ‘collezioni di risorse infrastrutturali’ che si comportano dinamicamente come se fossero un singolo asset – avendo come perno centrale il network – ma che, in realtà, sono distribuite in differenti ‘zone di rischio’ (in diversi data center e aree geografiche). “Nella regione del Nord Virginia, Amazon Web Services – porta come esempio l’analista di Forrester – eroga i propri servizi lungo cinque differenti ‘zone di rischio’. Ogni zona è separata da una latenza di connettività di uno o due millisecondi (lungo aree geografiche che si distanziano dai 125 alle 250 miglia): distanza sufficiente per diversificare e ridurre il rischio di downtime ma allo stesso tempo abbastanza vicina per garantire l’alta disponibilità delle architetture applicative”.

Per certi workload, Internert non è abbastanza

Mentre una semplice connessione Internet può risultare sufficientemente efficace per l’accesso a servizi Saas e applicazioni mobile, molto del traffico di un data center che sfrutta connessioni 10 GbE, 40 GbE o 100 GbE [Gigabit Ethernet – tecnologie di computer networking per la connettività Ethernet a grandi velcoità, 10, 40, 100 Gigabit al secondo – ndr] avrà problemi non banali una volta che lo stesso traffico verrà portato sulle reti Internet.

Andre Kindness, principal analyst di Forrester

“L’idea che Internet non sia sufficientemente performante per certi tipi di workload enterprise si basa trova conferma in tre particolari trend in atto”, fa notare Kindness:

1) “è dal 2013 che i cloud provider stanno cercando soluzioni sempre più efficaci per offrire migliori metodi di connessione ai propri servizi”;

2) “Amazon, Google e Facebook stanno estendendo le loro reti di connettività così come i siti di altri cloud provider”;

3) “sta nascendo un nuovo consistente mercato di servizi di colocation, managed services e nuovi carrier di servizi Wan via cloud proprio in risposta a questa esigenza (connettività a supporto di determinati workload data center)”.

Guardando quindi all’evoluzione del networking nei prossimi anni, Kindness sottolinea quali sono e saranno i bisogni da soddisfare per supportare quelle applicazioni e servizi digitali business critical che richiedono un effort maggiore rispetto alle connessioni Internet:

1) performance ‘consistenti’: alcuni tipi di traffico data center necessitano di un certo ‘ammontare’ di banda di connettività (bandwidth, larghezza di banda), richiedono ‘diritti primari’ sulle code di traffico e le risorse di buffer (devono cioè essere processati con certe priorità e ‘privilegi’ nell’utilizzo delle risorse disponibili), ‘attraversare’ la rete nel minor tempo possibile ed inviare il playload in un determinato ordine (eseguire cioè i workload secondo specifiche regole e tempi). Per rispondere a simili complessità è necessario ‘costruire’ connessioni dedicate (ad hoc per certi workload e servizi mission/business critical) per le quali è fondamentale prevedere disponibilità di banda protetta e controllo delle performance incentrato sul ‘quality-of-service’;

2) soglie garantite: la maggior parte dei provider offre uptime con Sla di disponibilità del 99,9%, ciò significa garantire una connessione affidabile e robusta. Partendo dal monitoraggio delle applicazioni e dei servizi, per capire come lavorano e si comportano in base all’utilizzo degli utenti, i professionisti I&O potrebbero richiedere ai provider garanzie maggiori o minori, in base alle necessità del business (stabilendo delle soglie di disponibilità a seconda dei workload);

3) servizi complementari di protezione: l’esecuzione di tutte le applicazioni tramite una connessione Vpn – un singolo tunnel – potrebbe rappresentare una falla nella sicurezza. Questi tunnel singoli nascondono gli indicatori di performance e le regole necessarie all’ottimizzazione del traffico sulla rete. I professionisti I&O dovrebbero quindi ‘innervare’ il network con componenti di sicurezza in grado di abilitare politiche di protezione e controllo non solo del traffico ma anche dei dati e delle applicazioni (servono cioè ‘zero trust architecture’ a livello di rete ma costruite intorno a dati e applicazioni);

4) Wan fabric: la rete diventerà un ‘large network fabric’; se le fabric connection potranno essere stabilite attraverso siti e location cross-connected, si eliminerà la complessità oggi evidente che molte aziende affrontano nel tentativo di collegare i servizi di carrier e service provider attraverso la rete Internet. “Poter contare su una rete Wan fabric di larga scala anziché optare per connessioni Internet, per le aziende non significa solo maggiori performance e sicurezza, ma anche minori costi”, fa notare Kindness in chiusura. “Le spese di trasferimento dei dati attraverso network privati dedicati sono inferiori rispetto alle connessioni Internet pubbliche”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati