TechTarget Tech InDepth

Edge computing: perché e come affrontare progetti di micro data center

Si chiamano anche ‘edge data center’, il loro mercato è in crescita, e diventeranno infrastrutture cruciali per supportare tutte le applicazioni e servizi digitali di ultima generazione, giocando un ruolo complementare rispetto a quello dei tradizionali data center e del cloud centralizzato

Pubblicato il 22 Mag 2018

cosa sono i micro data center

Già all’inizio di quest’anno, Gartner aveva inserito il fenomeno edge computing tra i dieci top trend tecnologici che per le imprese si sarebbero rivelati strategici da dominare nel 2018. E proprio per sfruttare i vantaggi del processo di trasformazione ‘Cloud to the Edge’, Gartner aveva anche raccomandato, specie a quelle organizzazioni caratterizzate da infrastrutture con una significativa presenza di componenti IoT (Internet of Things), di avviare l’adozione di schemi di progettazione improntati sul modello architetturale dell’edge computing. Quest’ultimo prevede, in sostanza, che l’elaborazione dei dati avvenga più vicino alle fonti che generano i dati stessi, e anche più vicino agli utenti finali: in questo modo, l’obiettivo principale è ridurre la latenza del sistema e dell’infrastruttura IT, attraverso la capacità di analizzare le informazioni localmente e di fornire risposte agli eventi in tempo reale. Una via di realizzazione dell’architettura di edge computing è quella che utilizza i cosiddetti micro data center, conosciuti anche con il nome di ‘edge data center’.

Al momento, il mercato dei micro data center resta ancora di piccole dimensioni, ma sta crescendo rapidamente, rileva Gartner, e, per il 2021, il 25% delle organizzazioni aziendali ne avrà implementato uno.

edge computing
L’Edge ComputingFonte: TechTarget

Micro data center, cosa sono e perché servono

Le attrezzature IT che si definiscono micro data center sono a tutti gli effetti data center in miniatura, e tipicamente si identificano in apparati modulari, che ospitano al loro interno tutti gli elementi base dell’infrastruttura IT, quindi server, storage, gruppi di continuità (UPS – uninterruptible power supply), sistemi di raffreddamento.

Detto questo, potrebbe ancora risultare spontaneo domandarsi perché queste versioni ridotte dei centri dati convenzionali stiano acquistando tanta importanza, e diventando così strategiche nell’attuale e futuro scenario della trasformazione digitale. E la risposta la dà ancora una volta Gartner: “Quando si cominciano ad avere miliardi di oggetti che sono in attesa di risposte immediate e stanno generando video a risoluzione 4K – spiega Bob Gill, vicepresidente ricerca in Gartner – il traffico diventa tale che non ha letteralmente senso prendere tutti questi dati e immagazzinarli dentro un cloud centralizzato”. Il paragone che calza a pennello è quello in cui si confronta l’implementazione degli edge data center alla costruzione di un’autostrada: come quest’ultima è in grado di connettere meglio città e centri abitati sviluppando il business, così le imprese che realizzano micro data center nelle reti periferiche riescono a massimizzare il valore delle proprie infrastrutture e dei servizi che erogano, e ciò indipendentemente dal fatto che si stia parlando di uffici, magazzini o ambienti di fabbrica. E Gill aggiunge: “Se si costruisce un’infrastruttura basata unicamente sui modelli di cloud centralizzato, data center e strutture di colocation, senza prendere in considerazione la rete edge, ci si ritroverà, nel giro di tre o quattro anni, con un’infrastruttura subottimale”.

Latenza della rete: guida l’evoluzione verso l’edge

Oggi è già evidente che i problemi di latenza della rete e del data center centralizzato potranno presto trasformarsi in grandi ostacoli al buon funzionamento delle applicazioni e dei servizi digitali di ultima generazione, improntati sul paradigma Industria 4.0: e ciò specialmente quando si parla di filiali, siti aziendali, impianti con macchinari industriali posti in località remote rispetto alla sede principale dell’impresa. Ed è proprio il fattore latenza che nei prossimi anni continuerà a guidare la transizione verso l’edge computing, che sposta il baricentro di elaborazione dei dati fuori dal data center, e dal cloud, per posizionarlo nella rete edge. Ciò tuttavia non deve necessariamente portare a conclusioni come la tesi, supportata da alcuni osservatori, secondo cui lo sviluppo locale delle infrastrutture di edge computing fagociterà presto la nuvola, determinando la fine del cloud, almeno così come lo conosciamo oggi. Può anche esistere una visione forse più verosimile, ed è quella di chi ritiene che edge computing e cloud tradizionale potranno coesistere, giocando, reciprocamente, un ruolo complementare. In effetti, già oggi è possibile osservare come alcuni tra i cloud provider più lungimiranti stiano già puntando a raggiungere questo scenario: gli esempi si possono trarre citando la Azure IoT suite di Microsoft, o l’offerta Greengrass di Amazon Web Services (AWS), che mirano a migliorare le capacità di elaborazione nei dispositivi IoT embedded a livello locale, senza precludere l’integrazione con i servizi e la potenza della nuvola.

Micro data center: come implementarli

Quando si decide di realizzare un’infrastruttura di edge computing, il dispiegamento dei micro data center può avvenire seguendo strade diverse: una è optare per un provider di infrastruttura che si pone sul mercato come ‘one stop shop’ e singolo vendor per la fornitura di tutto l’hardware e dei servizi di supporto. Un’altra strada può essere quella di rivolgersi agli specialisti di infrastrutture IT e agli integratori di sistemi, che nella realizzazione della soluzione non dipendono in genere dall’utilizzo di uno specifico hardware, e possono fornire una gamma di opzioni modulari.

Un altro aspetto fondamentale da tenere presente nei progetti d’implementazione è che, pur essendo spesso dislocati in posizioni geografiche differenti da quelle in cui si trova il data center tradizionale di un’impresa, i micro data center devono comunque funzionare con efficienza: il reparto IT deve dunque garantire che tali infrastrutture e attrezzature operino in conformità con determinati requisiti di sicurezza e affidabilità, evitando continui interventi di riparazione. Soprattutto i micro data center delle reti edge industriali hanno necessità di irrobustire le attrezzature con componenti e sistemi elettronici ‘rugged’, in modo da renderle adatte a sopportare nel tempo fattori ambientali severi come, ad esempio, polvere e forti sollecitazioni vibrazionali.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4