TechTarget Prospettive

Il futuro del data center? Dipende dalle tecnologie edge, dal cloud ma anche dallo staff IT

Non solo edge computing, colocation e cloud influenzeranno approcci e architetture da qui ai prossimi anni. Gli analisti ricordano come la variabile umana giocherà un ruolo chiave nei data center del futuro

Pubblicato il 13 Feb 2018

data center del futuro

Non si può parlare del futuro dei data center senza una premessa fondamentale: è giunto il momento di chiudere con le infrastrutture più datate. La riconfigurazione delle sale macchine impone oggi un’ottimizzazione dei carichi di lavoro e una potenza di calcolo tali da non poter essere più supportati dalla maggior parte dei sistemi legacy. I team IT necessitano di un approccio diverso per modernizzare le risorse dei loro data center. E qui che entrano in gioco formule on premise, in cloud e servizi di colocation.

“Il personale IT più volte si è ritrovato in una fase di forte impasse – ha detto Jennifer Cooke, research director di IDC -. Non è facile proteggere i dati aziendali, garantire la sicurezza e assicurare il rispetto dei requisiti normativi sotto il pressing crescente del business. L’innovazione che serve a far aumentare i fatturati oggi più che mai ha bisogno delle risorse IT che, attualmente, si ritrovano impegnate su più fronti contemporaneamente”.

Per far fronte all’evoluzione della domanda interna, le organizzazioni si rivolgono a modelli as-a-service per gestire i propri asset piuttosto che affidarsi a un approccio incentrato su logiche a silos e su un potenziamento dei server. Disponibilità ed efficienza del cloud, infatti, hanno aperto gli occhi ai manager aziendali, condizionando il lavoro dello staff IT interno che, per rimanere competitivo, sta cercando di recuperare in strategia ed efficienza.

“All’IT viene ora chiesto di operare in una chiave più orientata ai servizi – ha proseguito Cooke -. Le imprese sono impegnate a modernizzare le strutture esistenti o a implementare i data center del futuro su nuove basi”.

I data center del futuro sposano l’automazione

Secondo le previsioni degli analisti, oltre ai modelli as-a-service, oltre a un aumento di strumenti automatizzati e apparati più intelligenti, i data center del futuro affiancheranno un potenziamento del monitoraggio delle prestazioni ma anche delle attività di manutenzione predittiva. Queste indicazioni valgono per tutti: anche per tutte quelle realtà che non hanno problemi a lavorare con le attuali infrastrutture. Come sottolineano gli esperti, infatti, per aumentare l’efficienza e definire prodotti e soluzioni migliori sia per l’azienda che per i suoi clienti vale sempre la pena di esaminare nuove opzioni.

“La sfida per i data center del futuro si giocherà sulla capacità di raccogliere e analizzare i dati in tempo reale almeno sulle infrastrutture più importanti – ha ribadito Cook –. Soprattutto quando l’ecosistema del data center è più distribuito e diversificato. Un IT agile deve ampliare la portata della governance: deve essere in grado di vedere cosa succede ai sistemi, dovunque essi siano e in qualsiasi momento”.

Il cloud e la colocation come variabili ad alto impatto

Il rilascio dei data center attraverso le varie formule del cloud e della colocation può portare diversi vantaggi alle aziende. L’eliminazione di un data center locale consente di risparmiare tempo, denaro e spazio, ma non dover gestire più il costo degli investimenti iniziali non significa che non ci saranno da mettere sul piatto i costi legati a eventuali rischi incorsi per un disservizio della colocation o per un’interruzione del cloud.

Un’altra tendenza che influenzerà i data center del futuro, dunque, è la resilienza. Sul fronte del disaster recovery, infatti, già oggi l’IT deve imparare a rivedere tutti i protocolli di sicurezza dei dati se vuole creare quella agilità aziendale indispensabile al business.

“Il cloud e la colocation sono elementi cardine della resilienza – ha proseguito Andy Lawrence, Executive Director of Research presso l’Uptime Institute LLC -. Le organizzazioni si stanno orientando verso questi approcci per garantire l’efficienza dei processi e aumentare i livelli di protezione in caso di interruzione di un servizio. Spesso può essere complicato gestire i dati su più piattaforme ma, in caso di un grave incidente, è proprio l’approccio distribuito a evitare che crolli tutta l’organizzazione”.

Come ricordano gli esperti, sempre e comunque i professionisti IT non devono sopravvalutare il valore delle SLA: “I contratti, per quanto puntuali e dettagliati, non sono sinonimo di sicurezza in caso di interruzione di un servizio – ha aggiunto Lee Kirby, presidente dell’Uptime Institute -. Molto dipende infatti da come il fornitore imposta la protezione dei dati e le metodologie di supporto che non sono sempre prontamente disponibili. Il comparto dell’offerta deve imparare a essere più trasparente per consentire alle organizzazioni di capire quanto siano o meno resilienti. C’è molto lavoro da fare in questo settore perché c’è tanta opacità nella filiera dell’offerta”.

Retrocedere dall’edge computing?

Abbandonare la logica dei silos per sposare approcci più distribuiti richiede agilità e coordinamento da parte dello staff IT. I team dovrebbero tenere in considerazione anche tutte le eventuali conformità normative che potrebbero influenzare i processi di archiviazione dei dati.

L’edge computing sarà un elemento centrale nei data center del futuro perché avvicina i dati agli utenti finali e consente ai professionisti IT di implementare nuove tecnologie, come l’intelligenza artificiale e l’Internet of Things (IoT), che sfruttano funzionalità elaborative più elevate.

“Nuovi workload e nuovi trend computing – ha spiegato Rhonda Ascierto, Research Director presso 451 Research – stanno ridefinendo completamente il significato dell’edge computing così come la capacità dei data center”.

A questo proposito gli osservatori citano gli smart gateway. I gateway IoT, infatti, saranno un capitolo fondamentale di questa evoluzione in quanto capaci di prendere i dati edge per collegarli ad altre reti e data center; oltre a monitorare l’intero processo questi dispositivi saranno in grado anche di gestire i problemi di archiviazione e di calcolo.

La gestione remota è un’altra svolta importante rispetto alla road map della governance. I professionisti IT non solo avranno bisogno di creare applicazioni e servizi che controllano i dati in un secondo momento, ma dovranno anche sviluppare meccanismi di supporto e di monitoraggio ad hoc. Il focus dello sviluppo richiede maggiore concentrazione su tutta la parte di analisi dei dati in tempo reale. Un altro tema importante sarà il controllo delle risorse: nella scelta di un fornitore di servizi periferici, bisognerà prestare attenzione che l’offerta corrisponda quanto più possibile ai sistemi locali.

La mancanza di skill dei team IT

Trovare un IT così polifunzionale e preparato non è facile, avvertono gli analisti. I professionisti che hanno queste competenze spesso si trovano nelle organizzazioni più grandi o fanno parte degli staff dei Service provider; essendo risorse preziose e molto ricercate, la capacità di retention del mondo impresa è piuttosto bassa e una volta che queste persone se ne vanno, poi è difficile per un’azienda trovare dei sostituti validi.

Se non è possibile attingere alle risorse interne, le organizzazioni devono cambiare strategia: “È importante cercare di diversificare il pool di risorse da subito – ha concluso Kirby -. Le aziende devono finalizzare in fretta nuove strategie per la gestione delle risorse umane, introducendo nuovi processi di ingaggio ma anche di conservazione. Tutto è destinato a cambiare”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4