Data center

Data center 2016: le 4 linee guida tra protezione dei dati, convergenza, DevOps e big data management

Dalla gestione delle risorse focalizzate sulle applicazioni all’architettura scalabile, dalla protezione dei dati al big data management gli esperti riassumono le tendenze emergenti che avranno un impatto sui data center nei prossimi mesi

Pubblicato il 07 Mar 2016

matrix-434034-640-160307115246

Alcune tra le tendenze che stanno emergendo ultimamente in ambito IT avranno sicuramente un impatto sui data center nei prossimi mesi. Ognuna di queste tendenze merita qualche approfondimento e, soprattutto, un approccio mentale aperto. Ecco perché, secondo gli esperti, non bisogna puntare su quanto deve essere efficiente la mia infrastruttura IT, bensì su come può essere più efficiente.

1) Il risveglio della data protection

Secondo gli esperti, nei prossimi mesi torneranno alla ribalta i software per la protezione dei dati in grado di ridurre o eliminare la maggior parte dei rischi di business continuity. In una realtà in cui i dati crescono a dismisura e le attività dei data center non si arrestano un secondo, le tradizionali misure di sicurezza non bastano più. La mole di dati da gestire sta diventanto troppo grande per le classiche operazioni di backup.

2) Convergenza e scalabilità orizzontale

L’architettura a scalabilità verticale pare essere ormai obsoleta. Oggi l’approccio a scalabilità orizzontale è applicato in molti campi, dai server (cloud, virtualizzazione, Big Data), ai processi (microservice container-based), passando per lo storage e le memory grid. Il problema è che la maggior parte delle applicazioni attualmente non è in grado di sfruttare le risorse di architettura a scalabilità orizzontale. La buona notizia, dicono gli esperti, è che ci sono sempre più supporti in grado di adattare le applicazioni legacy alle nuove architetture IT.

3) Una nuova meta-intelligenza per le applicazioni

In un contesto che considera l’approccio DevOps, un’infrastruttura IT autonoma o un’intelligenza invisibile interna al provider cloud, le applicazioni devono stabilire le risorse e i parametri di QoS (qualità di servizio) di cui hanno bisogno e, nel prossimo futuro, lo faranno in modo più dinamico. Le infrastrutture stanno già diventando più intelligenti in relazione alla capacità di rispondere ai cambiamenti dinamici dei parametri QoS. VMware, per esempio, fornisce alcuni efficienti esempi di infrastruttura flessibile e dinamica con risorse software-defined, come come NSX networking e Virtual SAN storage che applicano criteri QoS su una base per Virtual Machine. Anche la containerizzazione promette di definire le risorse che ogni componente applicativa richiede in maniera dinamica. Ciò che ancora manca oggi è una meta-intelligenza capace di aiutare le applicazioni a garantire i propri livelli di servizio. Per ottenere una guida operativa attiva e reattiva, gli esperti consigliano di optare per sistemi di gestione basati sui Big Data che combinino una visione delle infrastrutture e della prestazioni di application management.

4) Il valore sempre più big dei data

Solitamente il valore dei dati perde importanza mano a mano che questi ultimi invecchiano ma, con archivi attivi e Big Data, la maggior parte delle informazioni mantiene valore oltre il proprio uso operativo attivo. I data lake (ovvero i repository gestiti a livello centrale che utilizzano tecnologie a basso costo, come Hadoop), le analitiche incorporate e lo storage con scalabilità orizzontale ed economicamente vantaggioso stanno cambiando la curva di valore dei dati. Gli esperti dicono che questo è l’anno in cui si dovrà cercare (e trovare!) il valore nascosto nei dati e consigliano di prendere in considerazione la combinazione di nuove fonti di informazioni, siano esse interne (ad esempio con la Internet of Things) che esterne (come partner, supply chain o terze parti).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati