Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Data Storage: la hot list delle tecnologie 2017

pittogramma Zerouno

Tech InDepth

Data Storage: la hot list delle tecnologie 2017

03 Mar 2017

di Nicoletta Boldrini

Cloud-to-cloud backup, container, high-capacity flash, nonvolatile memory express (NVMe), software-defined storage e 32-Gig Fibre Channel. Sono i trend tecnologici del 2017 del data storage, parola di TechTarget

Per il quattordicesimo anno consecutivo Rodney Brown, Rich Castagna, Paul Crocetti, Garry Kranz, Sonia Lelii, James Alan Miller, Dave Raffo e Carol Sliwa, tutti membri del media group dedicato allo storage di TechTarget, stilano la classifica dei trend tecnologici che impatteranno sul data storage nel corso del 2017. Vediamo quali sono.

  1. Cloud-to-cloud backup
    L’adeguata protezione dei dati nel cloud rappresenta una delle criticità primarie che le aziende hanno dovuto affrontare nell’ultimo quinquennio. Il cosiddetto cloud-to-cloud backup rappresenta una risposta a tale problematica perché consente di ‘copire’ i dati da una infrastruttura storage in cloud ad un’altra. Secondo gli analisti di TechTarget questo tipo di servizi farà registrare un’importante crescita nel corso del 2017 come dimostrano i continui sforzi dei vendor per arricchire di nuove funzionalità i sistemi attraverso i quali vengono poi erogati i servizi cloud di questo tipo. L’esperto americano di storage, Brien Posey, pensa che “il cloud-to-cloud backup diverrà mainstream nel 2018, mano a mano che i servizi cloud matureranno e, non solo diverranno più economici, ma anche più ‘pratici’ consentendo di utilizzare di questi servizi in modo molto semplice”.
    Il cloud-to-cloud backup, suggeriscono gli autori del report, diverrà un servizio indispensabile per la protezione dei dati generati ed in uso dalle applicazioni Saas “perché sarà l’elemento grazie al quale le imprese potranno garantire la continuità di un servizio e prevenire la perdita dei dati”.
  2. Container
    Accelerata dalle tecnologie della cosiddetta containerizzazione che permette ai microservizi applicativi di accedere (e ‘consumare’) in modo diretto alle risorse storage necessarie, la virtualizzazione dei container ha iniziato a farsi strada nell’ambito dell’enterprise data storage già nel corso del 2016. “Pensiamo che nel corso del 2017 ad entrare nella lista delle hot soluzioni di data storage sia la containerizzazione open source – evidenziano gli analisti di TechTarget – quale tecnologia avanzata in grado di rispondere ad alcune criticità chiave per le imprese: data protection, consumo/accesso diretto del ‘persisten storage’ [cioè quello delle infrastrutture tradizionali, non volatile come quello delle memorie – ndr] e portabilità dei dati da un sistema ad un altro.
  3. High-capacity flash
    Così come avvenne per i più tradizionali dischi rigidi, oggi la competizione tra vendor sul fronte degli Ssd – Solid State Drive si gioca sui livelli di capacità e di alta densità dei sistemi cioè su chi riesce a ‘stipare’ più memorie flash all’interno di un drive standard-size. Russ Fellows, senior partner and analyst di Evaluator Group, società di analisi indipendente specializzata sul data storage, pensa che il 2017 segnerà un punto di svolta: “quando la densità delle memorie flash cresce ad una velocità simile e, contemporaneamente, i prezzi degli Ssd scendono, acquistare la tecnologia più avanzata e performante diventa l’unica scelta intelligente. Entro il 2020 probabilmente i dischi tradizionali saranno del tutto morti”, si spinge a dire Fellows.
  4. Nonvolatile memory express (NVMe)
    La bassissima latenza e le elevate performance del nonvolatile memory express (NVMe) la rendono una delle tecnologie di data storage più innovative del momento. Secondo Jeff Janukowicz, research vice president di Idc, “i modelli server architetturali sempre più orientati all’ibrido e gli all-flash storage arrays che sfruttano la tecnologia NVMe dovrebbero più che raddoppiare il loro mercato nel corso del 2017 sia grazie all’abbassamento dei prezzi di accesso alla tecnologia sia per via dello sviluppo crescente dell’ecosistema dei vendor e dei partner”.
    “Benché l’espansione di questo tipo di tecnologie sia ancora nella fase ‘infantile’ – aggiunge Eric Burgener, research director di Idc – si iniziano già ad intravedere le loro possibili applicazioni: analisi dei dati in real-time e big data analytics sono solo un esempio della tipologia di workload applicativi che potrebbero trarre vantaggi enormi in termini di performance ed affidabilità dai sistemi NVMe”.
  5. Software-defined storage
    Sul termine software-defined storage c’è tutt’oggi molta confusione, scrivono gli autori di TechTarget nel loro report di analisi; una delle primarie e più comuni mal interpretazioni riguarda l’idea che ci si riferisca a soluzioni software per la gestione degli ambienti storage virtualizzati ma questo è solo uno degli ambiti sui quali un sistema software-defined può generare vantaggi. “Per poter essere definita software-defined storage una soluzione deve consentire agli utenti di allocare e condividere le risorse in modo dinamico lungo qualsiasi workload, anche se l’infrastruttura storage non è virtualizzata”, si legge nel documento.
    Nel 2016, l’analista della società di consulenza Dragon Slayer Consulting, Marc Staimer, ha indicato le quattro categorie base del software-defined storage: hypervisor-based, hyper-converged infrastructure (Hci), storage virtualization e storage scale-out object. Ed è in queste categorie che nel corso del 2017 si esprimerà la battaglia tra i principali vendor, dicono gli autori.
  6. 32-Gig Fibre Channel
    La maggior parte delle tecnologie storage funziona con rete di connettività Ethernet, anche le più avanzate architetture iperconvergenti e cloud-based (che non necessariamente necessitano di storage San Fibre Channel). Tuttavia, secondo gli esperti la rapida ascesa dell’all-flash storage porterà con sé lo sviluppo di soluzioni più performanti anche dal punto di vista della connettività: “la connessione in fibra a 16 Gbps – Gigabits per secondo (così come la 40-gigabit Ethernet) risulterà non adatta e sufficiente a sostenere la nuova generazione di solid-state storage, tecnologie che andranno a supportare workload sempre più complessi per i quali sono richiesti livelli di affidabilità e prestazioni ancor più elevate. Motivi per cui già nel 2017 inizieremo a vedere nuovi sistemi storage equipaggiati con switch 32-Gig Fibre Channel”, prevedono in chiusura gli autori di TechTarget.
Nicoletta Boldrini

Giornalista

Articolo 1 di 3