Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Dagli SSD le performance e la resistenza necessari per lo Storage 2.0

pittogramma Zerouno

Dagli SSD le performance e la resistenza necessari per lo Storage 2.0

19 Gen 2017

di Informazione Pubbliredazionale

Le architetture di archiviazione devono essere ripensate per poter affrontare la crescita dei Big Data, l’accesso veloce alle informazioni per la loro analisi, la loro protezione, e lo spostamento fra tecnologie diverse a seconda della fase differente del ciclo di vita dei dati

Nell’era della digitalizzazione sempre più pervasiva le infrastrutture storage si trovano ad affrontare un’evoluzione che ha molti aspetti di discontinuità. Non è quindi meramente retorico utilizzare un’espressione quale Storage 2.0. Secondo il Cisco Visual Networking Index (Vni) June 2016, sul pianeta vi sono oltre 26 miliardi di device connessi a Internet. Il traffico Ip a livello globale cresce a un ritmo medio del 23% all’anno (Cagr) e, secondo l’osservatorio del vendor, raggiungerà i 194 Exabytes (EB) al mese nel 2020.

Una quantità sempre maggiore di questi dati è di natura eterogenea e costituisce grandi dataset (Big Data) da memorizzare integralmente per estrarre (con soluzioni analytics) più insight originali possibili. Samsung definisce la nuova “corsa all’oro” quella che vede le aziende impegnate ad accrescere le proprie capacità di raccogliere, analizzare e monetizzare queste moli di dati.

L’attenzione di Samsung verso questo nuovo “gold rush” non meraviglia, dato il ruolo di player impegnato da molti anni anche nel mercato dello storage. Il nuovo scenario Storage 2.0 richiede lo sviluppo di architetture e processi di data management diversi da quelli di un passato in cui i dati utili per il business o per i servizi pubblici provenivano da un numero più limitato di device, erano soprattutto di natura strutturata e aumentavano a ritmi più prevedibili.

Nello Storage 1.0 i dischi magnetici rotanti (Hard disk drive, Hdd) erano sufficienti a supportare le esigenze di applicazioni come l’Online Transaction Processing (Oltp), la business intelligence, la virtualizzazione server e desktop e perfino l’High Performance Computing (Hpc). Nell’era del cloud, della virtualizzazione, dell’e-commerce, dei sistemi di customer engagement basati sull’utilizzo di analytics in grado di “manipolare” in tempo reale flussi continui di Big Data, almeno lo storage più coinvolto nelle elaborazioni mission-critical deve seguire il trend di crescita delle performance, del parallelismo e dell’affidabilità (reliability) che si registrano nei computer a livello di Cpu e di Dram (Dynamic Random Access Memory). I Solid State Drive (Ssd) enterprise Samsung V-Nand SSD 960 Pro offrono quei livelli di velocità (sequential performance di 3.200 Mb/s in lettura e 2.100 Mb/s in scrittura), capacità (512GB, 1TB e 2TB per drive), densità (form factor M.2), integrazione (grazie al protocollo NVMe) e resistenza (dovuta all’uso di nuovi materiali e di un nuovo tipo di struttura che riduce, fra le altre cose, la produzione di calore) richiesti oggi dal mercato. A questi vantaggi si aggiungono una crescente accessibilità di prezzo (ormai gli investimenti iniziali, Capex, necessari per l’acquisto di Ssd non sono molto più alti di quelli per comprare Hdd), un minore Tco rispetto agli Hdd comprovato da molte ricerche di analisti, ed esigenze più limitate di energia elettrica e spazio fisico.

Informazione Pubbliredazionale

Articolo 1 di 5