Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Perché ci si può fidare degli SSD e i miti da sfatare

pittogramma Zerouno

TechTarget Tech InDepth

Perché ci si può fidare degli SSD e i miti da sfatare

15 Mar 2018

di Piero Todorovich - fonte TechTarget

La tecnologia dei drive solid state (SSD) è oggi matura e sta eclissando i tradizionali dischi magnetici per prestazioni, gestione e costo nelle applicazioni d’impresa. Di seguito sfatiamo alcuni miti che ancora oggi ne frenano l’adozione

I dischi SSD – Solid State Drive – non sono una novità nei data center. Malgrado le prove a cui vengono sottoposti negli utilizzi più gravosi non sono del tutto sopiti i dubbi e le riserve in merito a prestazioni, affidabilità e costi. Si tratta in gran parte di pregiudizi superati dall’evoluzione tecnologica, ma che ancora frenano amministratori IT e responsabili storage nel procedere al rimpiazzo su larga scala delle unità magnetiche. Pregiudizi che vogliamo sfatare e che non permettono a molti di scoprire come la tecnologia SSD sia in grado di migliorare lo storage management, la potenza elaborativa dei server e quindi l’efficienza complessiva del data center.

Gli SSD non durano a lungo

C’è qualcosa di vero dietro questa affermazione: gli SSD invecchiano, ma i prodotti di oggi sono costruiti per durare molti anni grazie a una migliore elettronica, migliori sistemi di rilevazione dei guasti e di correzione. In aggiunta esistono unità SSD specificamente progettate per reggere carichi di lavoro molto pesanti, misurati con interi cicli di riscrittura giornalieri. Queste unità hanno internamente più spazio libero non allocato che aumenta il costo per gigabyte, ma anche la vita utile attesa. Anche i dischi magnetici (HDD) non sono immuni da invecchiamento e hanno un numero finito di scritture per giorno, specifiche che non risultano troppo diverse da quelle di alcuni SSD. Fatto salvo per quelle di velocità che nel caso degli SSD sono superiori a quelle di qualsiasi HDD.

La gestione degli SSD è complicata

Uno dei problemi che affliggeva le prime unità SSD riguardava l’amplificazione della scrittura, diretta conseguenza di come le memorie flash (di cui gli SSD sono fatti) vengono cancellate. A differenza dei blocchi sui dischi magnetici, le celle di memoria devono essere prima resettate per poter ritornare disponibili alla scrittura. La complicazione riguarda il fatto che l’operazione di reset può essere fatta soltanto per grandi blocchi di celle, tipicamente della capacità di 2MB. Questo rende inevitabile dover di tanto in tanto copiare da un’altra parte i dati da conservare, per resettare e recuperare lo spazio occupato dai file già cancellati. Questo processo, se viene effettuato durante le operazioni di scrittura, può rallentare notevolmente l’SSD anche in presenza di un buffer di memoria cache tra unità e controller. La strategia migliore è quella di liberare i blocchi in anticipo rispetto alle operazioni di scrittura con le funzioni di TRIM realizzate dal driver; con il TRIM la scrittura diventa veloce come nella condizione di drive vuoto.

A differenza dei comuni HDD gli SSD non devono essere deframmentati: operazione che sprecherebbe inutilmente tempo e prestazioni di I/O, riducendo la vita del drive. La ragione è semplice: il processo di scrittura dispone i blocchi a caso nello spazio interno dello SSD, ma a differenza degli HDD non determina perdite di prestazioni o latenza nel raggiungere il blocco successivo.

Le caratteristiche peculiari degli SSD si prestano all’impiego della compressione dei dati che consente di incrementare ulteriormente le prestazioni. Dal momento che per questa via è possibile ridurre in media di 5 volte la quantità di dati da leggere e scrivere, le prestazioni e la capacità effettiva del drive aumentano di pari passo. Se compressione e decompressione dei dati sono effettuate a livello dei server, le prestazioni della rete di storage avranno anch’esse un miglioramento di 5 volte. Tutto questo permette un grande risparmio di risorse nel data center, le grandi capacità di I/O degli SSD permettono di sfruttare utilmente i processi di compressione in background.

Gli SSD non sono adatti agli array

Un aspetto può irritare amministratori IT e storage che hanno array di dischi. Gli attuali SSD sono talmente veloci che un comune array controller può gestirne solo un numero ridotto, pena sacrificarne le prestazioni. Questo dipende dal fatto che gli array sono progettati per le prestazioni dei comuni HDD (1000 volte meno veloci nell’I/O casuale e oltre 100 volte nelle operazioni sequenziali degli SDD) quindi per consolidare i lenti flussi dati dei dischi tradizionali su una coppia di connessioni veloci Fibre Channel. Questo è il collo di bottiglia che si manifesta usando SSD su vecchi array. Il suggerimento è di usare appliance progettate per gli SSD e di valutare l’adozione di un backbone SAN multicanale in standard 100GbE. Un problema analogo affligge i server dotati di vecchie interfacce SCSI e SATA che non reggono le velocità dei drive. Viene in aiuto il nuovo protocollo NVMe, molto più veloce e capace di ridurre notevolmente il carico di storage sui sistemi, riducendo le interruzioni e semplificando la gestione delle code.

Gli SSD sono costosi

Un altro dei problemi denunciati riguarda il costo degli SSD. Il prezzo di questi drive è calato rapidamente negli ultimi anni e si è poi stabilizzato a causa dei ritardi nel passaggio alla nuova tecnologia di memorie flash 3D-NAND. Il problema è ora risolto e c’è da aspettarsi un ulteriore calo dei prezzi. In ogni caso, anche se resta una differenza di prezzo con i tradizionali HDD, va considerato che gli SDD sono in grado di rendere i server capaci di fare più lavoro e più velocemente. La compressione dei dati permette inoltre di abbassare il costo per terabyte al di sotto degli HDD.

I confronti di prezzo dovrebbero tenere conto anche delle interfacce. Le unità SATA a stato solido costano oggi meno della metà dei dischi SAS di dimensioni simili ma che sorpassano con alto margine nelle prestazioni. Dischi in tecnologia NVMe hanno invece costi salati, ma tutti gli indicatori dicono che in futuro non si discosteranno molto dagli SSD SATA di capacità equivalente.

Gli SSD non sono grandi abbastanza

Uno dei punti a sfavore degli SSD riguarda la loro capacità di spazio. Di fatto la tecnologia consente già oggi di superare la capacità dei dischi magnetici (oggi fermi a 16TB per unità) con le unità SSD da 2,5” e 32TB, mentre si prevede che possano presto essere superati i 50TB. Solo la tecnologia SSD promette di ridurre gli slot occupati dalle unità di storage, consumare meno energia elettrica e offrire maggiori prestazioni nel data center.

Piero Todorovich - fonte TechTarget

Giornalista professionista dal 91, ha scoperto il Computer negli Anni 80 da studente e se n'è subito innamorato, scegliendo di fare della divulgazione delle tecnologie e dell'informatica la propria professione. Alla passione per la storia delle tecnologie affianca quella per i viaggi e la musica

Argomenti trattati

Approfondimenti

F
Flash Storage
S
Server
S
storage
Tech InDepth

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 4