Attualità

Pure Storage: “Dati non strutturati in aumento, servono hardware dedicati”

Alta scalabilità, performance non troppo elevate, costo accessibile e spazio occupato ragionevole. Gestione facile e, soprattutto basso impatto ambientale. La memoria che risponde a questo identikit, secondo Pure Storage, è quello che una parte di mercato necessita per prepararsi al futuro. Un futuro in cui gli ESG detteranno i nuovi trend e i dati non strutturati cresceranno vertiginosamente. 

Pubblicato il 10 Mar 2023

Data Center Facilities

C’è una parte del Paese, e del mondo, che deve ancora aggiornarsi e “svecchiare” storage, memorie e data center. Non c’è una particolare legge che glielo impone in modo letterale ed esplicito. Ci sono una serie di condizioni al contorno che rendono necessario un rinnovo, ESG compresi.

Facendo leva su questo contesto, Pure Storage ha scelto di volgere lo sguardo a questa inesplorata fetta di mercato. Il risultato è un nuovo membro della famiglia FlashBlade, una nuova memoria, una nuova combinazione di tecnologie “pensata apposta per chi necessita di una scalabilità multi petabyte, senza pretendere alte performance”, spiega Umberto Galtarossa, Partner Technical Manager in Pure Storage.

Un nuovo target che chiede alta scalabilità

“Abbiamo scelto di focalizzarci sulla parte di potenziale swap di sistemi basati ancora su dischi rotativi, con un costo al terabyte attrattivo per fascia di mercato cold archive. Ci voleva una soluzione dedicata e nuova. I dati non strutturati, nei prossimi 7-8 anni, cresceranno vertiginosamente in termini di quantità e importanza. Molte realtà oggi non sono pronte a gestire questa impennata, non dal punto di vista tecnologico. Per continuare a essere data-driven, invece, è necessario attrezzarsi in tempo” spiega Galtarossa. FlashBlade//E, così si chiama la nuova soluzione, è quindi il modo con cui Pure Storage porge la mano a chi “non ha ancora fatto il salto”. Quello verso un approccio lungimirante, consapevole di un futuro sempre più “demanding” in termini di conservazione e gestione dei dati.

“In prospettiva, l’aumento di capacità che verrà richiesto sul mercato, non potrà essere più ottenuto con tecnologie rotative. La densità è destinata a salire: entro il 2026 si raggiungeranno i 300 terabyte, una soglia che solo la tecnologia flash può reggere, grazie al suo andamento esponenziale. È anche l’unica in grado di assicurare una gestione efficiente e anche economicamente sostenibile: è più oneroso gestire un certo numero di armadi con tanti segmenti, rispetto una singola scatola” spiega Galtarossa.

Imboccata questa nuova strada, l’idea di Pure Storage è poi quella di proseguire lungo un percorso disegnato per “inseguire” la crescita di dati non strutturati prevista. Per il futuro, aggiunge, “l’obiettivo è quello di mantenere tecnologie che riescono a essere dense e performanti, per essere pronti a ogni scenario futuro, sempre mantenendo prodotti semplici e fruibili, e che richiedono uno spazio limitato”.

Dal punto di vista tecnologico, la nuova soluzione non presenta (e non vuole presentare) novità disruptive. “Garantiamo sicurezza come con FlashBlade//S. Cambia l’hardware, ma software e architettura di dati restano simili” spiega Galtarossa, precisando che non esistono requisiti di implementazione, neanche dal punto di vista della connettività. Si è voluta creare una memoria a prova di data center, anche dei più obsoleti, per renderli più facili da gestire, anche in caso di refresh tecnologici, processi non sempre “a impatto zero” sulla business continuity.

Come una memoria rende i data center sostenibile

L’idea di Pure Storage è quella di rendere anche più green i data center. Una mission decisamente “di attualità” ma non per questo banale o ovvia. I consumi inferiori, rispetto alle memorie rotative, rappresentano senza dubbio un buon punto di partenza per FlashBlade//E. È però solo l’inizio dell’approccio ambientalista che pervade la nuova soluzione. Galtarossa infatti ne completa la descrizione: “dal punto di vista degli impianti di raffreddamento dei data center, questa memoria risulta decisamente poco impattante. Concorre poco all’innalzamento della temperatura rispetto a quelle rotative. C’è un vantaggio anche in termini di spazio: non richiede 4 o 5 armadi e rende più competitivo il form factor del data center”.

Finora si tratta di vantaggi immediati, necessari per molti data center a cui il mercato richiede di abbattere il proprio impatto ambientale. C’è, però, anche un beneficio a lungo termine e indiretto a cui Pure Storage ha pensato, ed è legato alla stabilità della temperatura assicurata dalla sua nuova memoria. Questo aspetto interessa nuovamente i sistemi di raffreddamento che non saranno più chiamati a reagire dei picchi. Oltre ad un calo dei consumi, ciò comporterebbe anche una maggiore facilità nella taratura, con ricadute positive su tutti gli altri apparati dell’infrastruttura.

Ospedali, media e PA i più “pronti all’uso”

Complice la semplicità di gestione, preziosa la leva green, i destinatari ideali della novità di Pure Storage sono numerosi. Alcuni, a quanto afferma Galtarossa, sono anche “in attesa di soluzioni per prepararsi a un futuro di dati da gestire in modo sostenibile, in ogni senso”.

Un esempio sono gli ospedali: di fronte a una sanità evoluta di decenni nel giro di un paio di anni, molte strutture sono passate da una decina di terabyte a centinaia di terabyte di dati da gestire. Si tratta di dati anche critici e, oggi, da conservare per molti anni, per assicurare a qualsiasi paziente una cartella clinica completa e utile”.

Affianco alla Sanità c’è il settore Media tra quelli mirati da Pure Storage. Per tutt’altro motivo ma, anche in questo ambito, esiste la necessità di conservare molti dati non strutturati. Basti pensare alle foto e ai filmati “di archivio” che ogni tanto vengono riproposti al pubblico. Un’altra fetta di mercato potenzialmente interessata potrebbe essere quella composta dai service provider.

“Oggi hanno molti spazi freddi da gestire che non richiedono una performance transazionale, ma necessitano una resilienza e una scalabilità elevate” spiega Galtarossa, volgendo lo sguardo anche alla PA, alle PA centrali, soprattutto. “Anche in questo caso, ci sono contesti di alta scalabilità. Grazie alla spinta del PNRR, nell’ambito del PSN, vedo buoni spazi di intervento. Si tratterebbe di andare a consolidare le componenti di data center di alcune amministrazioni pubbliche locali. Alcuni sono anche delocalizzati e obsoleti: non hanno motivo di esistere. È proprio nell’ottica di gestione centralizzata dei servizi che una memoria a elevata scalabilità potrebbe diventare interessante”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4