Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Container e data mirroring per creare backup ad alta disponibilità più economici e veloci

pittogramma Zerouno

TechTarget Technology HowTo

Container e data mirroring per creare backup ad alta disponibilità più economici e veloci

06 Ott 2017

di Laura Zanotti - Fonte TechTarget

I backup tradizionali per l’IT non costituiscono più un metodo efficace di ripristino dei dati. I consigli degli esperti per creare sistemi ad alta affidabilità, passando attraverso una governance più evoluta, legata alle nuove tecnologie di virtualizzazione

I tempi di arresto di un qualsiasi sistema informativo, hardware o software, possono avere un impatto anche molto significativo sul business. È vero anche che, da quando l’ICT è entrato nelle organizzazioni, interruzioni non pianificate e costi associati al cosiddetto downtime IT sono entrate a far parte della vita aziendale e, proprio per questo, vissuti con una sorta di rassegnata accettazione.

Le contromisure attuate dalle squadre IT per ridurre al minimo l’inattività dei sistemi ancora oggi sono tutte incentrate sulla velocità di recupero dei dati dai backup.

Come migliorare backup e tempi di recovery

In passato l’evoluzione tecnologica ha comunque portato a notevoli migliorie negli strumenti di backup. Eppure per molte organizzazioni i tempi di ripristino non sono ancora sufficienti. Inoltre, va tenuto conto che un sistema ad alta disponibilità può essere fuori dalla portata finanziaria della maggior parte delle organizzazioni.

Oggi, però, esiste un metodo più efficace ed economico per garantire ai data center aziendali sistemi di backup ad alta disponibilità: sfruttare il mirroring dei dati, combinato al cloud e alla containerizzazione.

I vantaggi della containerizzazione

La containerizzazione può aiutare a risolvere alcune delle grandi sfide dei sistemi ad alta disponibilità. I container, che a tutti gli effetti sono sistemi autonomi che girano su un singolo host, aumentano l’utilizzo delle risorse consentendo ai reparti IT di distribuire anche intere applicazioni senza dover lanciare un’intera virtual machine per ogni applicazione.

Si prenda il caso di una serie di dati che sono stati tutti mirrorizzati su un sito secondario. Nel momento in cui il sito primario cade, automaticamente si è abilitati ad accedere al sito secondario. Ma che ne è delle applicazioni? Pur avendo la piena disponibilità delle informazioni, infatti, ci vuole del tempo perché il sito secondario riesca a caricarle permettendo così di gestire operativamente i dati recuperati.

L’alternativa? Esiste ma è molto costosa e consiste nel pagare una cifra esorbitante per avere una versione live delle applicazioni che girano nel sito primario.

I container, invece, capitalizzando le tecnologie di virtualizzazione, possono ospitare intere applicazioni in un unico sistema di piccole dimensioni. Mentre le macchine virtuali importano qualsiasi elemento nello stack, dal sistema operativo a salire, i container ospitano solo quello che serve, condividendo il sistema operativo sottostante con altri container.

Riprendendo l’esempio citato, per evitare il downtime, i team IT potrebbero archiviare una serie di container a basso costo in un sito secondario. Nel caso il sito principale abbia dei problemi, è possibile velocizzare il ripristino dei dati attivando in pochi minuti il container che contiene le applicazioni necessarie, abilitando così un più rapido accesso ai dati di backup.

Gli esperti sottolineano che una metodologia di backup debba tenere conto delle diverse necessità aziendali. Se il backup non ha particolari esigenze di velocità e l’archiviazione non riguarda dati mission critical, mettere il sito secondario in un container oppure in un cloud pubblico ha costi talmente bassi da rendere la scelta equivalente.

Nel caso in cui l’azienda abbia effettivamente bisogno di aumentare la velocità del recovery, le prestazioni dei container diventano decisamente più interessanti e, rispetto ai costi legati ai fermi aziendali, estremamente più convenienti.

Non a caso, gli analisti di 451 Research hanno previsto che il mercato della containerizzazione movimenterà oltre 2,7 miliardi di dollari entro il 2020, rispetto ai 762 milioni di dollari registrati nel 2016.

Quando usare la containerizzazione per i backup

Per le aziende che hanno bisogno di una continuità operativa serrata con soglie di tolleranza dei downtime davvero minime, è possibile effettuare una rotazione dei container costante, piuttosto che gestire forme di archiviazione che ne prevedano l’utilizzo solo quando è davvero necessario. Certo, il costo sarà più elevato ma in questo modo, se il sistema primario cade, il sistema di backup è in grado di attivarsi praticamente in tempo reale. È possibile anche ridurre ulteriormente i costi, acquistando risorse più flessibili: in questo modo un container che non viene utilizzato non consuma CPU o risorse di rete. In caso di stallo o caduta dei sistemi, ai responsabili IT basterà attivare le risorse che servono, quando servono.

Mirroring dei dati: le cose da sapere

Gli analisti ricordano comunque come il mirroring dei dati non sia una soluzione facile come sembra. La distanza tra il sito primario e il sito secondario, ad esempio, è una questione importante: più lontano si trova il sito deduplicato, più è necessario considerare la latenza esistente ma anche la difficoltà di mantenere la fedeltà dei dati. Il tutto valutando anche come, in caso di compromissione dei dati, il rischio sia di andare a deduplicare anche la parte corrotta.

Il consiglio? Dotarsi sempre e comunque di strumenti capaci di garantire massimo controllo e massima visibilità su tutti i processi della governance dei sistemi, in modo da assicurare ai processi di backup la necessaria sicurezza, oltre che efficienza.

Laura Zanotti - Fonte TechTarget
Giornalista

Ha iniziato a lavorare come technical writer e giornalista negli anni '80, collaborando con tutte le nascenti riviste di informatica e Telco. In oltre 30 anni di attività ha intervistato centinaia di Cio, Ceo e manager, raccontando le innovazioni, i problemi e le strategie vincenti delle imprese nazionali e multinazionali alle prese con la progressiva convergenza tra mondo analogico e digitale. E ancora oggi continua a farlo...

Argomenti trattati

Approfondimenti

Technology HowTo

Articolo 1 di 5