Attualità

Data Protection: come deve evolvere con sistemi IT aperti, flessibili e multi-cloud

I dati aumentano il loro valore nell’era della digital transformation. I rischi di perdita o di compromissione di informazioni e workload cruciali crescono a molti livelli, localizzazioni e per motivi diversi. Un webinar di ZeroUno in collaborazione con Dell Technologies e VMware fa il punto della situazione e accende i riflettori su valide soluzioni

Pubblicato il 23 Mar 2020

Dell Webinar

In molti, se non praticamente tutti i settori, riuscire ad acquisire, analizzare, e conservare in modo intelligente i dati, diventa uno dei fattori differenzianti rispetto a una concorrenza che cresce a causa anche dell’avvento inarrestabile di nuovi competitor.

Nell’era della trasformazione digitale il modo in cui si generano le informazioni, si elaborano, si possono memorizzare e si devono proteggere, in considerazione del loro valore attuale e futuro, è molto cambiato rispetto al passato.

Sistemi flessibili, cloud e aperti

Come è emerso più volte nel corso di un webinar che ZeroUno ha organizzato in collaborazione con Dell Technologies e VMware lo scorso 4 marzo (la cui registrazione è disponibile qui) , in un’epoca in cui sempre più modelli di business basano il loro successo sull’utilizzo di applicazioni innovative, agili e multipiattaforma, la pressione sui sistemi informativi è enorme: “I sistemi informativi – ha introdotto il dibattito Stefano Uberti Foppa, giornalista e Digital Innovation Analyst – sono sottoposti a un processo di flessibilizzazione, di apertura, di migrazione verso il cloud in modalità idonee a supportare le strategie di business aziendale. Rispetto a questo punto vale la pena ricordare le previsioni di Gartner secondo la quale nel 2019 il mercato mondiale dei servizi public cloud sarebbe di 214,3 miliardi di dollari, per salire, in soli due anni, a 331,2 miliardi di dollari nel 2023. Questo significa che il modello cloud, in tutte le sue accezioni, è divenuto quello di riferimento”. Uberti Foppa ha quindi concluso la sua introduzione al webinar sottolineando altre due cose: “Le aziende preferiscono non ricorrere ad un unico public cloud per evitare rischi di lock-in. A fronte di ciò, però, cercano di far sì che i diversi cloud utilizzati costituiscano un unico insieme organico, il che spiega perché le soluzioni di cloud orchestration siano quelle di maggiore successo in questo momento”.

Uberti Foppa ha terminato il suo intervento ricordando quattro ambiti problematici di riflessione segnalati recentemente dalla società di analisi IDC: “Costi delle infrastrutture necessarie per realizzare un ambiente IT aperto e multi-cloud; tempo necessario (anche due o tre anni) per completarlo; cambiamenti da realizzare, fra cui la rinuncia ad ambienti legacy non più modernizzabili; skill, ossia competenze, in aspetti quali l’orchestrazione di servizi e provider, la contrattualistica, il dialogo con il business”.

E i dati? Un bel problema

In questo contesto di adozione di tecnologie e applicazioni innovative e aperte e di infrastrutture multi-cloud, i dati aumentano in quantità, qualità e rilevanza strategica. In primo luogo, questo avviene perché è dalla loro analisi avanzata – sui dati in movimento o sui dati at rest, da parte dei data scientist – che si possono ottenere insight utili per aumentare le performance di business; ma non vanno sottovalutati neppure i rischi che la corruzione o la perdita di dati comportano per la compliance delle aziende alle normative e per la continuità operativa dell’azienda stessa. Come hanno fanno notare nei loro interventi i partecipanti al dibattito (esperti di Data Protection di Dell Technologies e di VMware), il combinato della crescita esponenziale dei dati e della loro rilevanza, con l’aumento della velocità con cui si creano e modificano le applicazioni (grazie a sviluppo Agile e DevOps), e con la flessibilizzazione sistemi IT (che abbracciano da sistemi legacy core on premise alle infrastrutture multi-cloud), impone una diversa e sempre più intelligente concezione della data protection a livello di primary storage, secondary storage e dei dati archiviati per obiettivi di compliance e di business continuity.

Analytics, AI e virtualizzazione in aiuto

La data protection e la cyber security a questi livelli (peraltro sempre più dispersi in un ambiente flessibile e aperto) vanno ripensati tenendo anche in considerazione il fatto che, con la velocità con cui è possibile oggi salvare i dati, aumenta anche il rischio che nei sistemi di backup finiscano informazioni e workload già compromessi; il loro ripristino (manuale o automatico) secondo i criteri fino a questo momento maggiormente utilizzati (e basati su appositi SLA, Service Level Agreement, e policy di RPO, Recovery Point Objective, e RTO, Recovery Time Objective) può di conseguenza aggravare i rischi operativi per le aziende, invece che costituire un rimedio.

Per questo, in alleanza fra loro, vendor come Dell Technologies, VMware e altri si industriano a proporre soluzioni di backup, disaster recovery e vaulting basate su approcci, metodologie e strumenti, che vanno dagli analytics basati sull’artificial intelligence e il machine learning per identificare le anomalie a modalità diversificate di backup e disaster recovery in grado di proteggere – in modo sempre più completo, economicamente sostenibile ed anche utile per realizzare nuovi obiettivi di business – dati e processi cruciali. Il tutto reso possibile anche a supporto di un’infrastruttura sempre più aperte, software-defined, agile e coerente attraverso tutto l’ecosistema IT aziendale, sia nei suoi ambiti privati che pubblici.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4