Data platform: cos’è e perché garantisce una modern data experience

Data platform: cos’è e perché garantisce una modern data experience

pittogramma Zerouno

Tech InDepth

Data platform: cos’è e perché garantisce una modern data experience

Nuove applicazioni infinitamente scalabili, nuovi modelli di business, nuovi approcci flessibili e proattivi nella gestione dei dati, il tutto con un occhio al budget che deve prevedere solo le spese necessarie. La pressione sull’IT è crescente . Muovendosi in un contesto in rapida evoluzione e ricco di incertezze, i team IT possono trovare nelle data platform la velocità, la sicurezza e l’agilità necessarie per rispondere alle aspettative e per garantire alla propria organizzazione una reale Modern Data Experience. La proposta di Pure Storage

22 Apr 2021

di Marta Abba'

A fronte del continuo aumento di nuove applicazioni sviluppate per essere scalabili e dell’aggiunta di nuove capacità all’ambiente IT, la prima risposta alla proliferazione di set di dati in silo è stata la creazione di data warehouse e data lake, ma non è stata sufficiente. Serve una data platform.

Per garantire, infatti, l’agilità necessaria per cogliere tutte le crescenti opportunità derivanti dal continuo sviluppo di nuove tecnologie serve un’unica piattaforma digitale resiliente, performante e ubiqua. Questo strumento è la fondamentale premessa per la messa a punto di una modern data experience, ossia un’esperienza d’uso dei dati rapida, immediata, semplice e fruibile da tutti.

Che cosa è una data platform

Una data platform è una piattaforma tecnologica integrata che garantisce la coesistenza e l’interoperabilità di risorse di dati on-premises, hosted, nel private e public cloud. In tal modo i dati, ovunque siano situati, sono a disposizione di applicazioni e utenti che potranno trarre vantaggio da questo mix di risorse, identificando di volta in volta quelle più appropriate per soddisfare specifiche esigenze.

Con una piattaforma così strutturata, è possibile concedere l’accesso a dati provenienti da più fonti quando necessario, beneficiando di una visione coesa e senza ritardi legati all’elaborazione e alle richieste di dati, con il vantaggio di poter tenere traccia dei diversi accessi effettuati, per poter tenere elevati i livelli di sicurezza.

È possibile anche prevedere dashboard, report e avvisi proattivi favorendo la consultazione e un utilizzo agevolato dei dati, per un processo decisionale più efficace e collaborativo, data l’opportunità di condivisione anche di dati interdipartimentali. L’agilità garantita dall’utilizzo di una data platform si riscontra anche nella semplificazione della gestione dei fornitori ma soprattutto nell’ottimizzazione della data governance, tanto più essenziale quanto più cresce il numero dei dati e delle fonti.

Ciclo di vita dei dati

Per una governance dei dati efficace è necessario un processo di gestione del ciclo di vita dei dati chiaramente definito e documentato, partendo dalla generazione iniziale (o cattura) fino all’eventuale archiviazione e/o cancellazione. Dopo una prima fase in cui i dati entrano in un’organizzazione, si passa alla manutenzione, in cui possono essere sottoposti a processi come l’integrazione, lo scrubbing e l’ETL, per arrivare al momento del reale utilizzo. A seguire può essere prevista una fase di pubblicazione, altrimenti si passa direttamente all’archiviazione rimuovendo i dati da tutti gli ambienti attivi per poi cancellarne ogni copia (purging).

Ogni fase prevede l’archiviazione del dato nel sistema di storage più idoneo.

Tipologie di dati

Con l’esplosione dei big data e lo sviluppo dell’IoT, il ciclo di vita dei dati è diventato di cruciale importanza all’interno di una data platform in cui se ne possono trovare crescenti volumi generati da svariate fonti e quindi di molteplici tipologie.

Una loro prima classificazione può basarsi sulla struttura distinguendo i dati atomici o primitivi, come i numeri interi o i booleani, da quelli derivati, ottenuti dai precedenti tramite opportuni operatori. In questa seconda categoria si trovano anche i dati strutturati, conservati in database e organizzati secondo schemi e tabelle rigide, al contrario dei dati non strutturati, privi di schemi, come per esempio file contenenti testi a carattere narrativo. Queste due tipologie convivono nei big data, enormi blocchi di dati di cruciale importanza per i decision maker ma spesso difficili da trattare al contrario degli small data, set di dati più piccoli e altrettanto importanti.

Struttura di governo dei dati

Investita proprio dall’ondata dei big data, ogni azienda ha avvertito la necessità di sviluppare una struttura organizzativa per supportarne la gestione, una governance dei dati che racchiuda processi, ruoli, policy, standard e metriche mirati a garantire un uso efficace ed efficiente delle informazioni finalizzato al raggiungimento degli obiettivi prefissati.

Una strategia di data governance ben concepita è fondamentale perché fornisce una “versione unica della realtà” e una terminologia comune di riferimento, garantisce accuratezza, completezza e coerenza dei dati, li “mappa”, assicura conformità rispetto ai regolamenti governativi, come ad esempio il GDPR, e stabilisce codici di condotta e best practice per la gestione dei dati, migliorandola notevolmente.

Data platform e architetture applicative cloud native

La presenza di una struttura di data governance funzionale è più che mai necessaria in un contesto come quello di una data platform, veloce, altamente scalabile e quindi ottimale per costruire, attraverso architetture applicative cloud native, applicazioni web-scale in grado di abilitare una nuova serie di esperienze dei clienti basate sui dati.

Abbracciare l’approccio cloud native e avere gli strumenti adatti per farlo è fondamentale per rispondere al bisogno crescente di sviluppare applicazioni in modo rapido, efficiente e scalabile indipendentemente da dove esse si trovino: nei cloud pubblici, privati o ibridi. L’obiettivo principale è quello di migliorare la velocità, procedendo rapidamente con piccoli passi reversibili e a basso rischio, la scalabilità, supportando più utenti ma garantendo reattività e contenendo i costi, e il margine, pagando solo ciò che viene effettivamente consumato.

Cos’è una modern data experience e quali sono i pilastri che la caratterizzano

Se si affianca ai concetti di velocità, scalabilità e margine, la necessità di assicurare alle aziende semplicità e fruibilità per quanto riguarda il loro patrimonio di dati, prende forma il concetto di modern data experience che contraddistingue la visione di Pure Storage e ne guida lo sviluppo della sua offerta. Semplice e facilmente utilizzabile, senza soluzione di continuità e sostenibile, questa “nuova” esperienza risponde alla necessità di sicurezza e flessibilità – per adattarsi più rapidamente e facilmente ai cambiamenti – e al desiderio di liberare risorse umane, grazie all’automazione, assecondando la volontà di molte aziende di innescare un cambiamento, accelerato dalla situazione che si è venuta a determinare a causa della pandemia, per massimizzare il valore che ogni utente può estrarre dalla data platform. Quattro sono i pilastri su cui si basa la modern data experience di Pure.

Velocità

La bassa latenza assicura un tempo di risposta costante garantendo la massima produttività degli utenti, l’elevata larghezza di banda permette di unificare i dati rapidamente agevolando i processi decisionali, il tutto nella massima efficienza, anche dei costi. Queste sono le caratteristiche essenziali di uno storage per garantire alle aziende un accesso veloce ai propri dati. Oggi, infatti, la velocità conta quando si tratta di fornire dati per applicazioni ad alte prestazioni, di consentire a più applicazioni di accedere ai dati su una data platform coerente e di alimentare ogni strumento di analisi per risultati in tempo reale sull’ottimizzazione del business.

Cloud a ambiente ibrido

Offrire una modern data experience significa fornire la mobilità trasparente dei dati tra ambienti on-premises e cloud mantenendo un’esperienza uniforme indipendentemente da dove essi risiedano – on premises, nel cloud, in un cloud ibrido o in un ambiente multicloud. L’obiettivo è di permettere l’estensione senza soluzione di continuità di tutti i servizi dati nel cloud con la possibilità, oggi strategicamente importante, di utilizzare sia quello privato che quello pubblico in modo coerente beneficiando di tutti i vantaggi di un modello ibrido.

Semplicità

Garantendo una gestione semplice, sicura e cloud-based che facilita l’abilitazione di ogni utente autorizzato, e fornendo un supporto predittivo che consente di inviare alert per segnalare evenutali anomalie prima che si trasformino in reali problematiche da gestire, la data experience diventa semplice, autoguidata e autogestita. Questo anche grazie all’ottimizzazione AI based in grado di predire la crescita futura per tenere il passo con un volume di transazioni sempre crescente e fornire report e analisi in tempo reale. Uno storage, come anche una data platform, deve essere scalabile ed efficiente, per risultare facilmente utilizzabile da un gran numero di utenti e di applicazioni.

Modello Evergreen e fruizione as a service

Il modello Evergreen è da intendersi come una sorta di sottoscrizione all’innovazione per garantirsi aggiornamenti continui e nuove funzionalità senza tempi di inattività e senza pagare più del necessario. Scegliendo questo modello si modernizza lo storage evitando tempi morti ed estendendone il ciclo di vita a più di 10 anni. Con Pure as a Service, inoltre, si possono aggiungere capacità di storage supplementari su richiesta con poco rischio e con un modello a consumo prevedibile che consente agli utenti di pagare solo per lo spazio effettivamente utilizzato.

Il ruolo dello storage

L’adozione di una data platform in grado di garantire una modern data experience è oggi l’unica via per rispondere all’esigenza di portare rapidamente nuovi servizi sul mercato e abilitare nuovi modelli di business. Questo però comporta un forte aumento della pressione sull’IT chiamata a sviluppare e implementare nuove applicazioni e processi in tempi record. Essendo entrambi basati sui dati, questa è un’impresa impossibile se anche i sistemi di archiviazione non si dimostrano agili. Insieme al calcolo e alla rete, lo stoccaggio dei dati è uno dei tre pilastri dell’IT e oggi che servono dati sicuri e una fruizione degli stessi in tempo reale per alimentare ambienti di produzione mission-critical, DevOps e analisi moderne in un ambiente multi-cloud, se ne ha più che mai la conferma.

Da prodotto a servizio

La pandemia non ha fatto che accelerare il passaggio ai modelli as a service anche per lo storage perché forniscono la flessibilità, l’agilità e la trasparenza necessaria alle aziende per allineare i budget e abilitare al proprio interno un nuovo modus operandi. Questo tipo di fruizione proposta da Pure Storage con Pure as-a-Service garantisce un consumo flessibile e zero tempi morti durante aggiornamenti ed espansioni, evita l’overprovisioning e l’hardware rimane di proprietà e in gestione al fornitore, abbattendo così i costi fissi e diminuendo carichi di lavoro dell’IT.

Automazione e contributo della AI

Anche l’automazione permette di liberare risorse umane demandando operazioni manuali come il provisioning storage a script e tool con l’obiettivo di evitare attività onerose e ripetitive e abbattere il time to market. L’emergere dell’AI per le operazioni IT sta ulteriormente trasformando la gestione delle infrastrutture e il supporto tecnico. Grazie all’applicazione dell’analisi dei big data e dell’apprendimento automatico ai dati di telemetria si può aumentare la disponibilità e l’efficienza dello storage riducendo le spese generali, prevedendo i carichi di lavoro e il loro impatto e rilevando automaticamente problemi o potenziali guasti.

Data protection

Sempre grazie all’uso degli analytics si può adottare un approccio alla data protection maggiormente proattivo rispetto a quello tradizionale, basato sulla filosofia della resilienza tramite ridondanza. Se finora i sistemi venivano protetti solo in caso di necessità, la modern data protection di Pure Storage prevede la prevenzione attiva tramite telemetria costante. Una tecnologia che consente di assicurare il trasferimento di KPI fondamentali in grado di “tastare il polso” all’infrastruttura in tempo reale e i predictive analytics per rilevare i problemi di data storage prima che si verifichino.

Marta Abba'

Giornalista

Laureata in Fisica e giornalista, per scrivere di tecnologia, ambiente e innovazione, applica il metodo scientifico. Dopo una gavetta realizzata spaziando tra cronaca politica e nera, si è appassionata alle startup realizzando uno speciale mensile per una agenzia di stampa. Da questa esperienza è passata a occuparsi di tematiche legate a innovazione, sostenibilità, nuove tecnologie e fintech con la stessa appassionata e genuina curiosità con cui, nei laboratori universitari, ha affrontato gli esperimenti scientifici.

Argomenti trattati

Approfondimenti

P
predictive analytics

Articolo 1 di 4