Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Cloudification, big data e governance delle infrastrutture nell’era digitale

pittogramma Zerouno

Networking

Cloudification, big data e governance delle infrastrutture nell’era digitale

12 Gen 2017

di Laura Zanotti da Digital4

L’informatica è l’anima digitale del business. Reti e dati rimangono gli asset portanti dello sviluppo. Il problema è riuscire a far capire alle aziende che l’infrastruttura di networking è un gigantesco cluster di sensori e che le informazioni non sono più una pila di dati, ma una serie di flussi. Prima di scegliere le tecnologie, bisogna avere le vision

Cosa significa cloudification? In sintesi, significa spostare applicazioni e servizi IT di qualsiasi tipo da computer locali alla nuvola di Internet. È così che da un concetto di possesso (di una macchina, di un software, di un sistema o di un intero data center) le aziende si orientano verso un modello di pura fruizione del servizio.

Il cloud computing è una risorsa preziosa che, tra le alte cose, presuppone buona connessione, capacità di eseguzione in linea, quando necessario, nonché la conversione e/o la migrazione di dati e programmi applicativi.

Tutto questo riporta il tema della cloudification ai suoi fondamentali: una buona gestione dei dati e delle infrastrutture di rete, includendo tutta la sicurezza necessaria a garantire la business continuity e la qualità dei servizi erogati. 

Il primo problema è che oggi la sicurezza, per motivi diversi, è considerata un add on dell’IT non una sua parte nativa e integrante. Il secondo problema è che quando si parla di sicurezza le aziende si chiudono a riccio per paura di dover investire più di quel che fanno. I tempi sono maturi per razionalizzare e reingegnerizzare, ma oggi nessuno ha né il tempo né la voglia di farlo.

Nell’era della cloudification i dati sono adattivi

Con la cloud il tema della sicurezza diventa una questione ancora più complicata: nella condivisione dei dati, infatti, anche una semplice operazione come lo scambio di una mail può aprire una falla alla sicurezza aziendale. Il fatto che oggi più dell’80% delle aziende abbia subito più di un attacco non è un caso (Fonte: Corporate IT Security Risks 2016). Nelle aziende coesiste un’eterogenità di sistemi e prodotti (spesso anche ridondati) che fanno capo a diversi responsabili, cosicchè ognuno si gestisce una porzione di sicurezza con un approccio a silos che non viene granché condiviso con il resto dell’organizzazione. La compartimentazione dovrebbe essere un modello obsoleto nell’era digitale dell’integrazione, della mobility, della collaboration e della cloudification. Ecco perché è importante fare un po’ di chiarezza su ciò che sta succedendo e su cosa succederà, partendo da una migliore comprensione dell’evoluzione dei dati.

La quantità di dispositivi fissi e mobili che già oggi si collegano alle reti aziendali, con tutto l’insieme di applicazioni e di sistemi resi disponibili in modalità on demand, attraverso le varie forme del cloud, rendono la rete un elemento fondamentale ma anche critico.

Non si tratta di risolvere soltanto le modalità di accesso che vanno governate per garantire la salvaguardia delle informazioni ma di capire bene come la natura dei dati, rispetto al passato, sia profondamente cambiata. Più che sui volumi crescenti da gestire, infatti, gli esperti alzano l’attenzione su come si sia trasformata la loro modalità di fruizione. A seconda delle decisioni da prendere, vengono richiamate informazioni spesso provenienti da fonti disparate, che vengono incrociate in modi diversi in base alle necessità: è il caso di un tecnico che controlla le performance di un server nel data center, o di un marketing manager che vuole verificare i feed back di una campagna dal CRM aziendale, oppure di un Chief Financial Officer che vuole lanciare una simulazione per verificare la validità di un certo tipo di investimento.

Qual è un limite all’evoluzione digitale del business

Quello che è certo è che la quantità di dati digitali in circolazione ha insegnato agli utenti a lanciare interrogazioni, fare analisi e usare algoritmi in modo sempre più pervasivo e funzionale. Il risultato è che la velocità richiesta a questi processi è ormai tale per cui le infrastrutture aziendali stanno dimostrandosi inadeguate. La sfida dei Big Data è molto più del mantra delle enne V della governance (Volume, Varietà, Velocità, Volatilità e Via dicendo).

“Oggi non dobbiamo più pensare a una pila di dati – racconta Alberto Degradi, Direttore Infrastrutture di Cisco Italia – ma a un flusso di dati che non solo sono in continuo movimento ma anche che vengono analizzati in funzione di decisioni da prendere in tempo reale. Un esempio? La videosorveglianza: eravamo soliti pensarla sotto forma di filmati che venivano raccolti e archiviati. Ora videosorveglianza significa riconoscimento facciale e origine di nuovi eventi. Un altro esempio? Le cartelle cliniche: oggi non sono più solo digitalizzate e conservate, ma i dati provenienti dai referti vengono analizzati in tempo reale per migliori cure. In generale, dove prima venivano usate grandi quantità di dati provenienti da sensori o dispositivi connessi, ora vediamo l’apprendimento automatico utilizzato per accelerare lo sviluppo di tutti i settori industriali. Quello che ancora le aziende non hanno capito è che la rete è un gigantesco cluster di sensori che ci aiutano a capire non solo cosa è successo e cosa sta succedendo ma, grazie a un uso avanzato dei dati attivi, anche cosa succederà”.

Tradizionalmente, i dati vengono memorizzati e resi accessibili a intermittenza. Secondo IDC meno del 40% dei dati aziendali memorizzati viene utilizzato per creare visioni dettagliate. Le nuove applicazioni, come ad esempio il video analytics, la diagnostica per immagini o il machine learning, richiedono e creano dati non memorizzati e elaborati attivamente in tempo reale.

Le infrastrutture IT statiche tradizionali non funzionano più in un mondo fatto di continua conoscenza e innovazione, mentre le soluzioni storage per il cloud pubblico possono diventare costose poiché gli insiemi di dati crescono rapidamente e in modo imprevedibile.

Obiettivo? Un data center perfetto… ASAP

Cisco, che da sempre ha costruito il proprio core business sulle tecnologie di networking, ha capito con largo anticipo l’evoluzione del World Wide Web, precorrendo i temi della Internet of Everything, dell’evoluzione sempre più liquida dei sistemi di rete e della necessità di un introdurre nuovi criteri di gestione estremamente più dinamici, predittivi e proattivi. Come specialista di tutte le tecnologie di rete più all’avanguardia, pur lavorando su una granularità di soluzione diverse, come provider ha sempre e comunque puntato a sviluppare un concetto di piattaforma che, nel suo complesso, è la migliore sintesi di un approccio olistico al networking.

“Oggi bisogna far capire alle aziende che è fondamentale usare i dati nel migliore dei modi possibili – prosegue Degradi -. L’obiettivo? Accorpare le mosse della governance all’interno del data center, vera cabina di regia rispetto a quanto succede a livello fisico e a livello digitale. Prima di tirare fuori il valore dei dati, infatti, è necessario capire cosa fanno le applicazioni, come lavorano, come viaggiano i dati e come funziona il viaggio di ogni singolo pacchetto di dati, che sia sulle infrastrutture fisiche o che sia sul cloud. Solo così è possibile poi introdurre l’automazione che serve davvero e che aiuta a controllare e a proteggere le infrastrutture di rete. Oggi bisogna presidiare tutto lo stack relativo al data center, abbracciando i trend della cloudification. Il nostro approccio? Si chiama ASAP, che sta per Analisys, Simplify, Automate and Protect”.

Parte integrante dell’architettura data center di prossima generazione di Cisco, questo approccio permetterà alle organizzazioni enterprise di assimilare tutti gli aspetti positivi del cloud e dei data center on-premise attraverso una piattaforma cloud ibrida completa, sicura e agile. Il punto di forza? Un’analisi dei dati che circolano in rete allo stato dell’arte. Il consiglio dell’esperto? 

“Le aziende sono sempre più sotto pressione per fornire nuovi servizi e applicazioni, e molte di esse stanno passando a un modello CICD (Continuous Integration and Continuous Delivery) – ha concluso Degradi -. Allo stesso tempo, la digital transformation sta portando alla creazione di migliaia di nuove applicazioni enterprise che stanno diventando la principale interfaccia tra il cliente e l’azienda, specialmente per le transazioni digitali. Il nostro approccio permette ai clienti di Analizzare, Semplificare, Automatizzare e Proteggere i propri dati e applicazioni. L’ASAP data center, infatti, non è solo un gioco di parole del marketing ma una vera e propria architettura data center che coniuga integrazione dell’analitica, networking, elaborazione e sicurezza con policy interne alla sala macchine e nel cloud”.

Il mondo delle imprese deve smettere di vivere la sicurezza come un approccio separato dalle infrastrutture e usare le analitiche per capire anche cosa succede su tutta la rete scegliendo modalità di segmentazioni intelligenti al punto da riuscire a limitare malware e tentativi di intrusione, anomalie di funzionamento e difetti in modo previsionale, cioè adattivo, reattivo e proattivo. Come? Usando al meglio i dati e l’intelligenza della rete, sfruttando al meglio la cloudification per avere le migliori risorse e la migliore sicurezza.

 

 

 

Laura Zanotti da Digital4
Giornalista

Ha iniziato a lavorare come technical writer e giornalista negli anni '80, collaborando con tutte le nascenti riviste di informatica e Telco. In oltre 30 anni di attività ha intervistato centinaia di Cio, Ceo e manager, raccontando le innovazioni, i problemi e le strategie vincenti delle imprese nazionali e multinazionali alle prese con la progressiva convergenza tra mondo analogico e digitale. E ancora oggi continua a farlo...

Articolo 1 di 5