ACCEDI
User
Password
 
 LOGIN

Storage

Verso il software-defined datacenter: come e perché nella digital factory

Arianna Leonardi
A parità di costo, le nuove infrastrutture (dai sistemi iperconvergenti al software defined datacenter) sono più performanti anche perché è salito il livello di astrazione, con virtualizzazione, cloud e modelli software-defined, applicati non solo ai server ma anche a risorse di storage e rete. Ma bisogna integrare il legacy con il nuovo. Come? Alcune riflessioni nell’Executive Cocktail “Next Generation Datacenter per l’Industry 4.0” organizzato a Padova da ZeroUno in collaborazione con NetApp

L’Executive Cocktail Next Generation Datacenter per l’Industry 4.0  organizzato a Padova da ZeroUno in collaborazione con NetApp, ha messo sotto i riflettori il tema dell’evoluzione infrastrutturale sulla spinta dei nuovi trend manifatturieri dove l’Ict gioca un ruolo fondamentale: “I dati sono al centro della trasformazione digitale - ha esordito Stefano Uberti Foppa, direttore di ZeroUno e chairman dell'evento - e vanno gestiti, protetti e distribuiti secondo le esigenze del business. E' ormai oggi inevitabile un percorso di evoluzione delle infrastrutture Ict a supporto, considerando questo percorso da sviluppare attorno ad alcuni punti chiave: architetture software-defined, servizi cloud, tecnologie flash, analytics”.

Di questo servizio fa parte anche il seguente articolo:
DIBATTITO - Industria 4.0, come cambiano i datacenter?
Stefano Uberti Foppa, Direttore di ZeroUno

Una survey ZeroUno condotta nel 2016 su 143 aziende medio-grandi, mostra le priorità di investimento It: in testa, analytics/big data (con il 45% delle preferenze) e server/storage (49%). “Le aziende - ha commentato il direttore - investono in innovazione per sfruttare il dato, ma necessitano contemporaneamente di infrastrutture solide a supporto. Ed è confortante questa consapevolezza, pur nelle difficoltà realizzative”.

Con la digitalizzazione del business, inoltre, occorre un maggiore coinvolgimento dell’It nelle strategie aziendali: servono soft skill per la migliore comunicazione con le Lob, ma anche competenze specifiche soprattutto su cloud, big data e gestione architetturale, come ha evidenziato un’altra indagine ZeroUno (72 aziende, marzo 2016)”.

Stefano Mainetti, Co-Direttore Scientifico dell’Osservatorio Cloud & Ict as a Service School of Management del Politecnico di Milano, ha ampliato il quadro sulla datacenter transformation. “A parità di costo - ha spiegato il docente - le nuove infrastrutture sono più performanti, sia perché le soluzioni oggi sul mercato permettono di fare di più con meno sia perché è salito il livello di astrazione, con virtualizzazione, cloud e modelli software-defined, applicati non solo ai server ma anche a risorse di storage e rete”. Tuttavia, gestire architetture in modo automatizzato attraverso il software richiede un cambio di passo. “La sfida - ha detto il co-direttore - è duplice: integrare il legacy con il nuovo modello e aggiungere tecnologie che siano compatibili”.

Stefano Mainetti, Co-Direttore Scientifico dell’Osservatorio Cloud & Ict as a Service School of Management del Politecnico di Milano

Mainetti ha ristretto poi l’analisi al campo storage: “Le memorie stanno seguendo il percorso dei server: i player dell’offerta stanno mettendo sul mercato tecnologie sempre più performanti e in grado accrescere il livello di astrazione, in logica do more with less. Oggi le tecnologie flash, grazie all’industrializzazione della produzione, costano sempre meno, andando a supportare le applicazioni che richiedono risposte in real-time e aprendo davvero le porte alla digital transformation”.

Quanto è effettivo il cloud journey delle aziende italiane?

Secondo la ricerca dell’Osservatorio Cloud & Ict as a Service, nel 2016 sono stati investiti quasi 600 milioni di euro nella nuvola pubblica, mentre la spesa nella cloud enabling infrastructure supera il milione di euro; il totale degli investimenti cloud (1.771 milioni di euro) copre il 10% del mercato It Enterprise.

Mainetti ha evidenziato l’urgenza della cloud transformation come fattore abilitante dell’Industry 4.0, nuova linfa vitale per le industrie manifatturiere italiane, che muove su tre pillar:

  • connection (tra dati e dispositivi)
  • digitalization (per migliorare i processi sulla base delle informazioni)
  • intelligence (per gestire dati e condurre analisi a valore).
La platea dei partecipanti all'executive cocktail

Il percorso è fatto di sperimentazioni circoscritte e interazioni tra aree / persone per maturare e diffondere conoscenza secondo una logica di empowerment aziendale.

Fondamentale diventa la capacità di governare volumi di dati, soprattutto destrutturati, in aumento, fornendo risposte real-time, e di garantire sicurezza a fronte di minacce crescenti, con investimenti adeguati e la definizione di policy avanzate (ad esempio, per la crittografia o la gestione dei dati sui social).

Tra gli elementi che concorrono alla costruzione del datacenter agile, Mainetti ha citato infine il modello DevOps, che permette di accelerare il rilascio applicativo e implica una più stretta collaborazione tra informatici e Lob: “Nell’Industry 4.0, l’It rappresenta il business stesso e per i Sistemi Informativi è una grande opportunità”. Il DevOps diventa quindi sempre più, oltre che un modello per accelerare i civli di sviluppo e rilascio, un riferimento metodologico per introdurre integrazione e confronto nello sviluppo di ogni tipo di progetto tra le varie aree aziendali.

CLOUD COMPUTING

ANALYTICS

Analytics
Analytics

Come fare big data analysis

Cos’è un progetto di big data analisi? Come realizzarlo correttamente affinché siano garantiti i risultati? In questo...»

Iscriviti al club di Zerouno
Iscriviti al Club di ZerounoWeb