Verso il software-defined datacenter: come e perché nella digital factory

A parità di costo, le nuove infrastrutture (dai sistemi iperconvergenti al software defined datacenter) sono più performanti anche perché è salito il livello di astrazione, con virtualizzazione, cloud e modelli software-defined, applicati non solo ai server ma anche a risorse di storage e rete. Ma bisogna integrare il legacy con il nuovo. Come? Alcune riflessioni nell’Executive Cocktail “Next Generation Datacenter per l’Industry 4.0” organizzato a Padova da ZeroUno in collaborazione con NetApp

Pubblicato il 16 Feb 2017

L’Executive Cocktail Next Generation Datacenter per l’Industry 4.0 organizzato a Padova da ZeroUno in collaborazione con NetApp, ha messo sotto i riflettori il tema dell’evoluzione infrastrutturale sulla spinta dei nuovi trend manifatturieri dove l’Ict gioca un ruolo fondamentale: “I dati sono al centro della trasformazione digitale – ha esordito Stefano Uberti Foppa, direttore di ZeroUno e chairman dell'evento – e vanno gestiti, protetti e distribuiti secondo le esigenze del business. E' ormai oggi inevitabile un percorso di evoluzione delle infrastrutture Ict a supporto, considerando questo percorso da sviluppare attorno ad alcuni punti chiave: architetture software-defined, servizi cloud, tecnologie flash, analytics”.

Di questo servizio fa parte anche il seguente articolo:
DIBATTITO – I pillar tecnologici dei nuovi datacenter
Stefano Uberti Foppa, Direttore di ZeroUno

Una survey ZeroUno condotta nel 2016 su 143 aziende medio-grandi, mostra le priorità di investimento It: in testa, analytics/big data (con il 45% delle preferenze) e server/storage (49%). “Le aziende – ha commentato il direttore – investono in innovazione per sfruttare il dato, ma necessitano contemporaneamente di infrastrutture solide a supporto. Ed è confortante questa consapevolezza, pur nelle difficoltà realizzative”.

Con la digitalizzazione del business, inoltre, occorre un maggiore coinvolgimento dell’It nelle strategie aziendali: servono soft skill per la migliore comunicazione con le Lob, ma anche competenze specifiche soprattutto su cloud, big data e gestione architetturale, come ha evidenziato un’altra indagine ZeroUno (72 aziende, marzo 2016)”.

Stefano Mainetti, Co-Direttore Scientifico dell’Osservatorio Cloud & Ict as a Service School of Management del Politecnico di Milano, ha ampliato il quadro sulla datacenter transformation. “A parità di costo – ha spiegato il docente – le nuove infrastrutture sono più performanti, sia perché le soluzioni oggi sul mercato permettono di fare di più con meno sia perché è salito il livello di astrazione, con virtualizzazione, cloud e modelli software-defined, applicati non solo ai server ma anche a risorse di storage e rete”. Tuttavia, gestire architetture in modo automatizzato attraverso il software richiede un cambio di passo. “La sfida – ha detto il co-direttore – è duplice: integrare il legacy con il nuovo modello e aggiungere tecnologie che siano compatibili”.

Stefano Mainetti, Co-Direttore Scientifico dell’Osservatorio Cloud & Ict as a Service School of Management del Politecnico di Milano

Mainetti ha ristretto poi l’analisi al campo storage: “Le memorie stanno seguendo il percorso dei server: i player dell’offerta stanno mettendo sul mercato tecnologie sempre più performanti e in grado accrescere il livello di astrazione, in logica do more with less. Oggi le tecnologie flash, grazie all’industrializzazione della produzione, costano sempre meno, andando a supportare le applicazioni che richiedono risposte in real-time e aprendo davvero le porte alla digital transformation”.

Quanto è effettivo il cloud journey delle aziende italiane?

Secondo la ricerca dell’Osservatorio Cloud & Ict as a Service, nel 2016 sono stati investiti quasi 600 milioni di euro nella nuvola pubblica, mentre la spesa nella cloud enabling infrastructure supera il milione di euro; il totale degli investimenti cloud (1.771 milioni di euro) copre il 10% del mercato It Enterprise.

Mainetti ha evidenziato l’urgenza della cloud transformation come fattore abilitante dell’Industry 4.0, nuova linfa vitale per le industrie manifatturiere italiane, che muove su tre pillar:

  • connection (tra dati e dispositivi)
  • digitalization (per migliorare i processi sulla base delle informazioni)
  • intelligence (per gestire dati e condurre analisi a valore).
La platea dei partecipanti all'executive cocktail

Il percorso è fatto di sperimentazioni circoscritte e interazioni tra aree / persone per maturare e diffondere conoscenza secondo una logica di empowerment aziendale.

Fondamentale diventa la capacità di governare volumi di dati, soprattutto destrutturati, in aumento, fornendo risposte real-time, e di garantire sicurezza a fronte di minacce crescenti, con investimenti adeguati e la definizione di policy avanzate (ad esempio, per la crittografia o la gestione dei dati sui social).

Tra gli elementi che concorrono alla costruzione del datacenter agile, Mainetti ha citato infine il modello DevOps, che permette di accelerare il rilascio applicativo e implica una più stretta collaborazione tra informatici e Lob: “Nell’Industry 4.0, l’It rappresenta il business stesso e per i Sistemi Informativi è una grande opportunità”. Il DevOps diventa quindi sempre più, oltre che un modello per accelerare i civli di sviluppo e rilascio, un riferimento metodologico per introdurre integrazione e confronto nello sviluppo di ogni tipo di progetto tra le varie aree aziendali.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati