ACCEDI
User
Password
 
 LOGIN

Data center e networking

Digital transformation in Italia, ecco la fotografia del 2016

Nicoletta Boldrini
Durante il Convegno “Datacenter Transformation: evoluzioni tecnologiche e architetturali del datacenter per abilitare nuovi modelli di business” organizzato da ZeroUno è stato fatto il punto della situazione riguardo l’evoluzione tecnologica, un percorso che tende a sistemi hybrid It e a un'organizzazione basata su flessibilità, agilità e scalabilità La presentazione dei dati di tre survey condotte in aziende italiane ha contribuito a illustrare la situazione attuale

Le aziende stanno provando a capire come i propri modelli di business debbano estendersi ed integrarsi ad una domanda che, per quanto riguarda applicazioni e servizi digitali, è sempre più ‘pressante’. “Riuscire a distribuire servizi in grado di incontrare questa domanda, non solamente con un’offerta applicativa coerente ma anche con una user experience adeguata, diventa l’elemento di valore competitivo primario”, fa notare Stefano Uberti Foppa, direttore di ZeroUno, aprendo i lavori del convegno “Datacenter Transformation: evoluzioni tecnologiche e architetturali del datacenter per abilitare nuovi modelli di business”, tappa conclusiva di un progetto che nel corso degli ultimi mesi attraverso webinar con analisti, utenti e player It ha permesso di mettere a confronto esperienze e prospettive di utilizzo strategico delle tecnologie Ict verso una vera Business Technology. “Il software sta diventando l’elemento centrale attraverso il quale le aziende devono provare a ri-declinare la propria capacità concorrenziale ma è evidente che il risultato, di business, è e sarà sempre più fortemente connesso alla capacità dei sistemi infrastrutturali di ‘reggere’ tali esigenze”.

Un viaggio nel futuro…

Gianluigi Castelli, Sda Professor of Management Information Systems, Sda Bocconi School of Management, Devo Lab Director

Comincia dai ‘fondamentali’ Gianluigi Castelli, Sda Professor of Management Information Systems, Sda Bocconi School of Management, Devo Lab Director, durante il suo intervento in qualità di Tech Evangelist, per delineare lo scenario futuro del computing, e lo fa riproponendo un ambizioso progetto di next generation datacenter di cui è stato promotore e artefice quando ricopriva il ruolo di Cio di Eni e che rappresenta tutt’ora un’eccellenza mondiale (pur essendo stato ‘superato’ da altri centri dati con efficienza energetica oggi maggiore). “Partendo dall’assunto che un datacenter è un impianto industriale specifico che prende della potenza elettrica in ingresso e produce due output, potenza di calcolo e calore, il primo elemento critico da tenere in considerazione con un monitoraggio costante è il Pue - Power Usage Effectiveness [la cui misura ottimale è 1 ed indica che tutta l’energia assorbita dall’impianto viene utilizzata per gli apparati It – ndr]”, fa notare Castelli. “Oggi il modello di riferimento è rappresentato dal datacenter di Facebook che ha raggiunto lo scorso anno un Pue di 1,078 (quello di Eni ha raggiunto un un Pue medio annuo reale di 1,14) grazie a condizioni ambientali ottimali [l’impianto si trova in Oregon a 850 metri di quota - ndr] e sistemi hardware di ultima generazione che riducono la dissipazione termica, oggi senz’altro uno degli elementi imprescindibili da prendere in considerazione nel modellamento di nuovi sistemi infrastrutturali”

È questo per esempio l’ambito di focalizzazione di Open Compute Project - www.opencompute.org, una community nata dalla volontà di cinque investitori iniziali (Facebook, Intel, Rakspace, Goldman Sachs e Andy Bechtolsheim, co-fondatore di Sun Microsystems oggi investitore nella Silicon Valley) ma che oggi conta più numerose member/partnership. “Questi ‘signori’ - spiega Castelli - stanno cercando di fare ciò che nell’ambito del software si è iniziato a fare diversi anni fa, ossia fondare una comunità collaborativa volta a ridisegnare la tecnologia hardware per supportare in maniera efficace ed energeticamente efficiente la crescente domanda di infrastrutture di calcolo”.

Nella seconda parte del suo intervento Castelli porta il pubblico all’interno di scenari futuristici - ma non per questo ‘non futuribili’ -, proprio su questi aspetti, in particolare nell’ambito del cognitive computing entrando nel merito delle nuove componenti iper-tecnologiche necessarie, a livello infrastrutturale, a ‘reggere’ avanzati sistemi di calcolo e analisi come quelli dell’Hpc, dell’intelligenza artificiale e del machine learning (quali per esempio Gpu - graphics processing unit e chip neuromorfici, microprocessori in grado di ‘imitare’ il funzionamento del cervello umano). “L’intelligenza artificiale richiede capacità e modalità computazionali totalmente differenti rispetto a quelle di un It tradizionale ancorché evoluto e altamente performante”, fa infatti notare in chiusura Castelli. “Dalla community Open Compute Project, per esempio, sono già ‘usciti’ alcuni prodotti hardware (nodo computazionale con due processori Xeon, 128Gb Ram, 20GBit/s rete, consumo 500W – nodi Network Attached Storage con processore Xeon 64Gb Ram, 512G Ssd cache, 6x8Tb dischi, 20GBit/s rete, consumo 500W) per i quali sono stati già definiti alcuni standard estremamente interessanti: i rack sono più alti rispetto a quelli standard cui siamo abituati oggi e possono contenere fino a 45 nodi per un totale di 1440 Tb di spazio disponibile per lo storage, il tutto pensato per facilitare la manutenzione a caldo”.   Partendo quindi da ciò che a livello di ricerca e progetti open sta accadendo sul fronte dell’hardware, Castelli prova poi a delineare quali potrebbero essere le nuove line guida nella costruzione di un data center, spingendosi anche in qualche stimolante provocazione: “eliminazione del cooling attivo e passaggio al free-cooling totale, eliminazione degli Ups, drastica riduzione dei costi hw, manutenzione e consumi”, i capisaldi di un progetto integrato.

In estrema sintesi, dalla prospettiva delineata da Castelli sul futuro artchitetturale dei datacenter possiamo trarre questa indicazione: assisteremo tra non molto tempo ad un salto logico nelle modalità di elaborazione così come fino ad oggi le abbiamo concepite. Da un’era in cui esiste un rapporto lineare tra potenza elaborativa e capacità nella gestione di grandi mole di dati ad una nuova dimensione in cui l’intelligenza dei sistemi e delle architetture (intelligenza artificiale-smart machine) approccerà la nuova complessità elaborativa.

… e il ritorno alla realtà

Marco Pozzoni, associate partner di Partners4Innovation

A riportare alla fotografia odierna è l’analisi dei risultati di serie di tre survey condotte da ZeroUno su un bacino di oltre 200 aziende italiane i cui dati, presentati per l’occasione da Marco Pozzoni, associate partner di Partners4Innovation, mostrano un certo dinamismo sul fronte della Digital Transformation, che per la maggior parte delle realtà si sta concretizzando sia attraverso le revisione significativa dei processi di business all’interno dei quali le tecnologie assumono un ruolo centrale (46%), sia attraverso l’incremento del livello di digitalizzazione e dell’uso delle tecnologie a livello organizzativo (34%). Ma è entrando nel merito degli ambiti di investimento che risulta chiaro quanto l’innovazione infrastrutturale (server e storage) ricopra un ruolo primario e abilitante in un percorso trasformativo più ampio volto all’hybrid It: “L’ambito cloud (private, hybrid, public), in questa direzione, ha una notevole rilevanza e rispecchia un mercato che arriverà a superare l’1,5 miliardi di Euro (private e public) con una crescita prevista del 25% nei prossimi anni”, evidenzia Pozzoni. “Una forte accelerazione, in questo senso, arriva anche dagli investimenti applicativi, soprattutto lato analytics, Big data e Crm, nonché dai progetti nell’ambito della mobility e dell’IoT che necessitano spesso di un rinnovamento infrastrutturale per essere introdotti e gestiti coerentemente in azienda”.

Ed è infatti sul fronte infrastrutturale che si stanno evolvendo alcuni dei percorsi più interessanti di datacenter transformation “soprattutto alla ricerca di maggior flessibilità ed agilità”, fa notare ancora Pozzoni. “Il 71% delle aziende interpellate continuerà ad investire in infrastrutture anche nel 2017: il baricentro si sposterà da virtualizzazione e consolidamento verso step successivi della roadmap, con forte sperimentazione di servizi in public cloud (integrato in modelli ibridi per il 22%) con una previsione di crescita a due digit anche negli anni successivi”.

Il coraggio dei Cio

Da sinistra: Umberto Tonelli, CIO, RCS Mediagroup; Riccardo Salierno, CIO, Sapio; Paolo Sassi, Group IT Director, Artsana; Alessandro Campanini, CIO, Gruppo Mediobanca e Stefano Uberti Foppa, Direttore, ZeroUno

Non poteva mancare a chiusura di questo nostro viaggio alla scoperta di come, attraverso la trasformazione dell’It, si sta sostanziando la Business Technology, la testimonianza diretta di coloro che all’interno delle proprie realtà aziendali stanno guidando o sperimentando percorsi di digital transformation, i Cio.    

“Noi partiamo da una situazione ancora fortemente permeata dalla presenza di sistemi legacy che rappresentano un vincolo non banale alla modernizzazione e all’innovazione”, ammette Alessandro Campanini, Cio di Gruppo Mediobanca. “Il percorso non può orientarsi, almeno per ora, in una logica di ‘full cloud’ ma questo non significa non preparare i sistemi alle logiche ed ai modelli It del futuro. In questo senso stiamo intervenendo proprio sulle infrastrutture datacenter a più livelli, adottando la tecnologia all-flash in ambito storage e privilegiando sistemi iperconvergenti, per ese mponenti infrastrutturali ed applicative, che solo per un servizio di disaster recovery in cloud dovremmo affidarci a tre service provider differenti esponendo a mio avviso l’azienda ad un rischio troppo elevato in caso di disservizio anche da parte di uno solo dei tre”. 

Diversa, invece, la fase evolutiva verso l’hybrid world è da parte di Artsana, come racconta l’It Director del gruppo, Paolo Sassi: “Nel nostro caso il cloud è stato adottato fin da subito attraverso il modello pubblico, dapprima a livello infrastrutturale e poi anche applicativo. La cosa più interessante che ci è subito parsa ‘dirompente’ è stata la possibilità di poter accedere a strumenti potentissimi con costi accessibili e sforzi interni accettabili, opportunità che grazie alla maturità e all’arricchimento dell’offerta continua a crescere e svilupparsi”.   

E parla invece di tsunami anziché di impatti disruptive della digitalizzazione, Umberto Tonelli, Cio di Rcs MediaGroup: “Siamo passati dall’essere un It ‘di processo’ (a supporto cioè di processi di business pressoché stabili ancorché critici) ad una ‘fabbrica di prodotti software’ non più ‘a supporto’ ma cuore di modelli di business completamente differenti, incentrati per esempio sui contenuti digitali a pagamento, dove le componenti di qualità, performance, user experience e sicurezza sono centrali”.   

Anche l’It, come il business, si contamina

Una delle possibili vie adottate dai quattro Cio chiamati a condividere la loro esperienza durante il convegno sul piano dell’organizzazione e delle competenze riguarda la ‘contaminazione degli skill’. “Fondamentale nel nostro percorso di trasformazione la figura del digital architect - testimonia Campanini -, figura che riesce ad interagire e collaborare in maniera molto ‘convincente’ sia con la parte più innovativa del business (che per Mediobanca si sostanzia con i servizi di CheBanca!) sia con i sistemi It più tradizionali e di natura tecnica”.

Dati e progetti mobile sono centrali nelle strategie di Rcs MediaGroup: “Seguendo i pilastri della metodologia Agile non solo nell’ambito dello sviluppo e gestione dei servizi digitali ma anche dalla prospettiva della collaborazione tra differenti aree e strutture aziendali - descrive Tonelli - riusciamo oggi a coinvolgere figure del management o del marketing, solo per fare un esempio, fin dalle fasi di prototipazione di un servizio, e questo ci consente di migliorarne l’efficacia fin dalle primissime fasi di sviluppo. Entrando poi nel merito della revisione organizzativa puramente It, avendo oggi i dati un ruolo centrale, abbiamo inserito nello staff competenze in grado non solo di gestirlo da un punto di vista tecnico ma anche analizzarlo, che significa comprenderlo in funzione di ciò che serve al business”. 

“All’interno del nostro It sono tornati a prendere corpo laboratori di idee e sperimentazione”, racconta dal canto suo Sassi, “e questo è stato reso possibile proprio dal cloud che ci ha permesso di ‘liberare risorse’. Dal punto di vista delle competenze, nel nostro caso la contaminazione avviene attraverso persone che provengono da altre linee di business ma che sono accomunate da una passione personale per la tecnologia e per temi oggi di prim’ordine per l’It quali la sensoristica e l’integrazione. Molto spesso il ruolo del ‘regista’ in questi gruppi di lavoro ricade in modo del tutto naturale su qualcuno dell’It ma non tanto per le competenze tecniche quanto, a mio avviso, per una propensione più spiccata ad essere ‘sistemico’ nella governance dei progetti, in generale, o più in dettaglio per l’innata capacità di fungere da ‘catalizzatori’ e ‘aggregatori’ di alcune persone del mio staff”. 

A testimoniare tuttavia quanto sia complesso ‘districarsi’ nel cambiamento scegliendo non solo le tecnologie più adatte ma anche le competenze più a valore di business è Riccardo Salierno, Cio di Sapio il cui team è alla ricerca ‘disperata’ di un digital officer: “A mio avviso si tratta di competenze che ancora scarseggiano sul mercato perché troppo ‘nuove’, utilizzabili quindi in qualche progetto di sperimentazione ma ancora troppo ‘deboli’ per poter generare un significativo valore di business”, è ciò che esprime Salierno in chiusura.

Dalle testimonianze riportate da tutti i relatori nel corso del convegno è comunque innegabile che proprio questo tipo di figure ‘ibride’ saranno a capo non solo dell’It ma a fianco della guida del business stesso nel prossimo futuro… nemmeno poi tanto lontano.

 

Advertisement

CLOUD COMPUTING

ANALYTICS

Analytics
Analytics

Come fare big data analysis

Cos’è un progetto di big data analisi? Come realizzarlo correttamente affinché siano garantiti i risultati? In questo...»

Iscriviti al club di Zerouno
Iscriviti al Club di ZerounoWeb