Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

I CIO e la doppia sfida dell’IT

pittogramma Zerouno

System integration

I CIO e la doppia sfida dell’IT

17 Giu 2014

di Giuseppe Goglio da Digital4

Data center ibrido e virtualizzazione delle reti chiamano i responsabili IT a cambiare radicalmente l’approccio ai sistemi, in un’ottica di massima agilità in grado di assecondare le esigenze dei processi aziendali, pena il rischio di essere superati nelle decisioni. Un ruolo a misura di system integrator, dove Dimension Data si dice pronta a garantire il pieno sostegno alla ricerca della soluzione personale

Il cambiamento è un fattore costante nell’attività di un’azienda e in modo particolare negli ambienti IT, dove gli intervalli dettati dall’evoluzione tendono inevitabilmente a contrarsi. Più della necessità di vedersi continuamente adattare, a complicare ulteriormente il compito del CIO è il numero di cambiamenti ai quali il proprio sistema ha dovuto adeguarsi, accumulando progressivamente complessità.

Oggi, anche nell’intento di contrastare tale tendenza, sono due i principali argomenti di attenzione. «Nel nostro ruolo di system integrator, siamo chiamati a essere profondi conoscitori delle tecnologie più attuali – afferma Roberto Del Corno, managing director di Dimension Data -. Attualmente, intendiamo offrire un punto di riferimento indipendente e qualificato sui trend più attuali, vale a dire la nuova generazione dei data center e il software defined networking».


Dal dato all’informazione
Anche se sotto aspetti diversi, entrambi rispondono ad alcune tra le più pressanti richieste cui sono sottoposti i reparti IT, a partire da una riduzione dei costi, e pena la perdita da più parti già accusata di peso decisionale. «Una richiesta da conciliare con le esigenze dettate prima di tutto da mobility, sicurezza e una nuova organizzazione senza perimetri – sottolinea Enrico Brunero, line of business data centre manager dell’azienda -. Una serie di fenomeni si ripercuote su una enorme quantità di dati il cui problema non è conservarli ma tradurli in informazioni, garantendo la massima agilità».


Il rischio di perdere le competenze
Non restare allineati con le strategie commerciali significa inevitabilmente essere scavalcati in fase decisionale. «In tema di virtualizzazione, tanti processi che hanno funzionato bene per anni, oggi non sono in grado di sopportare la convergenza – prosegue Brunero -. In tanti ambienti legacy si sono addirittura perse le competenze, mentre in altri casi non si è seguito il ciclo di aggiornamenti, determinando scenari eterogenei».

Al fianco di componenti sui quali intervenire risulterebbe tanto antieconomico quanto controproducente in termini di efficienza, bisogna fare i conti con la nuova generazione di applicazioni e utenti. La soluzione a questo punto diventa prevedibile. «Il next generation data center dovrà per forza di cose essere ibrido – rilancia Brunero -. È necessario valutare quali applicazioni lasciare all’interno e quali invece portare nel cloud, considerando l’agilità come uno dei fattori discriminanti. Applicazioni proprietarie resisteranno, affiancate da altre gestite in ottica cloud. Il tutto, circondato da un livello di sicurezza coerente, a prescindere da dove il servizio viene erogato».


Il ruolo del networking
Per una sfida già in atto, dove il tempo diventa un avversario temibile, se ne prospetta una seconda, ancora tutta da giocare, ma dalle potenzialità tali da dover essere analizzata senza esitazioni. «Oggi le applicazioni e le informazioni sono disponibili praticamente ovunque – sottolinea Stefano Paganelli, line of business NI & security manager di Dimension Data -. Questo disaccoppiamento non è però ancora stato compiuto a livello di networking, con infrastrutture concepite solo per spostare pacchetti tra due punti. Se per qualsiasi ragione la destinazione cambia, una rete così concepita può diventare un ostacolo».

Introdurre un nuovo livello di astrazione significa liberarsi dalle funzioni del particolare dispositivo e inserire un principio di programmazione in linea con la richiesta di flessibilità propria del cloud computing. In questo caso, non è azzardato parlare di rivoluzione, pur con tutte le cautele del caso. «È ancora qualcosa che va poco oltre le parole – avverte Paganelli -. C’è sul mercato una sorta di corsa per dichiararsi pronti, ma di concreto c’è ancora poco, a partire dagli standard».

L’interesse tuttavia non manca, a cominciare dagli operatori di Rete e dai provider, i primi e al momento unici possibili beneficiari. «Tanti hanno offerte mirate, ma manca ancora un principio di portafoglio – prosegue Paganelli -. Il nostro consiglio è un approccio olistico, mirato prima di tutto a comprendere bene cosa si ha in casa, i meccanismi di SDN e come si calano nella propria realtà. Infine, stabilire come muoversi e ripetere più volte il ciclo».

Per l’utente finale, viene calcolato in quattro anni il periodo prima che la virtualizzazione delle reti possa diventare di competitività. Abbastanza perchè sia rimosso il rischio di vedere svalutate le infrastrutture attuali. Per gli operatori del settore invece, non c’è tempo da perdere, per farsi trovare preparati, ma anche per rafforzare il proprio ruolo. «Dobbiamo impegnarci a comunicare la solidità della nostra offerta, sulla base di quanto detto non da noi, ma da clienti, partner e analisti – conclude Del Corno -. Per esempio, la partnership storica con Cisco iniziata come venditori, oggi è diventata quasi paritetica, al punto che siamo stati scelti per portare sul mercato la loro offerta cloud».

Giuseppe Goglio da Digital4

Articolo 1 di 5