La strada verso il cloud computing passa per l’ ‘integrazione nascosta’

Riuscire a far evolvere i sistemi IT diventa sempre più complesso perché servizi, architetture e infrastrutture non sempre risultano integrati al meglio; non solo, a volte tale integrazione è frutto di continui assemblaggi tecnologici che rendono poi complessa e costosa la manutenzione. Come uscire da questa spirale? Lavorando sulla cosiddetta ‘integrazione nascosta’, ossia optando per un livello infrastrutturale basato su sistemi pre-integrati, ideali per l’evoluzione verso ambienti cloud

Pubblicato il 17 Mag 2016

Le continue ‘costrizioni’ economiche degli ultimi anni hanno di fatto aumentato la pratica del cosiddetto ‘Do It Yourself’ (‘realizzalo da solo’), diventato “l’approccio standard per le migliorie domestiche”, scrive provocatoriamente l’analista di The Clipper Group, David Reine: “vuoi rifare la cantina? Basta andare in un centro commerciale specializzato e trovare manuale e attrezzatura per iniziare!”. L’analista ricorre a questo paragone per sottolineare come anche nelle organizzazioni aziendali, in particolare nei Dipartimenti IT, l’approccio sia consuetudine, cosa che di per sé non rappresenta affatto un problema, tutt’altro. Le criticità sorgono, semmai, quando da un progetto ‘minore’ (rifare la cantina – aggiornare le infrastrutture server, per usare un termine di paragone seppur poco affine), si passa a qualcosa di più complesso come ‘costruire una casa’ o ‘mettere in piedi un data center’. Rimanendo nell’ambito domestico, i due progetti richiedono abilità completamente differenti che raramente possono concentrarsi in un unico soggetto: costruire una casa richiede un pool di risorse tra architetti, ingegneri, muratori, carpentieri, idraulici, elettricisti, ecc. che devono cooperare al raggiungimento di un obiettivo comune; lo stesso dicasi all’interno di un data center dove sistemisti, responsabili infrastrutture, architetti applicativi, ecc. cooperano per rendere quanto più efficiente il data center ma, avverte Reine, molto spesso ancorati all’approccio ‘do it yourself’ per realizzare architetture applicative scalabili che rispondano alle esigenze di affidabilità, disponibilità e qualità del servizio degli utenti di business, entro i limiti di budget imposti.

Affidarsi alle migliori tecnologie acquisendo sul mercato le soluzioni più innovative per far fronte alla necessità di erogare servizi applicativi efficaci e di valore per il business è una delle vie innegabilmente ottimali per raggiungere gli obiettivi, ma l’approccio non collima con la necessità di controllare i costi; non tanto gli investimenti iniziali, o non solo, quanto quelli legati alla manutenzione di complessi ed eterogenei sistemi che si vengono a creare.

L’integrazione ‘nascosta’

Come riuscire allora a garantire quel ‘continuous improvement’ del servizio It verso il business tenendo sotto controllo ‘la complessità’ (che diventa il fattore numero uno dell’aumento dei costi)? “La risposta sta nell’integrazione”, scrive Reine nel suo white paper “Improving Your Data Center Through Integration”.

Per supportare processi business critical servono architetture applicative performanti e scalabili che dispongano a loro volta di infrastrutture affidabili, sicure e sempre disponibili; i vari livelli IT (servizio di business, applicazioni, infrastrutture) devono essere perfettamente integrati.

Per raggiungere tale obiettivi, i data center manager hanno sempre lavorato assemblando, inizializzando, gestendo ed ottimizzando piattaforme ‘robuste’ in grado di supportare workload mission-critical, ma, scrive Reine, “un superiore livello di efficientamento (ed efficacia) nell’integrazione si ottiene lavorando sullo strato più basso dei sistemi It, le infrastrutture, eliminando la complessità dovuta proprio a questi continui assemblaggi e ottimizzazioni: ricorrendo ai sistemi pre-integrati, ingegnerizzati appositamente per accelerare l’evoluzione dei sistemi data center verso ambienti di tipo cloud”.

Più complesso è un sistema e più risulta elevato il suo costo totale (che non dipende solo dal costo unitario dell’investimento ma da tutti i costi aggiuntivi dovuti alla sua implementazione e ottimizzazione, compresi per esempio i costi energetici e gli spazi nel data center, dall’integrazione con gli altri sistemi, la gestione e manutenzione…) nonché le risorse necessarie in termini di ‘staff operativo’. Elementi che incidono in modo significativo sul Tco complessivo del data center.

Il consolidamento dei server e delle architetture applicative rappresenta senza dubbio uno step importante per l’efficientamento del data center ma, secondo Reine, la scelta di adottare sistemi pre-integrati (ossia ‘SuperCluster’ che uniscono in un unico sistema tutti gli stack infrastrutturali e combinano hardware, sistemi operativi, software di gestione, integrazione dati e sicurezza in un'unica soluzione tecnologica) risulta ottimale laddove gli ambienti IT hanno raggiunto una complessità tale da rendere particolarmente gravoso, almeno nelle sue fasi iniziali, proprio un piano di consolidamento. La virtualizzazione dei sistemi semplifica le fasi di consolidamento ma se alla base non vi sono infrastrutture adeguate e layer software a reggere i nuovi workload, la complessità si ripresenta con criticità ancor più marcate sia sul piano della gestione/manutenzione sia su quello dei costi.

Non solo, aggiunge Reine nel suo report, aspetti quali governance e sicurezza non sono elementi trascurabili nemmeno nel calcolo del Tco del data center: cosa succede se un sistema non è performante o va in downtime? Quanto costa il recovery dei sistemi e che interventi richiede?

Basta pensare ai business model odierni, quasi tutti fortemente dipendenti dal software (quanto meno indispensabili agli utenti per svolgere il proprio lavoro), per capire i danni che ne potrebbero derivare (considerando che anche quelli ‘reputazionali’ hanno un impatto economico diretto sul business dell’azienda).

Ecco allora che le infrastrutture del data center diventano ‘vitali’ per il business, fermo restando che la loro efficacia non può tuttavia ‘schiacciare’ le logiche di efficienza (operative e di costo). Ed è proprio qui, riporta in conclusione l’analista, che un sistema SuperCluster (solitamente ingegnerizzato per garantire altissime prestazioni, alta affidabilità e sicurezza) che combina harwdare e software in un modello pre-integrato riesce ad assicurare all’It velocità di risposta ed efficacia operativa a costi controllati (questi sistemi sono paragonabili ai mainframe per solidità e prestazioni ma non solo presentano un Tco decisamente più contenuto ma sono anche più scalabili e semplici da gestire, si legge nel report), soprattutto laddove la ‘rivoluzione’ del data center è spinta dal cloud.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3