Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Garantire la qualità del servizio Cloud: una sfida spesso sottovalutata

pittogramma Zerouno

Scenari

Garantire la qualità del servizio Cloud: una sfida spesso sottovalutata

06 Mag 2015

di Giuseppe Goglio da Digital4

Non sono solo versatilità, flessibilità e riduzione dei costi gli obiettivi da garantire per chi intende offrire servizi di nuova concezione. Soprattutto con l’aumento della domanda, è ua priorità assoluta assicurare all’utente finale almeno le stesse prestazioni del data center privato

La domanda più ricorrente sul cloud computing riguarda in genere tempi, modalità e criteri con i quali selezionare le risorse da trasferire, come procedere e come individuare i fornitori più affidabili. Il tutto, finalizzato ad aumentare scalabilità delle applicazioni e disponibilità dei dati, offrendo una maggiore flessibilità d’uso agli utenti.

Solo occasionalmente invece, viene affrontato con la dovuta attenzione un altro aspetto altrettanto importante, la qualità del servizio. Il Cloud Computing Magazine si sofferma con un apposito articolo su questo tema, citando a sua volta il libro “Service Quality of Cloud-Based Applications” di Eric Bauer e Randee Adams. Il concetto di partenza è che elementi come tempo di latenza, perdita dei pacchetti Ip, disturbi sul segnale trasmesso e altro ancora, possono compromettere le prestazioni complessive e quindi la fruibilità. Una sfida i cui protagonisti sono prima di tutto i provider, da una parte chiamati ad affrontare e risolvere il problema garantendo gli SLA, dall’altra con la prospettiva di fare della capacità di superare questi limiti un fattore distintivo.  

Dal punto di vista dell’utente, il luogo fisico dove risiedono dati e applicazioni interessa relativamente. Le sue priorità sono infatti disponibilità, affidabilità, facilità di utilizzo e sicurezza. Questi per il provider sono gli elementi da misurare e per i quali dotarsi di conseguenza degli appositi strumenti in grado di garantirne il livello richiesto. In pratica, si tratta di individuare una serie di Key Quality Indicator, utili a definire una metrica standard.  

Più in generale, l’obiettivo è arrivare a valutare quella definita come Quality of Experience, valutare tutto quanto contribuisce a fornire all’utente finale un servizio in linea con le aspettative o almeno con gli impegni assunti. Entrano quindi in gioco sia fattori hardware sia elementi software, come la gestione della virtualizzazione e le applicazioni. L’abilità del provider in questo caso è studiare il migliore bilanciamento delle risorse, per evitare contenziosi nell’accesso, ma gestire anche i fattori variabili della  virtualizzazione, dove è necessario fare i conti con quantità di risorse non garantite a priori e tempi di latenza conseguenti a un’eventuale riconfigurazione. Fattori importanti dal punto di vista della qualità di servizio percepita dall’utente, potenzialmente in grado di portare oltre i livelli minimi garantiti.

Per il provider, i problemi vanno però oltre. Caratteristica saliente del cloud è infatti combinare software, risorse di rete e strumenti as-a-service di provenienza diversa tra loro, destinati a formare un’offerta di application service. Questo comporta essere in grado di tracciare eventuali problemi, per risalire alla causa e individuare le relative responsabilità. La soluzione in questo caso passa per la definizione di una metrica standard a livello di infrastruttura, in grado di garantire valutazioni affidabili e trasparenti.

Un’infrastruttura distribuita per definizione, comporta la necessità di individuare e collaborare con una serie di partner. Una pluralità di servizi a loro volta fruibili in modalità as-a-service, la cui combinazione è potenzialmente in grado di influire negativamente sulla qualità percepita dall’utente finale. In questo caso, tra gli elementi da valutare vanno aggiunte funzionalità come Database-as-a-service o bilanciamento del carico.

Da questa serie di considerazioni, per un provider scaturisce una serie di indicazioni utili. Prima di tutto, non perdere di vista la specificità nelle richieste del singolo cliente. Quindi progettare, o riprogettare, le applicazioni in modo da risultare più indipendenti possibili dalle variazioni dell’infrastruttura cloud. A tal fine, orientare una fase di test proprio al comportamento nelle diverse situazioni in cui si presenta l’infrastruttura, valutando sempre dal punto di vista dell’utente finale.

In ogni caso, è importante stabilire con cura a priori i punti che concorrono a determinare la qualità del servizio, anche in prospettiva di una maggiore capacità nell’individuare il singolo guasto e stabilire la competenza per il relativo intervento tra tutti i partner coinvolti nella fornitura del servizio.

Tra le certezze attualmente disponibili sul cloud, la più importante dal punto di vista della qualità del servizio riguarda la natura intrinseca di risorsa condivisa, chiamata a fare i conti con una costante crescita nel numero di utenti. In pratica, per i provider questo significa assecondare la tendenza adottando gli strumenti necessari a far sì che i conseguenti inevitabili tempi di latenza risultino impercettibili sul lato utente, pur aumentando fisiologicamente. Un importante punto di partenza per garantire uniformità nell’offerta e valutazioni affidabili, è quindi la definizione di standard per i KQI, una direzione verso la quale si stanno già muovendo alcuni tra i principali fornitori di servizi.

Giuseppe Goglio da Digital4

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link