Apm analytics: conoscere i dati per aumentare le performance

Avere a disposizione tanti dati non sempre significa avere le risposte pronte né tanto meno disporre di un’adeguata capacità reattiva nella risoluzione dei problemi. Se poi l’obiettivo è portare l’Apm a strumento di valore per le performance di business, gli elementi su cui intervenire sono numerosi, dall’approccio metodologico alla scelta della tecnologia

Pubblicato il 03 Set 2015

Le applicazioni software di oggi sono multi-piattaforma, multi-strato e ‘disperse’ su ambienti differenti (fisici, virtuali, cloud, web, mobile, ecc.). Monitorare e mantenere architetture applicative così complesse rappresenta una sfida importante per l’It che si vede ‘sovraccaricato’ di numerosi workload. I processi manuali di controllo e manutenzione, tipici di ambienti legacy, non sono più efficaci, non solo perché gli stessi ambienti legacy sono evoluti nel tempo ma anche perché le applicazioni mission critical sono rappresentate oggi da complessi sistemi architetturali caratterizzati da correlazioni dinamiche tra applicazioni diversificate e tra queste e i sistemi sottostanti (ambienti operativi, sistemi computazionali e di memoria, network, ecc.). In un quadro così complesso, le perfomance applicative non possono essere demandate a procedure di governo manuali ma diventa quanto mai necessario un approccio nuovo all’Apm (Application Performance Management), introducendo un livello di ‘intelligence’ tale da ‘elevare’ a metodologia di business una disciplina che, in alcuni casi, ancora oggi è affrontata soprattutto dalla prospettiva tecnica.

Questo, in estrema sintesi, ciò che emerge dal documento “The value of analytics” realizzato dalla Principled Technologies. Il report riassume i dati e le analisi di alcune recenti ricerche condotte dalla società americana e da altri analisti come Forrester, Aberdeeen, Cio Insight, ecc., dalle quali emerge uno scenario globale caratterizzato da aziende che necessitano sempre più, dal servizio Ict applicativo, di un supporto concreto di business (per accelerare determinati processi, per agevolarne altri e snellire workload o modalità operative di interazione tra utenti, per interagire con il mercato, per sviluppare nuove interazioni e collaborazioni, per erogare nuovi servizi, ecc.).

Avere tanti dati non basta…

Secondo Principled Technologies, in un contesto simile è necessario introdurre nell’Apm uno strato di ‘intelligence’, ossia funzionalità di analytics che consentano, da un lato, di accedere ad una maggiore quantità di dati per il monitoraggio delle applicazioni, dall’altro di estrarre da questa mole di dati la conoscenza utile ed efficace per migliorare le performance del servizio applicativo, non solo dalla prospettiva IT.

Traendo spunto dai dati di alcune ricerche condotte da Forrester e Cio Insight (di cui si trovano gli highlights e i dettagli nel report “The value of analytics”), per esempio, appare evidente che in moltissime aziende sono disponibili già oggi dati sufficienti per risolvere la maggior parte dei problemi inerenti le performance applicative; peccato che il ‘rovescio della medaglia’ mostra la maggior parte delle aziende non ancora in grado di prevenire eventuali problemi (anche se i dati a disposizione lo consentirebbero) e molto lente in termini di capacità reattiva laddove le criticità si presentano (a volte nell’ordine addirittura delle settimane o dei mesi per gli interventi sulle funzionalità delle applicazioni).

Avere a disposizione tanti dati non è dunque sinonimo di buone performance: facendo una media tra i dati delle differenti ricerche prese ad esame, il 31% delle aziende (considerando un panel medio di indagine di oltre un migliaio di aziende) dichiara di impiegare oltre un mese per la risoluzione di un problema di performance delle applicazioni quando questo si presenta. Andando ad indagare le cause di tale ‘lentezza reattiva’, la multi-canalità (molti device e differenti piattaforme), le metriche numerose e differenti, la varietà di tool di monitoring, l’eccessiva quantità di dati da analizzare rappresentano quelle citate più di frequente.

… serve capirli

La soluzione a scenari di questo tipo, come accennato in precedenza, potrebbe venire dagli analytics. Per trarre realmente vantaggio da un sistema di Apm analytics, l’It deve prima di tutto agire a livello metodologico e di processo per cambiare approccio e mentalità. Nel report troviamo alcuni interessanti suggerimenti e linee guida di cui diamo un breve accenno:

1) innanzitutto bisogna cambiare prospettiva passando da quella infrastrutturale a quella applicativa, monitorando in primis user experience e ‘comportamento applicativo’ in funzione del suo contesto di utilizzo (da quali utenti, con quali modalità e strumenti, attraverso quali funzioni, ecc.);

2) ciò significa intervenire anche sulla ridefinizione delle metriche di analisi con una vista più ‘business oriented’ (tenendo conto anche dei costi derivanti dalle ‘inefficienze’ che possono anche tradursi in mancati ricavi nei casi in cui, per esempio, una transazione economica non vada a buon fine a causa di un malfunzionamento dell’applicazione o del portale web);

3) lato It, diventa imprescindibile l’analisi delle correlazioni, ossia il monitoring end-to-end dal quale poter ricavare una fotografia dettagliata degli eventi (esempio malfunzionamenti applicativi) e dei loro impatti sull’intero stack It (database, server, storage, network, ambienti virtuali o cloud, ecc…).

E dato che sul fronte del next generation APM c’è ancora molta confusione anche dalla prospettiva tecnologica, soprattutto in relazione alle funzionalità e capacità dei tool oggi in commercio, nel report redatto dalla società americana è possibile trovare anche taluni ‘consigli tecnici’ per indirizzare al meglio gli investimenti It. Assodato che l’APM analytics va affrontato prima di tutto come approccio metodologico, con gli aspetti di processo, organizzazione, competenze, ruoli e responsabilità sempre in primo piano, ciò che le soluzioni dovrebbero assicurare sul piano tecnologico, nella visione suggerita da Principled Technologies, possiamo ‘elencarlo’ come segue:

1) funzionalità di advanced Apm data collection (che vanno ‘costruite’ raccogliendo dati da tutti gli strati tecnologici);

2) motori analitici multi-dimensionali (che consentano di uscire dalla vista sul data center per accedere e analizzare differenti ‘dimensioni’, come la user experience e gli scenari d’uso delle applicazioni);

3) sistemi di ‘quantificazione’ della reale user experience (per poter monitorare l’esperienza utente è necessario adottare metriche differenti da quelle dell’Apm tradizionale ed è necessario poi ‘tradurre’ tali metriche in valori tecnici utili all’It);

4) capacità di analisi real time (per poter sfruttare i dati in tempo reale e abilitare approcci proattivi);

5) aggiornamento rapido e sicuro (dei dati ma anche delle capability dei tool).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati