Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Apm: user experience al centro

pittogramma Zerouno

Apm: user experience al centro

18 Feb 2014

di Nicoletta Boldrini

Definire rapidamente le priorità, categorizzare e diagnosticare i problemi prestazionali intervenendo su tutti i livelli necessari (comprese le infrastrutture) per una maggiore soddisfazione degli utenti. È questa la via per un Application Performance Management (Apm) più efficace, che produce risultati di business sulla qualità dei servizi resi. Ecco cinque dimensioni essenziali del monitoraggio delle prestazioni applicative secondo Gartner.

Per migliorare e garantire le prestazioni e la disponibilità delle applicazioni business-critical, le organizzazioni devono essere in grado di vedere e comprendere l'esperienza reale degli utenti, quindi avere la visibilità necessaria a risolvere i problemi dandone priorità in base ai loro impatti sul business. È questa la nuova frontiera dall’Apm, Application Performance Management, ma il percorso per arrivare a tali risultati è tutt’altro che banale, soprattutto nelle organizzazioni dove la complessità infrastrutturale e delle architetture applicative è tale da rendere molto delicato ogni tipo di intervento.

Se è vero che in ambienti eterogenei e complessi non tutte le soluzioni e i servizi sono uguali, è altrettanto vero che le applicazioni più critiche richiedono i massimi livelli di attenzione e supporto, ma anche di disponibilità e reattività (esigenze che senza adeguati strumenti di analisi, anche in tempo reale, non possono essere soddisfatte, mettendo l'It in una posizione di costante ritardo rispetto alle dinamiche di business).

Ecco perché l’Apm si sta sempre più evolvendo a soluzione che, attraverso il monitoraggio della qualità e della tempestività delle applicazioni mission-critical, garantisce:

1) visibilità sulle transazioni degli utenti: dalla ‘tastiera’ fino ai sistemi di back-end associati (cioè monitoraggio end-to-end);

2) informazioni e analisi degli impatti sulle attività di business derivanti da un eventuale ‘scarso rendimento’ delle applicazioni (così come funzionalità per la gestione delle cause primarie dei problemi);

3) comprensione del ‘traffico delle applicazioni’ e come esse si muovono all'interno delle infrastrutture It (per ragionare sull’ottimizzazione dei carichi).

Le cinque dimensioni funzionali

Per garantire funzionalità specifiche e i livelli di customer satisfaction desiderati, una soluzione di Apm deve oggi rispondere a quelle che Gartner ha identificato come “le cinque dimensioni essenziali del monitoraggio delle prestazioni applicative”. Secondo la società di analisi americana, infatti, l’Apm di nuova generazione richiede decisioni coordinate in cinque distinte dimensioni funzionali:

1) il monitoraggio dell'esperienza degli utenti finali;

2) il profiling delle transazioni definite dall'utente;

3) la rilevazione e la modellazione dell'individuazione della componente applicativa;

4) il monitoraggio approfondito della componente applicativa;

5) funzionalità di database di gestione delle prestazioni applicative.

L'elemento chiave dell'Apm, secondo Gartner, è il fatto di affrontare i problemi di gestione causati dalle architetture applicative moderne. Per questo, le prime quattro dimensioni acquisiscono viste specifiche, eppure globali, del comportamento delle applicazioni end-to-end, mentre l'ultima riguarda la correlazione storica e in tempo reale, nonché l’analisi dei set di dati di grandi dimensioni associati a ciascuna delle prime quattro dimensioni.

In altre parole, ciò che dice Gartner è che per riuscire effettivamente a garantire un servizio di qualità all’utente (cioè che sia percepito tale dall’utente stesso e non semplicemente che sia performante sotto il profilo tecnico), le aree funzionali di una soluzione (e strategia) Apm devono concentrarsi sulla comprensione di tutto ciò che avviene nell’ambiente It per riuscire a individuare velocemente le possibili problematiche (ancor meglio se in via preventiva o, comunque, per intervenire secondo priorità prestabilite che non devono essere di natura tecnologica, ma in funzione della criticità di business e delle ripercussioni sul servizio all’utente).

La categorizzazione delle applicazioni (schema che mappa la loro correlazione e le interazioni con gli altri sistemi), ad esempio, è una pratica che potrebbe aiutare moltissimo anche in fase di supporto quando si verifica un problema. Seguire questo approccio metodologico, infatti, consente di risolvere determinati problemi anche attraverso un primo intervento: non è necessario che il personale dedicato al supporto di primo livello sappia tutto dell’applicazione o dell’infrastruttura a esso collegata. Attraverso le categorizzazioni è infatti possibile ottenere informazioni su una varietà di settori che interessano le prestazioni applicative, tra cui i componenti dell'interfaccia utente, ad esempio, nonché la logica delle applicazioni in esecuzione sullo strato middleware, oppure sui database associati, sulla rete e così via, anche senza essere esperti di ciascuno di questi settori.

Fino alla rete e alle infrastrutture

Scendendo comunque nel cuore delle infrastrutture, uno dei controlli strategici a garanzia di una soddisfacente esperienza utente è quello legato al funzionamento del network. Al fine di comprendere e ottimizzare correttamente le prestazioni, l'It ha necessità di sapere anzitutto come la rete viene utilizzata e se questo stia determinando un sovra-utilizzo delle risorse chiave (o il contrario, con inutili costi aggiuntivi). Quindi, deve riconoscere a quali applicazioni gli utenti accedono in ogni momento, e quali utenti eseguono l'accesso. Infine, è fondamentale che l'It rilevi rapidamente la presenza di eventuali problemi che potrebbero degradare le prestazioni di rete, dando priorità alla loro risoluzione per garantire l'erogazione ottimale dei servizi. Tutte esigenze che però si scontrano con la complessità delle attuali infrastrutture fisiche e virtuali: nessun tipo di dati fornisce, da solo, la vista precisa delle prestazioni necessaria all'It per monitorare l'utilizzo delle risorse, l'accesso alle applicazioni e le attività anomale.

Diventa perciò imperativo prestare attenzione a una molteplicità di dati inclusi, come i flussi di traffico, le applicazioni in uso, le prestazioni dei dispositivi utilizzati per accedere ai servizi ecc.

Va da sé che l'utilità dei dati raccolti è direttamente correlata alla capacità dell'It di trasformarli in informazioni fruibili, utilizzabili per supportare e rendere possibili attività di troubleshooting, risoluzione e ottimizzazione. Per riuscire quindi ad avere un controllo efficace, i dati devono essere aggregati automaticamente, interpretati e visualizzati con modalità tali da consentire al personale di comprenderne facilmente uso, schemi e problemi, e di conseguenza adottare azioni correttive.

Focus su dati, analisi e reporting

Per risolvere tali criticità oggi sono disponibili soluzioni che propongono funzionalità ad hoc in tre specifiche aree:

1) raccolta dei dati: una corretta gestione delle infrastrutture convergenti che forniscono allo stesso tempo dati, voce e video, così come le principali applicazioni aziendali, richiede che i dati sulle prestazioni siano raccolti dall'intera rete Lan e Wan. Per questo, la soluzione ideale dovrebbe raccogliere una vasta gamma di informazioni provenienti dal traffico di rete, dalle applicazioni, dai dispositivi con cui si accede alle risorse e ai servizi Ict, nonché dai sistemi di comunicazione adottati;

2) processi di analisi: per via delle enormi quantità diversificate di dati raccolti dalla rete diventa fondamentale l'analisi attraverso una soluzione che consenta di automatizzare il processo di trasformazione dei dati grezzi in informazioni fruibili (attraverso una prima determinazione dei valori/dati di base, una definizione delle tendenze attraverso l’analisi dei dati storici, la decisione e il monitoraggio di eventuali soglie di allerta per innescare poi meccanismi correttivi automatici che evitino il calo delle prestazioni, o ancora rilevando anomalie o automatizzando le indagini rispetto a obiettivi di ottimizzazione e prestazionali prestabiliti…);

3) reporting: infine, per rendere la raccolta dei dati e i processi analitici più significativi e utili possibile, una soluzione di Apm che tenga conto dell’analisi della rete e delle infrastrutture deve essere in grado di adeguare tutte le informazioni raccolte alle esigenze specifiche di qualsiasi utente rendendone visibile il report in base a ruoli e identità (report tecnici che richiedono viste granulari e dettagliate con funzionalità di drill-down e drill-across; report e analisi per personale operativo che necessita “a colpo d'occhio” di informazioni sullo stato di salute dei servizi applicativi; report per dirigenti che sono interessati più che altro al monitoraggio del livello e della qualità del servizio).

L’ideale, sarebbe poter contare su una piattaforma Apm che coniughi queste funzionalità con un portale centralizzato e integrato che aggreghi tutti i componenti di raccolta dei dati, analisi e reporting in un'unica vista, ottimizzando i processi di gestione ed eliminando l’esigenza di più strumenti per ogni singolo team che, di fatto, ha come conseguenza un aumento della complessità generale dei sistemi e del loro controllo.

Nicoletta Boldrini

Giornalista

Articolo 1 di 4