Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Appflow, lo standard per l’application performance monitoring nell’era del cloud

pittogramma Zerouno

Appflow, lo standard per l’application performance monitoring nell’era del cloud

30 Mag 2013

di Riccardo Cervelli

Una tecnologia che permette di raccogliere dati di networking e relativi alle performance applicative nelle infrastrutture esistenti e su quelle di nuova generazione. Elimina la necessità di sistemi costosi come i network tap e il problema del “vendor lock-in”. Consente infine di generare informazioni utilizzabili da tutti.

Crescita delle applicazioni da fruire con i device mobili. Virtualizzazione dei desktop. Ricorso sempre maggiore ai servizi cloud. Sono molte le novità del panorama It che stanno inducendo una trasformazione dei data center e, in generale, delle infrastrutture It, mentre continuano, da un lato, le pressioni a razionalizzare le spese e, dall’altro, ad aumentare le capacità di business intelligence per capire come essere più competitivi in un mercato sempre più diversificato, irrequieto e globale. Tutti questi cambiamenti richiedono un ripensamento delle metodologie e degli strumenti in grado di offrire visibilità sulle prestazioni delle applicazioni.

I tradizionali strumenti di application performance monitoring, fortemente basati su tecnologie hardware come le appliance fisiche e i network tap [dispositivi hardware inseriti in reti informatiche che permettono il monitoraggio non invasivo del flusso dati in transito, ndr], si rivelano sempre meno in grado di seguire l’evoluzione delle architetture It verso i paradigmi cloud privati, pubblici o ibridi. Inoltre – a causa dell’utilizzo di software e protocolli proprietari – molte di queste tecnologie tendono a legare gli utenti a specifici fornitori nell’acquisto di strumenti complementari necessari per effettuare analisi e reporting sempre più di profondità e innovativi. Combinando forte incidenza dell’hardware – con il suo corollario di scarsa flessibilità e quindi elevata probabilità di dover acquistare nuovi apparati per rispondere a bisogni di scalabilità – con il “vendor lock-in” causato dai protocolli proprietari, il tradizionale application performance monitoring rischia di essere sempre più costoso, senza allo stesso tempo garantire i benefici attesi. Urge quindi un monitoraggio delle prestazioni delle applicazioni più centrato su tecnologie flessibili da implementare e basate su uno standard in grado di favorire la libertà di scelta degli strumenti integrabili da parte degli utenti. Uno standard che, inoltre, permetta agli strumenti di application performance monitoring di nuova generazione di capitalizzare su buona parte, se non su tutti, gli investimenti in tecnologie e tool già effettuati dalle aziende.

Oggi questo standard esiste e si chiama AppFlow. Si tratta di un’estensione dell’IpFix, uno standard utilizzato per generare log di pacchetti Ip ed esportarli verso sistemi di network management e di accounting. Grazie alla compatibilità con IpFix e con NetFlow (una tecnica di caching dei flussi Ip sviluppata da Cisco, dalla quale IpFix è derivato come standard Ietf utilizzabile da tutti i vendor), molti tool basati su IpFix e NetFlow possono accettare AppFlow con modifiche relativamente poco onerose da parte dei dipartimenti It. In più, rispetto a IpFix, AppFlow è in grado di integrare ed esportare verso i tool di analisi e reporting informazioni sia di tipo Tcp sia più specifiche per applicazione. Prima dell’avvento di AppFlow non c’era uno standard a facilitare la ricostruzione dei rapporti tra performance di rete e applicative e occorreva necessariamente ricorrere a tool e protocolli proprietari. Questo, oltre a causare inevitabili “lock-in” verso determinati vendor, rendeva più complicato disegnare e implementare strategie di business intelligence evolute, perché basate su una più ampia disponibilità di dati analizzabili in modo integrato. Con l’adozione di AppFlow, per esempio, diventa più facile combinare informazioni sugli andamenti delle vendite su un sito di ecommerce e sugli accessi web con quelli relativi alle performance della rete verso un determinato tipo di client, e scoprire, quindi, l’impatto che il non ottimale supporto a un certo dispositivo o browser può avere in termini di business. Le informazioni di application performance monitoring, insomma, diventano, per usare il termine anglosassone più in voga, “actionable”: consentono di prendere contromisure o fare investimenti di tipo tecnologico che si riflettono in modo certo e diretto sul business.

Visibilità continua anche nella nube

Un’altra importante caratteristica di AppFlow è che si adatta perfettamente ad essere adottato sulle virtual appliance di application performance monitoring. Più i data center diventano virtualizzati e si creano cloud private e ibride, più le virtual appliance diventano preziose perché possono essere installate nel network cloud senza toccare le infrastrutture fisiche, come invece sarebbe necessario con i network tap, che peraltro sarebbe difficile gestire nell’ambiente di un fornitore cloud esterno. Riassumendo, quindi, AppFlow consente di soddisfare già tre importanti requisiti di un application performance monitoring attuale. Il primo è la convenienza – grazie alla capacità di raccogliere log da ogni tipo di dispositivo in rete – fa leva sulle infrastrutture esistenti senza necessità di ricorrere ai costosi network tap. In secondo luogo è inerentemente cloud-ready, e permette così di migrare al modello cloud senza perdita di visibilità sulle performance applicative. In terzo luogo è uno standard aperto, con specifiche pubbliche e disponibili a qualsiasi vendor di prodotti infrastrutturali e tool analitici che lo volessero adottare. E in più dispone di una community cui partecipano vendor, esperti e utenti finali, che contribuiscono alla sua evoluzione e alla sua migliore implementazione attraverso best practice e consigli.

Riccardo Cervelli
Giornalista

57 anni, giornalista freelance divulgatore tecnico-scientifico, nell’ambito dell’Ict tratta soprattutto di temi legati alle infrastrutture (server, storage, networking), ai sistemi operativi commerciali e open source, alla cybersecurity e alla Unified Communications and Collaboration e all’Internet of Things.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 3