Quando l’High Performance Computing va a sostegno delle analisi di business

Che fare quando il volume dei dati sfida le capacità elaborative e la necessità di ottenere risposte certe in tempi brevi diventa impellente? Ne parliamo con Cinzia Amandonico, Analytics & Innovation Center Manager di SAS.

Pubblicato il 03 Apr 2012

Non c'è più spazio per improvvisazioni e lentezze in un mercato che premia l'efficienza e la velocità di reazione. “Lo sanno bene gli operatori della Gdo che devono processare milioni di dati per pianificare, dalla sera alla mattina, la catena logistica ottimale per il riassortimento degli scaffali nei punti vendita. O gli istituti bancari che, nel passaggio da Basilea 2 a Basilea 3, si trovano a dover calcolare i rischi di portafoglio non più mensilmente o trimestralmente, ma intraday, cioè più volte nell'arco della medesima giornata”. Esordisce con due esempi tangibili e reali Cinzia Amandonico (nella foto), Analytics & Innovation Center Manager di SAS. Criticità che possono trovare nelle nuove tecnologie di analisi un supporto efficace, anche quando i volumi di dati sono imponenti.

“Il volume dei dati cresce in modo esponenziale e gli algoritmi di analisi diventano sempre più complessi, ma il tempo a disposizione per ottenere risposte precise ed efficienti è sempre meno”, premette Amandonico. “Non c'è da stupirsi quindi che le tecniche finalizzate a potenziare le prestazioni elaborative, come l'High Performance Analytics, stiano riscuotendo così forte interesse nelle aziende dei più diversi settori economici e che SAS abbia realizzato una soluzione di High Performance Computing destinata a conciliare due obiettivi apparentemente contradditori: da un lato processare volumi crescenti di dati e dall'altro minimizzare i tempi di risposta per i risultati delle analisi”.

Alla base di questo nuovo tipo di soluzioni stanno tecniche evolute di grid computing e di elaborazione in-database e in-memory. “Da una parte, si tratta di mettere a fattor comune le risorse computazionali e di assegnare agli utilizzatori finestre dinamiche di elaborazione: un middleware specializzato suddivide le applicazioni SAS in sotto-processi che vengono assegnati in parallelo ai nodi computazionali disponibili – spiega in dettaglio la manager italiana -. Dall'altra, l'esecuzione dei sotto-processi può essere demandata al database ospite o, come nel caso delle soluzioni verticali specializzate (rischio di credito, analisi di portafoglio, riassortimento degli scaffali, determinazione del pricing, ecc.), sfruttare tutti i vantaggi della memoria distribuita, secondo il modello emergente di Message Passing Interface”.

Com'è facilmente intuibile, la combinazione di queste strategie accelera drasticamente i tempi di risposta, ed è qui che si vede concretamente l’efficacia per il business: “Per dare solo un'idea degli ordini di grandezza, l'esperienza mostra che i giorni necessari per elaborazioni di medio-alta complessità si riducono a pochi minuti”, ci tiene a sottolineare Amandonico. “Ma c'è di più. Nuove tecniche di parallelizzazione consentono di ottimizzare l'impiego delle risorse infrastrutturali, perché il carico di lavoro viene distribuito in modo intelligente tra le macchine disponibili: così, ad esempio, le postazioni libere nel periodo notturno possono essere tranquillamente utilizzate per i calcoli paralleli”.

Volendo sintetizzare, l'High Performance Analytics consentirebbe di superare eventuali vincoli correlati, per esempio, con il numero degli utenti, la complessità algoritmica o la mole dei dati, garantendo analisi veloci e in grado di “produrre” risposte efficaci anche in scenari con vincoli e criticità simili. “Questo si traduce per l'azienda nella capacità di reagire rapidamente ai cambiamenti del mercato, di allineare le risorse ai bisogni del business nonché di adeguare l'infrastruttura alle nuove regole di compliance, elemento quest’ultimo da non sottovalutare”, conclude Amandonico.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3