Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Il business retail rivoluzionato dai Big Data

pittogramma Zerouno

Il business retail rivoluzionato dai Big Data

14 Feb 2014

di Riccardo Cervelli

Le imprese di distribuzione possono migliorare l’interazione con i clienti, la gestione della domanda e la redditività attraverso nuovi approcci di analisi che fanno leva sui dati già gestiti con sistemi operazionali e data warehouse e su quelli provenienti da fonti di informazioni destrutturate, come social media e in futuro, l’Internet delle cose. Quali sono le nuove soluzioni, infrastrutture e prassi organizzate necessarie? Se ne è parlato in un Executive Cocktail di Zerouno in collaborazione con NetApp, Gci (Gruppo Consulenza Innovazione) e Cisco.

Big data. Soluzioni di analytics in realtime. Social media. Mobility. Un settore che può trarre vantaggi dal convergere di queste nuove ondate tecnologiche è il retail. Tutto questo è emerso in modo chiaro nel corso dell’Executive Cocktail “Retail Intelligence: vendere meglio e di più”, organizzato recentemente a Milano da ZeroUno in collaborazione con NetApp, Gci (Gruppo Consulenza Innovazione) e Cisco. Un evento in cui la discussione ha preso le mosse dall’analisi di un caso concreto di approccio innovativo alla retail intelligence basata su Big Data, quello di Coop Centro Italia, una realtà con 480mila soci, 2.700 dipendenti, 70 negozi e 635 milioni di euro di vendite annue.

L'articolo continua nella pagina seguente

*BRPAGE*

(segue dalla pagina precedente)

A rendere necessaria l’innovazione della retail intelligence è il rapido e profondo cambiamento dello scenario economico e competitivo in cui le aziende si trovano a operare. “Una realtà – sottolinea Stefano Uberti Foppa, direttore di ZeroUno – che comporta un’estrema complessità e velocità nell’interpretazione della domanda. Ci avviamo verso cambiamenti importanti nel mercato e nei potenziali acquirenti. Stiamo entrando nella cosiddetta ‘era dell’accesso’, della ‘shared economy’, nella quale sempre più informazioni e strategie devono essere condivise. Molte ricerche effettuate nell’ultimo periodo concordano nell’evidenziare la volontà delle imprese di una maggiore inclusione dei clienti, attraverso l’accesso e la condivisione di dati e informazioni, nella definizione di approcci al mercato molto tattici, contingenti, sviluppati sulla base di una domanda che nasce e muore molto velocemente. Si va anche verso fenomeni di ibridazione tra mercati e di creazione di nuovi. Tra dieci anni, ad esempio, nel mercato auto i servizi presenti a bordo delle vetture potrebbero assumere un valore più importante dei veicoli stessi. Un altro esempio – continua Uberti Foppa – è l’ingresso di molte aziende della grande distribuzione nel business dell’erogazione del credito. Buona parte di questi trend sono il risultato della crescente digitalizzazione del business.

Stefano Uberti Foppa, Direttore di ZeroUno

Un processo che produce elementi di analisi che consentono di individuare le migliori opportunità di business, spesso attraverso la cocreazione e prodotti e servizi con i clienti. E non si può dimenticare l’arrivo di una rivoluzione tecnologica e sociale quale l’Internet delle cose, con macchine che si scambiano informazioni e aiutano le aziende a migliorare i propri servizi. Non stiamo parlando di rivoluzioni che si verificheranno nei prossimi dieci o quindi anni, ma di fenomeni che sono già in atto”.

 

 

Nuovi approcci analitici e modelli architetturali

Per concretizzare nuovi modelli di retail intelligence, che fanno leva su informazioni eterogenee e raccolte in tempo reale, sono opportune soluzioni infrastrutturali e analitiche di nuova generazione. Sotto la direzione del Cio Adriano Visconti, in collaborazione con il system integrator Gci e i vendor Netapp e Cisco, Coop Centro Italia ha iniziato ad adottare un approccio innovativo all’analisi dei Big Data basato sulla distribuzione Cloudera della piattaforma Big Data open source Hadoop. Perché questa soluzione? “A differenza degli Rdbms (Relational database management system) – spiega Fulvio Negri, sales director di Cgi – Hadoop è in grado di gestire grandi volumi di dati strutturati e destrutturati. Ma quando si parla di Big Data solo la capacità di archiviare grandi quantità di dati non basta. Servono anche altre caratteristiche, garantite da Hadoop, come la velocità di elaborazione e la capacità di gestire dati molto eterogenei”. Informazioni, per fare degli esempi, che provengono dai social network, sui quali i clienti postano considerazioni e preferenze; oppure dagli stessi log dei portali aziendali; o anche da file di diversa natura, compresi documenti Word, Pdf, o, nel caso del retail, scansioni degli scontrini emessi ai titolari di carte fedeltà, con informazioni quali nomi dei prodotti acquistati, orari dello shopping, punti vendita visitati e così via. “Una soluzione come Hadoop – continua Negri – consente di integrare questi dati con quelli attinti dai data warehouse e dai database dei sistemi operazionali e transazionali”. Il tutto è reso possibile dai numerosi componenti open source del framework di Apache Hadoop, che permettono la raccolta di informazioni dai database Sql, il collezionamento di log, l’integrazione con soluzioni preesistenti o nuove di business intelligence commerciali o open source, e molto altro ancora.

Fulvio Negri, sales director di Cgi

L’integrazione, grazie ad Hadoop, dell’ecosistema delle informazioni reperibili sui social network o su file de-destrutturati con i dati strutturati residenti sui data warehouse e gli Rdbms, i sistemi operazionali e transazionali (Erp, Crm, Scm ecc.) permette di superare confini informativi e mettere le basi per acquisire nuovi vantaggi competitivi. Diventa possibile conoscere più in profondità i propri clienti, prevedere offerte mirate per ciascuno di loro, gestire meglio la domanda, ridurre le giacenze di magazzino, avere sempre pronta la merce che interessa e, in ultima analisi, migliorare la redditività. “L’obiettivo – sintetizza Negri – è realizzare il cosiddetto Knowledge discovery in database (Kdd)”. “Ovviamente – fa notare un partecipante all’evento di ZeroUno – è necessario che, parallelamente a queste innovazioni, si affrontino tematiche legate alle compliance alle norme di tutela sulla privacy”.

Problemi di scalabilità, gestione e implementazione

La piattaforma open source Hadoop garantisce scalabilità di capacità (grazie a un file system parallelo) e di performance (che aumenta in modo lineare con l’aggiunta di nuovi nodi, senza esborsi per l’acquisto di ulteriori licenze software) che consentono analisi di profondità storica illimitata rispetto a quanto consentono i data warehouse tradizionali. E permette di farlo in realtime. “Una distribuzione come Cloudera – sottolinea il sales director di Gci (società che ha anche l’esclusiva in Italia e in altri paesi per la formazione sulla distribuzione Cloudera) – offre i benefici di tranquillità di una piattaforma enterprise che include strumenti per la gestione centralizzata del provisioning, la gestione degli Sla, il monitoraggio dei servizi, il controllo e la sicurezza degli accessi e, se lo si desidera, un supporto 24 ore su 24 e servizi di disaster recovery”.

Carlo Viganò, Alliance Manager di Netapp

Per facilitare l’implementazione di soluzioni come Hadoop sono oggi disponibili soluzioni infrastrutturali convergenti che offrono vantaggi economici, semplificano il lavoro dei dipartimenti It e riducono i tempi di delivery dei servizi al business. Un esempio è FlexPod di Netapp e Cisco, la soluzione adottata da Coop Centro Italia. Si basa su componenti hardware di tipo commodity, software open source, un’architettura interna (server, storage, connettività e software di gestione) “preconfigurata” e offre la “prevalidazione” e il “pre-testing” delle soluzioni software da supportare, quale per esempio Cloudera Hadoop. Si tratta di un’infrastruttura scalabile, condivisibile con diversi tipi di soluzioni, e disponibile anche con un approccio da It utility pay-per-use, che consente di preallocare capacità che inizieranno a essere pagate solo una volta utilizzate.

“Oggi le aziende – racconta Carlo Viganò, Alliance Manager di Netapp – investono solo se sono sicure di generare nuovo business e ottenere risparmi economici. Le scelte strategiche che Netapp e Cisco hanno compiuto vanno proprio in queste direzioni. La soluzione implementata in Coop Centro Italia, per esempio, si è rivelata sostenibile perché valorizza i sistemi di data warehousing esistenti e arricchisce l’ambiente di retail intelligence anche con i dati destrutturati provenienti dall’ecosistema dei social media. Un domani potranno essere raccolte e correlate informazioni provenienti dall’Internet delle cose, dalla domotica e così via”.

Di fronte alla velocità, complessità e imprevedibilità con cui evolveranno le esigenze di retail intelligence nel prossimo futuro è opportuno prepararsi adottando infrastrutture e modelli organizzativi innovativi. “Per quanto riguarda l’infrastruttura di computing – interviene Roberto Missana, Partner Sales Specialist Datacenter, Cisco – quella che propone Cisco è stata concepita pochi anni fa pensando alla virtualizzazione, al cloud e alle nuove applicazioni. La fortuna di Cisco è che, non avendo una storia pregressa di computing, si è trovata a dover sviluppare qualcosa di nuovo. Vi posso assicurare che, per ottenere quei requisiti di semplicità, velocità e sicurezza nel deployment delle nuove applicazioni, è più facile progettare da zero una nuova infrastruttura di computing piuttosto che adattare tecnologie pre-esistenti nella propria offerta. Le nuove soluzioni, inoltre, devono essere concepite per erogare in modo rapido e sicuro applicazioni accessibili sia con client tradizionali sia in mobility, nell’ottica del Bring your own device. Anzi del Choose your own device”.

La possibilità di analizzare le informazioni in maniera pervasiva non può essere però sfruttata fino in fondo senza procedere, oltre che con l’introduzione di nuove infrastrutture, anche a cambiamenti culturali e organizzativi in azienda. “Vanno individuate nuove competenze – sottolinea Uberti Foppa – come quelle dei data scientist, figure professionali in grado di individuare nuove opportunità di business attraverso l’analisi dei Big Data”. Si tratta di professionalità, è emerso nel corso dell’incontro, che abbinano competenze di business (per esempio di marketing) a un background tecnologico. “E vanno ripensate – conclude il direttore di ZeroUno – le organizzazioni, per far sì che le nuove informazioni raccolte non restino confinate in silos informativi/analitici ma siano condivise a livello trasversale tra competenze che parlano linguaggi comuni e condividono processi”.


Da Netapp e Cisco una piattaforma unificata e flessibile

Una piattaforma unificata, flessibile e “prevalidata” nei confronti delle soluzioni scelte per supportare l’archivizione e le attività di analisi dei Big Data. Con FlexPod, la “converged infrastructure” progettata e commercializzata da Netapp e Cisco, i dipartimenti It delle aziende non devono preoccuparsi del disegno di quella parte di infrastruttura di un data center dedicata a sostenere e a fornire alle line of business i servizi necessari per applicazioni come quelle di “retail intelligence”. In un’unica “enclosure”, i due vendor hanno infatti integrato tutte le componenti hardware – quali server blade Ucs B-Series, tecnologie storage NetApp Fas, connettività – e software per la virtualizzazione, l’orchestrazione, l’automazione e la protezione dei dati, che fanno di FlexPod un’infrastruttura già pronta, testata, scalabile (in modalità up e out), performante e sicura e flessibile, per supportare diversi ambienti di virtualizzazione e numerosi carichi applicativi. Questo consente ai responsabili It di accorciare i tempi di “delivery” dei servizi richiesti dal business, che possono essere gestiti in toto dal dipartimento It o direttamente dalle line of business attraverso funzionalità di self-provisioning. Netapp e Cisco non si sono fermati alla messa a disposizione di un’infrastruttura hardware e software preconfigurata e prevalidata. Forniscono anche un supporto unificato. Per qualsiasi necessità, i clienti possono infatti rivolgersi a uno solo dei due vendor. Nel caso di FlexPod per Hadoop, il supporto è integrato anche con i servizi di Cloudera.

 

Riccardo Cervelli
Giornalista

57 anni, giornalista freelance divulgatore tecnico-scientifico, nell’ambito dell’Ict tratta soprattutto di temi legati alle infrastrutture (server, storage, networking), ai sistemi operativi commerciali e open source, alla cybersecurity e alla Unified Communications and Collaboration e all’Internet of Things.

Articolo 1 di 5