Telco e Media: pronte alla sfida dei Big Data? | ZeroUno

Telco e Media: pronte alla sfida dei Big Data?

pittogramma Zerouno

Telco e Media: pronte alla sfida dei Big Data?

Conoscenza del cliente/utente, del suo comportamento, della sua vita sociale/digitale, della sua capacità di influenzare o essere influenzato dalla comunità… sono queste le esigenze primarie che spingono due aziende come Fastweb e Mondadori a ragionare sull’opportunità di analisi dei Big data. Un’opportunità che però, ad oggi, rappresenta ancora una sfida, con qualche criticità da superare.

12 Apr 2012

di Nicoletta Boldrini

Lo abbiamo affrontato più volte tra le pagine del nostro giornale il tema della “conoscenza utile alle decisioni di business”, una conoscenza che deriva sostanzialmente dal patrimonio informativo che l’azienda riesce a costruire nel corso del tempo attraverso la raccolta, archiviazione e fruizione, protezione e scambio di dati. Un argomento noto ma che non ha mai fine, perché i dati cambiano e con essi, appunto, le informazioni utili ad accrescere il patrimonio su cui definire le strategie di business, impostare le decisioni e gli obiettivi. Un tema che da un anno circa trova nei Big data il nuovo “fil rouge” e porta le aziende a fare i conti con grandi mole di dati, diversificati, destrutturati, provenienti da vari canali e fonti.

Sulla base di queste valutazioni abbiamo chiesto a due rappresentati dei settori Telco e Media, Federico Giannini (nella foto a sinistra), responsabile Sistemi Corporate di Fastweb, e Alessandra Chiuderi (nella foto a destra) responsabile Crm del Gruppo Mondadori, di condividere con ZeroUno alcune considerazioni sul tema visto dalla prospettiva delle loro specifiche aziende che dai Big data hanno sicuramente molto da guadagnare.

Fastweb, nello specifico, uno dei principali operatori di telecomunicazioni su rete fissa in Italia, attraverso una rete “all IP”, con accesso in fibra e xDSL, è un’azienda che è riuscita a realizzare la convergenza tra telefonia, Internet e televisione, offrendo una gamma di servizi sfruttando proprio la banda larga. “L’analisi dei dati, per una realtà di questo tipo, è fondamentale, soprattutto alla luce della forte concorrenza che si è venuta a creare in un mercato libero non più guidato dal monopolio di una sola grande realtà”, esordisce Giannini. “Un mercato libero che ha certamente aiutato Fastweb ad emergere ma che ci costringe a misurarci con un numero di operatori sempre maggiore in un settore dove i margini sono sempre più ridotti”.

E la competitività non è certo un fattore su cui Mondadori può sorvolare. Anche il settore Media ha subìto una notevole trasformazione negli ultimi anni: “Internet, da un lato, ha favorito la diffusione di contenuti, dall’altro, ha spinto gli editori a trovare nuovi canali e nuovi modi per fare informazione, produrre e mettere a disposizione prodotti e servizi editoriali”, riflette Chiuderi. “È evidente che in contesti simili si debbano trovare nuovi scenari di business su cui costruire nuove proposte. E un tale obiettivo non può prescindere dalla conoscenza del dato, in primis quello del cliente/utente, sia esso un dato strutturato o non strutturato”.

Conoscere il cliente: esigenza numero uno

In entrambe le realtà prese ad esame, il numero di utenti, la differente tipologia degli stessi e la varietà dei prodotti e dei servizi offerti “imporrebbe” un sistema di analisi dei dati in grado di aiutare l’azienda a rispondere in modo tempestivo ed efficace alle richieste del mercato. Ma questo, forse, entrambe le società già lo fanno, attraverso sistemi di analisi e di business intelligence. “Fastweb, per esempio, è partita nel 2000 con la costruzione di una base stabile di dati (datawarehouse) con capacità e funzionalità sulle quali siamo poi andati a stratificare funzionalità specifiche per soddisfare i requisiti di marketing, vendite, customer care; tutto in una piattaforma unica, senza stratificazioni tecnologiche”, racconta Giannini. “All’inizio, la nostra esigenza era più orientata all’analisi dei dati di fatturato, dei volumi di traffico, delle attivazioni e disattivazioni dei servizi e dei clienti, ecc.”.

Digital event, 22 giugno
Forum PA > Data driven economy: dalla strategia europea alla nuova governance nazionale
Business Analytics
Business Intelligence

“Oggi – prosegue Giannini – le necessità sono ben altre. Il business vuole conoscere più a fondo il cliente perché è da qui che può ragionare in modo proattivo con offerte mirate, servizi innovativi e diversificati, nuove strategie di prezzo, e altro ancora”.

E parla di conoscenza approfondita del cliente anche Chiuderi raccontando come Mondadori sia partita proprio da qui per definire una strategia di analisi dei dati (a tal proposito rimandiamo la lettura dell’articolo “Dai fondamentali fino all’analisi più raffinata” pubblicato a pag. 64). “La strategia di base, partita necessariamente dalle esigenze del business, si è focalizzata sulla conoscenza del cliente – descrive la manager –. È naturale che l’execution di tale vision sia poi concretizzata da un percorso graduale (anche nel caso di Mondadori si è partiti dalla costruzione di un solido datawarehouse)”.

Opportunità o criticità?

Senza entrare troppo nel merito delle scelte effettuate dalle due società, chiediamo a Chiuderi e Giannini le loro considerazioni circa i punti di criticità e attenzione sui quali un’azienda dovrebbe maggiormente focalizzarsi nell’affrontare i Big data. E la risposta è univoca: “L’analisi e lo sfruttamento dei Big data generano senz’altro conoscenza utile ai fini di business. Vanno però attentamente considerati gli impatti intangibili, quelli cioé non direttamente correlabili alla sola tecnologia, che sono tali da rendere, in questo momento, cautelativo qualsiasi approccio”.

Entrambi i manager concordano nel ritenere le tecnologie di analisi disponibili oggi sufficientemente all’avanguardia per offrire risposte concrete. Giannini inoltre precisa: “Il concetto di dato è cambiato, non parliamo più solo di dati  strutturati e ben classificati. Parliamo di informazioni che hanno fare con il “linguaggio e la mente umana”, in un contesto, che è il Web, in cui la conoscenza non è individuale ma collettiva”. Riportare questi elementi a dei dati per poterli analizzare, correlare, sfruttare, non è certo cosa semplice. Le tecnologie disponibili sul mercato sono più che valide  e consentono di trarre valore anche dall’esplosione dei dati non strutturati connessi ai social network (o, in genere, derivanti da tutti i canali del web 2.0), associando in maniera efficace a questi dati la relativa semantica (quindi il significato)”.

“La criticità maggiore risiede nel trasferimento di queste opportunità per trovare la sponsorship a nuovi investimenti – prosegue Giannini -. Ma lo sforzo non è certamente solo economico. Sistemi di analisi sofisticati come questi hanno, infatti, un impatto importante anche sul piano organizzativo e dei processi”.

Concorda con questa visione anche Chiuderi che sottolinea come nel caso di Mondadori sia stata rilevante la forte sponsorship della direzione Risorse Umane: “Se da un lato la fiducia del top management era necessaria per avere il via libera alla spesa l’appoggio della divisione Hr è risultata fondamentale per il coinvolgimento diretto degli utenti aziendali. È dalle loro esigenze, infatti, che nascono le iniziative su cui la funzione Crm predispone gli strumenti tecnologici di supporto alle varie attività (campagne marketing, strategia di comunicazione via e-mail, ecc.): iniziative che tendono sempre di più ad essere “modellate” anche sulla base di analisi di dati destrutturati (per esempio che emergono dall’analisi del comportamento del cliente sui social network)”.

Quale roadmap?

Per finire chiediamo ai nostri interlocutori come vedono il “percorso ideale” per affrontare adeguatamente le nuove sfide legate all’analisi dei dati (o meglio, all’amplificazione di queste sfide generata dai Big data).

“Non esiste” sembrano rispondere ancora una volta condividendo pensieri e visione. “Ogni realtà deve crearsi il proprio percorso – riflette Giannini – perché benché le esigenze siano simili (conoscenza della clientela, maggior efficacia nella proposta commerciale, miglior tempestività e proattività nell’offerta di soluzioni e servizi, ecc.), le strutture organizzative, le persone, i processi e le capacità di spesa sono differenti”.

Chiuderi aggiunge una riflessione sull’approccio graduale: “Come per qualsiasi tipo di iniziativa non possiamo limitarci a guardare solo una delle sfere coinvolte (per esempio l’It); il progetto di analisi dei Big data deve tenere conto di tantissime variabili e degli impatti che genera su più livelli, da quello infrastrutturale fino al modo di lavorare delle persone. Ecco perché è sempre consigliabile, a mio avviso, partire da piccoli progetti sperimentali e misurabili: è fondamentale riuscire a valutarne il ritorno, economico o di valore qualitativo che sia, altrimenti il rischio di fallimento diventa più alto con il progetto successivo”.

E visto che non esiste un percorso univoco, sia Chiuderi sia Giannini esprimono un personale commento sul ruolo dei vendor in progetti così complessi in assenza ancora di quella massa critica data da best practice ed esperienze che stimolano la fiducia delle aziende. Entrambi sembrano voler invitare i vendor Ict a “rischiare” un po’ di più, “cercando una formula, che sia naturalmente profittevole per tutti, in cui sia l’azienda utente sia il vendor siano direttamente coinvolti nella sperimentazione e nell’attuazione di progetti pilota su cui costruire insieme quell’esperienza e maturare quelle best practice necessarie per proseguire il cammino con iniziative progettuali di più ampio respiro”.

Nicoletta Boldrini

giornalista

Segue da molti anni le novità e gli impatti dell'Information Technology e, più recentemente, delle tecnologie esponenziali sulle aziende e sul loro modo di "fare business", nonché sulle persone e la società. Il suo motto: sempre in marcia a caccia di innovazione #Hunting4Innovation

Articolo 1 di 5