Information Management “estremo” e spinta alla “Data economy”

Big data emerge come tema bollente dal crogiuolo in cui si fondono la proliferazione del mobile computing, lo sforzo aziendale di sintonizzarsi sui social network e, sullo sfondo, la transizione al cloud computing.
A Regina Casonato, Managing Vice President in Gartner, abbiamo chiesto di inquadrarci il fenomeno sotto il profilo delle criticità legate a una efficace gestione aziendale, nonché l’evoluzione verso una “economia dei dati”

Pubblicato il 10 Mag 2012

Per la decade di qui al 2020 le attese del 73% di Ceo e Senior Business Executive sono di un maggior contributo strategico da parte It: a dirlo sono i dati emersi da una recente ricerca Gartner (The 2012 Gartner Ceo and senior business executive survey) che Regina Casonato, Managing Vice President in Gartner, commenta così: “Contributo strategico altro non è che informazione rilevante per i risultati del business. Il messaggio ai Cio è che l’It deve rendere l’informazione più consumabile dal business e i dati vanno ormai estratti o minati in rete oltre che nell’It aziendale, per cavarne informazione o intelligence”.

Il concetto di Big data ha inerenti complessità multidimensionali, in cui pesano non solo enormi volumi come dice il termine, ma anche velocità e varietà. “La sfida più generale è la consumabilità di dati condivisi (shared data), articolata su quattro dimensioni (figura 1): “più dati” (in quantità sterminate, Big data); “più fonti” (crescente varietà di fonti, che richiede trasparenza, cioè open data); “più contesto” (in relazione al quale soltanto i dati destrutturati sono interpretabili (linked data); e “più relazioni” (ad esempio affinità colte con i social data).

Insomma bisogna catturare tutte le informazioni derivabili dai shared data – osserva Casonato – ma non basta catturare, serve effettuare l’analisi “in tempo reale”, anche su dati appena estratti, se si vogliono abilitare decisioni operative sul business in corso o sulle sue evoluzioni previste”.

In altre parole: “Big data si può indirizzare solo ripensando e ri-architettando le modalità con cui i dati vengono consumati, prodotti e condivisi dentro e fuori i confini aziendali”, puntualizza l’analista.

Un'Eim consapevole ed "estremo"

“Nella ricerca Gartner “Eim nel 21° secolo” – dice Casonato – sono state analizzate sei coppie di criticità complementari tra le quali l’Eim (Enterprise Information Management) dovrà destreggiarsi, perché ciascuna, se fuori controllo, può sopraffarlo. Sulla base di queste criticità indivuate dalla società di analisi, ne consegue una sorta di modello a cui far riferimento nella definizione di un piano di Eim “estremo” che tenga conto “by design”, cioé fin dalla progettazione, delle eventuali difficoltà di gestione (che possono nascere appunto da criticità tra loro complementari).

Entrando nel dettaglio, una gestione “consapevole” dell’Eim deve tenere conto, secondo il modello definito da Gartner, di 12 differenti criticità (riunite in sei coppie complementari – figura 2).

La prima coppia indirizza aspetti quantitativi, “volumi e varietà di dati”, complementari alla coppia di criticità identificata da “velocità e complessità”. I volumi sono proiettati a crescere del 40% annuo con una varietà di informatizioni che viene dalla proliferazione delle fonti. La velocità di crescita (di volumi e varietà di dati) genera complessità (di cattura dei dati, archiviazione, gestione, fruizione, protezione, ecc.). Proseguendo nell’analisi del modello di Gartner, le due coppie successive riguardano l’accesso ai dati: da un lato, abbiamo la coppia di criticità “classificazione-uso pervasivo” che suggerisce di gestire l’Eim in modo da bilanciare l’uso pervasivo dei dati attraverso l’abilitazione di controlli specifici (per esempio con il controllo degli accessi agli asset informativi); dall’altro, c’è la coppia “contratti-tecnologia”, possibile criticità nell’accesso ai dati quando, per esempio, si ricorre a contratti di outsourcing o a servizi cloud.

L’ultimo dei tre cerchi (sempre figura 2) fa riferimento alla necessità di gestire consapevolmente “quality and assurance” dell’informazione: in questo caso, le coppie di criticità da prendere in considerazione sono “fedeltà e validazione” e “collegamento e deperibilità” dei dati.

L’impatto di Big data sulla Data Economy

La buona notizia è che Big data, una volta indirizzate le sfide tecnologiche e di processo, “produce una spinta importante verso il data sharing”, osserva l’analista, “che non è certo nato adesso. In ogni settore d’industria, c’è da sempre una tensione verso una gestione economica del dato con una traiettoria che si ferma nel punto in cui l’incentivo a ridurre i costi è contrastato da un livello di fiducia che non consente di andar oltre (figura 3).

In questa tensione i dati passano attraverso quattro stadi (confinati a silos aziendali, scambiabili tramite servizi reciproci, scaricati in un pool a di utenti, co-creati in “Common” dove sono liberamente fruiti)”.

“Per sfruttare i Big data le aziende saranno indotte ad investire in “asset informatici” sempre più condivisi (dalla capacità computazionale a quella storage fino agli strumenti di monitoraggio e analisi dei dati), attratte in questa collaborazione virtuosa dalla stessa competizione per l’intelligence di un patrimonio informativo di settore sempre più vasto e condivisibile, alla ricerca di “percezioni di segnali” (insight) che creino vantaggio competitivo per tattiche marketing e strategie business”, puntualizza Casonato. “Esempi? Intelligence di customer experience, Fraud detection, Security intelligence, analisi dei segnali di opportunità o rischi in avvicinamento, ecc.”.

L’avvento di questa “coopetizione da effetto Big data” è per ora solo un’autorevole previsione di Gartner. I casi di successo finora vanno poco oltre uno stadio 1; sono tipiche estensioni in rete del silos aziendale: il programma fedeltà della società Tesco, per esempio, produce un immenso patrimonio di dati dei clienti in rete da cui l’It estrae informazione per promozioni a segmenti di clientela. Amazon alimenta con i dati dei clienti il suo “motore di raccomandazioni” (You may also like..). Il motore del fenomeno Facebook, invece, è proprio il pool di informazioni prodotte dai suoi utenti.

“C’è da riflettere su una metafora: come nell’era industriale il materiale grezzo era carbone e petrolio, e i progressi verso l’economia dell’energia sono venuti dalla scoperta e sfruttamento di grandi risorse in pool, così nell’era digitale il materiale grezzo sono i dati e il progresso verso l’economia dei dati non potrà che venire da pool di dati”, osserva Casonato. “Un vasto patrimonio informativo comune costituito da dati aperti, collegati e condivisibili è stimato nella sola Ue in decine di miliardi di euro”.

L’economia dei dati innescherà nuovi modelli di business ed equilibri del valore, basati su information asset condivisibili. “Sarà cruciale il ruolo degli Enterprise architect nel pianificare e articolare i cambiamenti organizzativi aziendali per raccogliere la sfida dell’età del Data sharing”, sottolinea Casonato.

In uno scenario Big data, una volta superata la sfida tecnologica di un Enterprise Information Management “estremo”, che resista allo stress delle criticità combinate, resta una sfida cruciale di processo per l’Enterprise Architect: “definire il processo che trasforma l’informazione da dato a percezione del significato (insight)”. Un processo che descriva, organizzi, integri, condivida e governi l’informazione prodotta dalle fonti più disparate, in modo da abilitarne il consumo da parte dei casi utenti più specifici”, conclude Casonato.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4