Cos’è Wiki Writing: scrittura collaborativa con i lettori di ZeroUno

Pubblicato il 14 Mar 2014

Wiki Writing è un meccanismo di co-creazione di articoli realizzati dai lettori di ZeroUno sulla base di esperienze, riflessioni, idee ed opinioni sui temi di attualità dell’Ict e del rapporto tra questo e lo sviluppo del business. I contributi che trovi sotto sono stati inviati dalle persone invitate a partecipare e costituiranno un vero e proprio servizio scritto a più mani. Da noi assemblato e arricchito sarà pubblicato sul sito e sulla rivista ZeroUno.
I contenuti del progetto Wiki Writing verranno condivisi sui social network e con la Community di ZeroUno.

[Se vuoi avere maggiori informazioni per partecipare al progetto Wiki Writing scrivi a redazione@zerounoweb.it segnalandoci anche le tematiche sulle quali ti piacerebbe fornire il tuo originale contributo]

La tematica di questo Wiki Writing è

Big Data/Analytics: competenze, nuova organizzazione, scelte tecnologiche. Costruire le basi per lo sviluppo di nuove opportunità di business

di Stefano Uberti Foppa, Direttore di ZeroUno

 

L’importanza delle competenze in un cambiamento continuo

di Paolo Manzoni,  Head of Research & Innovation, A2A

L’Ict è da sempre un mondo meraviglioso dove confluiscono la  concretezza delle tecnologie in continua evoluzione e l’evanescenza delle mutanti terminologie con le quali sono proposte al mercato, che stimolano la fantasia e generano crescenti aspettative in quanto tutte portatrici di enormi benefici e profitti sia abilitando la leva dell’ efficienza che quella più ambita della trasformazione e innovazione del business…big data , cloud computing, byod, social enterprise, real time enterprise , analytics…

Clicca qui per continuare la lettura

 “Big Data”
in Vodafone

di Stefano Takacs, Head of South Europe It Operations di Vodafone

Vodafone deve gestire i dati di circa 300 milioni di clienti. Per la gestione di questi dati, solo in Europa, abbiamo circa 20.000 servers e 20 PetaBytes di storage, consolidati in 3 principali Data Centers, siti in Italia, Germania e Irlanda.
Le tipologie di dati gestite sono le seguenti:
– Dati “enterprise” tradizionali: informazioni clienti, transazioni commerciali, transazioni ERP
– Dati “machine generated”: Call Detail Records, dati di traffico, allarmi, server logs, tracciamento accessi

Clicca qui per continuare la lettura

L’evoluzione e le sfide in un mondo di Big Data

di Jean Pierre Giannetti, Country Manager di Microstrategy

Per la prima volta nella nostra storia stiamo assistendo ad una svolta epocale per la quale, grazie ai Big Data e agli Analytics, si possono immagazzinare quantità teoricamente infinite di dati, offrendo la possibilità agli utenti (aziende o istituzioni) di compiere analisi e previsioni su fenomeni complessi partendo non da campioni statistici ma dalla totalità delle informazioni..

Clicca qui per continuare la lettura

LEGGI ANCHE I CONTRIBUTI DI WIKI WRITING SULLA TEMATICA “CIO, PRIMA ANCORA DELLE SCELTE, ESISTE LA CONSAPEVOLEZZA?”

————————————————————————————————-

Leggi tutti i contributi di Wiki Writing

L’importanza delle competenze in un cambiamento continuo

di Paolo Manzoni,  Head of Research & Innovation, A2A

L’ict è da sempre un mondo meraviglioso dove confluiscono la  concretezza delle tecnologie in continua evoluzione e l’evanescenza delle mutanti terminologie con le quali sono proposte al mercato, che stimolano la fantasia e generano crescenti aspettative in quanto tutte portatrici di enormi benefici e profitti sia abilitando la leva dell’ efficienza che quella più ambita della trasformazione e innovazione del business…big data , cloud computing, byod, social enterprise, real time enterprise , analytics…

… la lista potrebbe continuare riempiendo pagine di nomi che identificano una tecnologia, una offerta specifica, una soluzione, una visione ecc. Eppure dietro a ciascuna di queste parole c’è , esiste una “ricetta” che include vari ingredienti, hardware, software e servizi la cui opportuna miscelazione e “cottura” può consentire di realizzare il dolce desiderato : il vantaggio competitivo. Uso questa metafora della ricetta perché la qualità del risultato molto dipende sempre dal “cuoco” a parità di strumenti e bontà degli ingredienti. Ma tornando alla realtà dell’ ICT il problema è che la ricetta richiede sempre la compartecipazione di numerose persone e diversificate competenze perché non può essere realizzata da un solo cuoco. Qui iniziano le difficoltà, e prima tra tutte l’armonizzazione – condivisione dell’obiettivo, della sua concreta raggiungibilità, del percorso necessario per raggiungerlo, delle risorse necessarie, dei limiti,  dei vincoli e rischi. Fatto questo che a sua volta dipende dal contesto (organizzazione, risorse finanziarie, skill necessari, strumenti , vincoli normativi, tempi disponibili ecc.) del quale spesso l’ICT controlla ben poco navigando a vista in un mondo che accelera continuamente modificando a volte anche i fondamentali.
Di “analytics” ne ho sentito parlare dal primo giorno di lavoro, ma per molti anni si sono considerati solo i dati disponibili e tendenzialmente generati all’interno dell’azienda. Poi si è sviluppata l’aggregazione di dati interni e dati esterni, ma sempre di tipo discreto e orientati alla analisi e alla statistica.
Oggi però sta cambiando il paradigma: l’intero mondo reale è sul punto di acquisire una nuova dimensione fisico-virtuale rappresentata dai “dati caratteristici” che ogni oggetto/soggetto possiede in un dato istante e dalla sua capacità di comunicarli, condividerli o perfino elaborarli insieme a quelli di altri oggetti con cui interagisce: l’internet delle cose.  Rispetto a questo nuovo paradigma l’aspetto più lacunoso, e  a mio avviso più diffuso, è la limitata abitudine al “cambiamento continuo” che le aziende italiane intrinsecamente hanno. Anche quando avviano progetti di trasformazione puntano ad un “nuovo stato di equilibrio” con l’aspettativa che possa durare per molto tempo. Credo che l’internet delle cose potrebbe rendere i processi, i sistemi, le organizzazioni , i modelli di business ,ecc.  talmente variabili e così velocemente che molte aziende potrebbero non essere attrezzate e allenate ad adeguarsi per sopravvivere prima ancora di poter cogliere opportunità in anticipo rispetto alla concorrenza.
Il mio invito è quello di riscoprire l’importanza delle competenze professionali approfondite, di valorizzare le capacità e l’esperienza concreta delle persone che si sentono realizzate quando progrediscono nella conoscenza , curiose del nuovo, e invito inoltre a sviluppare un’attitudine al cambiamento e alla compartecipazione, perché più che mai, nei momenti di crisi e/o di cambiamento, sono le persone di valore che fanno la differenza.

Torna ad inizio pagina


“Big Data” in Vodafone

di Stefano Takacs, Head of South Europe It Operations di Vodafone

Vodafone deve gestire i dati di circa 300 milioni di clienti. Per la gestione di questi dati, solo in Europa, abbiamo circa 20.000 servers e 20 PetaBytes di storage, consolidati in 3 principali Data Centers, siti in Italia, Germania e Irlanda.
Le tipologie di dati gestite sono le seguenti:
– Dati “enterprise” tradizionali: informazioni clienti, transazioni commerciali, transazioni ERP
– Dati “machine generated”: Call Detail Records, dati di traffico, allarmi, server logs, tracciamento accessi
– Dati “social”: feedback dai clienti, accessi al web, knowledge management, commenti sui forum, blog, email
Attraverso i sistemi di Business Intelligence analizziamo questi dati con le seguenti finalita’:
– Comportamento e segmentazione del cliente
– Network Quality (capacity planning, piani di copertura)
– Sicurezza: violazioni e frodi
– CRM: profili clienti
– Simulazioni di marketing e previsioni
Tutti questi dati stanno crescendo molto velocemente e, per far fronte a questa crescita, le principali azioni implementate sono:
– Rinnovo tecnologico sullo storage, con utilizzo di box ad elevatissima capacita’ ed molto performanti
– Rinnovo dei sistemi di backup con dischi ad elevate performance
– Introduzione di data warehouse appliance
Ma i “big data”, come sappiamo, non si limitano ai soli dati strutturati, ma includono la conservazione e l’analisi di dati non strutturati in real time. Questo tipo di approccio e’ in Vodafone in piena evoluzione e ha diversi tipo di impatti: finanziario, organizzativo e commerciale. Finanziario, perche’ richiede l’investimento in HW e SW di nuovi sistemi di BI, con la capacita’ di gestire adeguatamente la reportistica. Organizzativo, perche’ tali sistemi richiedono una specializzazione sia nell’area tecnologica, che in quella del marketing. Commerciale, perche’ i dati analizzati real time devono poter essere utilizzati attraverso una adeguata struttura commerciale e attraverso opportuni modelli di offerta.
Al fine di poter gestire la crescente pressione competitiva, tutto questo richiede un processo di trasformazione profondo, ma necessariamente rapido; un viaggio che Vodafone ha gia’ iniziato ad intraprendere.

Torna ad inizio pagina


L’evoluzione e le sfide in un mondo di Big Data

di Jean Pierre Giannetti, Country Manager di Microstrategy

Per la prima volta nella nostra storia stiamo assistendo ad una svolta epocale per la quale, grazie ai Big Data e agli Analytics, si possono immagazzinare quantità teoricamente infinite di dati, offrendo la possibilità agli utenti (aziende o istituzioni) di compiere analisi e previsioni su fenomeni complessi partendo non da campioni statistici ma dalla totalità delle informazioni.

È in questa arena che si stanno affrontando in maniera totalmente nuova le sfide della modernità, della competizione, dell’evoluzione verso nuovi modelli di business, in cui informazioni parziali e generali vengono soppiantate dall’esattezza dei dati e si assiste ad un processo di grande democratizzazione e disponibilità del singolo dato all’interno di una stessa organizzazione. E’ cioè possibile trasformare ogni cosa in dati. Mi riferisco ad esempio ai nostri interessi e alle nostre sensazioni tramite i like di Facebook e gli aggiornamenti di Twitter, che possono essere trasformati in informazioni in un meccanismo che coinvolge sempre di più chi in passato non aveva accesso ad alcun tipo di informazione o gestiva informazioni molto parziali. Astraendosi per un attimo dal mondo delle aziende, possiamo pensare che attraverso i Big Data e gli Analytics sia possibile ad esempio conoscere gli umori e le emozioni di un elettorato, studiare l’evoluzione di una data malattia o analizzare in modo nuovo i segnali che ci provengono dallo spazio. Ogni giorno nel mondo vengono creati miliardi di dati digitali, che servono sia alle aziende che alle istituzioni. In questo contesto, l’elaborazione dei “Big Data” richiede elevate capacità di calcolo, tecnologie e risorse che vanno ben al di là dei sistemi convenzionali di gestione e immagazzinamento dei dati.

Ciò significa passare dalle piattaforme ‘tradizionali’ di Business Intelligence a sistemi più sofisticati di Analytics e tecnologie per la gestione di Multi-Terabyte di dati, ossia dei Big Data.  L’evoluzione delle piattaforme tecnologiche, di fatto, rispecchia quella che è stata l’evoluzione del dato aziendale negli ultimi anni. Fino a qualche anno fa, per esempio, erano solamente il management aziendale e pochi altri utenti ad utilizzare le dashboard di Business Intelligence; oggi, la necessità di capire in real-time come si evolve l’azienda interessa tutti coloro che prendono una decisione in azienda, qualunque essa sia. Oggi le tecnologie Big Data possono memorizzare enormi volumi di informazioni, ma la loro distribuzione interattiva a migliaia di utenti è una sfida molto ardua. Servono allora tecnologie differenti, basate sulla centralità delle informazioni, self-service e disponibili su mobile, cloud, web o sui desktop degli utenti.

E ciò non basta ancora: le sfide imposte dai Big Data non si esauriscono con la tecnologia; c’è ancora molto da fare dal punto di vista delle competenze.

Quelle di “data science” sono competenze di programmazione e di analytics riferite proprio all’ambito Big Data che oggi raramente si trovano sul mercato. I data scientist sono professionisti che hanno buone competenze di base di matematica e analisi, ma sono anche persone che devono conoscere i nuovi linguaggi di programmazione statistica come R, le nuove tecniche di analytics modeling, tutto ciò che riguarda il dato e avere la capacità e il coraggio di “sperimentare con i dati a disposizione” per ottenere i risultati richiesti. Nel passato, gran parte del lavoro dei data scientist avveniva all’interno delle università. Si tratta oggi da uscire dagli ambiti accademici per gestire i Big Data delle grandi organizzazioni.

Non dimentichiamo, inoltre, le problematiche tecniche legate alle competenze di chi si trova a gestire database di terabyte di dati, di amministrare framework come Hadoop e conoscere noSQL, Cassandra o HBase. Da un punto di vista funzionale, ancora, è necessario che il data scientist abbia un’ampia visione dell’azienda, la conosca molto bene in ogni suo ambito, dal basso verso l’alto, per essere in grado di utilizzare le corrette leve ed ottenere i risultati attesi.

Le sfide aperte sono dunque moltissime e nonostante oggi si parli di Big Data e Analytics prevalentemente nell’ambito enterprise, sono convinto che ben presto questi temi diventeranno realtà tangibile anche negli aspetti “privati” del vivere quotidiano.

Torna ad inizio pagina


Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati