Prospettive

I nuovi modelli di concorrenza della data economy

Nell’attuale fase di sviluppo economico, i dati rappresentano sempre più la materia prima per la crescita, per l’occupazione, per applicazioni innovative a vantaggio di tutta la società. Affinché queste potenzialità si realizzino è però indispensabile sviluppare un nuovo modello di competizione e superare il rapporto asimmetrico fra chi genera e chi utilizza i dati per produrre valore. È dunque urgente rispondere ad alcune domande: a chi appartengono i big data? Attraverso quali meccanismi automatici (basati su algoritmi e API) si può garantire la libera circolazione dei dati rispettando la privacy? Chi indica le regole?

Pubblicato il 31 Gen 2018

Modelli di concorrenza nella data economy

La data economy valeva nel 2015, secondo le stime della Commissione Europea, più di 285 miliardi di euro, ossia poco meno del 2% del PIL europeo e impiegava 6 milioni di persone; se venissero messe in atto condizioni politiche e legislative per incoraggiare gli investimenti ICT, la data economy potrebbe raggiungere 739 miliardi di euro nel 2020, il 4% del PIL, e impiegare 7,4 milioni di persone. Oltre all’aspetto economico, la data economy può portare imperdibili vantaggi in molti campi come la salute, la sicurezza alimentare, il clima, la gestione efficiente dell’energia, i sistemi intelligenti per i trasporti, le smart city. Inoltre è proprio sull’apporto continuo di grandi masse di informazioni che è possibile sviluppare sistemi di machine learning e intelligenza artificiale che, a loro volta, hanno un impatto importante in differenti ambiti. Anche le imprese che operano in settori tradizionali stanno guardando alla possibilità di sfruttare i propri dati non solo per conoscere meglio il contesto competitivo in cui operano, ma per monetizzarli, rendendosi conto che i dati possono rappresentare una parte fondamentale del loro core business.

Nell’automotive, ad esempio, i dati provenienti dal parco auto servono alle case automobilistiche per migliorare i prodotti e fornire servizi aggiuntivi e di manutenzione preventiva. La domanda è se ci saranno vantaggi anche per i clienti finali che generano questi dati. La risposta è affermativa secondo lo studio McKinsey, Monetizing car data, che ipotizza, in un prossimo futuro, una mobilità offerta gratuitamente al cliente finale in alcuni ambiti specifici in cambio dei suoi dati, del suo tempo e della sua attenzione. Già oggi due terzi dei clienti intervistati si dichiara disponibile, in cambio di miglioramenti delle funzionalità e dei servizi collegati all’auto, a condividere dati di guida e di sistema (percorso, utilizzo del veicolo,…) mentre è minore l’interesse (60%) a condividere dati più personali. Ma si nota una maggiore disponibilità da parte dei clienti più giovani e dei frequent driver.

I dati per una medicina personalizzata

Nella sanità e nel farmaceutico i big data (provenienti da dispositivi digitali e sensori, e-mail, note di medici e infermieri, test di laboratorio e fonti di terze parti al di fuori dell’ospedale) sono essenziali per migliorare le diagnosi e personalizzare le terapie: nella medicina di nuova generazione si ritiene che raccogliere e collegare tutte le informazioni relative a un paziente offra una visione più completa per il miglioramento della cura, la gestione della salute delle popolazioni, il coinvolgimento del paziente, eliminando analisi ridondanti e costose, riducendo gli errori nella somministrazione e nella prescrizione di farmaci e aiutando a prevenire le morti evitabili.

“La progressiva affermazione dei big data fornisce alle aziende farmaceutiche l’opportunità di ottenere nuove conoscenze che possono migliorare e accelerare lo sviluppo di nuovi farmaci”, scrivevano Ryan Copping and Michael Li su The Harvard Business Review nel 2016: parliamo di sperimentazioni più efficaci grazie ai big data e all’analisi predittiva, ma anche di una relazione diretta con i pazienti e i medici tramite social per fornire flollow-up alla ricerca.

Si spinge ancora oltre la ricerca genomica alla base della possibilità di realizzare la cosiddetta “medicina personalizzata”. Come ha spiegato Stefano Ceri, del Politecnico di Milano, responsabile del progetto GeCo (Data-Driven Genomic Computing) nel convegno Big data e privacy. La nuova geografia dei poteri, organizzato dal Garante per la privacy alcuni mesi fa: “Se un farmaco funziona solo per il 20% della popolazione, vuol dire che è inefficace per l’80%. È dunque necessario identificare diverse classi di popolazione per le quali trovare il trattamento giusto, così che l’efficacia terapeutica possa diventare molto maggiore. L’idea di medicina individualizzata è andare oltre l’identificazione generica di una patologia e capire la caratteristica della patologia per ciascuno specifico individuo”. E questo è possibile solo con segmentazioni che arrivano quasi al singolo individuo che potrebbe quindi essere chiaramente identificato: è evidente che la garanzia della privacy e la regolamentazione nel flusso delle informazioni sono quanto mai fondamentali. Come garantirle definendo la ownership e la responsabilità dei dati?

Diventa in ogni caso del tutto inadeguato lo scambio, già oggi in essere, che vede le persone ottenere servizi digitali gratuiti pagando, in modo più o meno consapevole, con i propri dati. Vanno innanzi tutto riconsiderati “i rapporti asimmetrici tra chi fornisce i dati e chi li sfrutta, che si risolvono a favore di questi ultimi e in particolare di coloro che gestiscono le piattaforme digitali e dispongono degli standard tecnologici dominanti”, come ha evidenziato Antonello Soro, presidente dell’Authority per la Privacy, in occasione del convegno sopra citato, sottolineando che preservare la fiducia degli utenti nello spazio digitale e nelle sue potenzialità è essenziale per il futuro dell’innovazione: “I dati rappresentano la proiezione digitale delle nostre persone, aumenta in modo esponenziale anche la nostra vulnerabilità”, ha ricordato.

Vecchie regole e qualità degli algoritmi

Un caso particolare è il settore bancario. La direttiva europea PSD2 (XS2A), che entrerà in vigore nel 2018, prevede che le banche, con il consenso dei clienti, mettano a disposizione le informazioni sui conti correnti, tramite API aperte, per consentire a terze parti di costruire servizi finanziari “sopra” i dati e le infrastrutture bancarie. Ciò produrrà uno spostamento significativo della proprietà tradizionale dei dati, fino ad oggi sotto il controllo delle banche, che saranno costrette a metterli a disposizione di potenziali concorrenti.

La sfida per le banche viene dai giganti del digitale che spesso hanno una relazione più stretta e informazioni più approfondite sui clienti delle banche stesse. La sfida non sarà tanto sul possesso dei dati grezzi quanto sugli algoritmi capaci di estrarre informazioni significative: “Ciò che conta soprattutto è la qualità degli algoritmi che elaborano i dati e il talento dell’azienda che li ha ottenuti. Il successo di Google deriva dalle ricette, non dagli ingredienti”, sosteneva Hal Varian, capo economista di Google, in un servizio pubblicato da The Economist (Maggio 2017) dedicato al tema dei dati.

In questo contesto, non si tratta quindi di ridefinire solo i diritti degli utenti finali, ma anche nuovi modelli di concorrenza. Raccogliendo e rielaborando i dati, un’azienda ha infatti l’opportunità di migliorare i suoi prodotti che attraggono così più utenti, generando più dati e così via, in un circolo virtuoso.

“Chi possiede il profilo dei consumatori indirizza la produzione commerciale verso specifici modelli di utenza, così da assecondarne i gusti e insieme orientare selettivamente le scelte individuali”, ha spiegato ancora Soro, mettendo in guardia dai rischi derivanti dal fatto che un numero ridotto di grandi player abbia il monopolio delle ricerche su web, controlli il settore mobile, possieda le principali piattaforme per la distribuzione delle applicazioni che si appoggiano su infrastrutture cloud, sulle quali sono costretti ad “appoggiarsi” anche tutti i possibili concorrenti.

“Ma se una buona regolamentazione è essenziale, essa non è da sola sufficiente per affrontare l’impatto di questi processi sulle nostre società”, ammette Soro.

Una maggior condivisione delle informazioni può essere l’antidoto alla concentrazione e al monopolio in poche mani, garantendo la privacy, che non può però diventare lo schermo dietro cui trincerarsi per l’immobilismo, come ha sottolineato Diego Piacentini, Commissario del governo per Innovazione e Digitale, nello stesso convegno.

L’Europa libera i dati

La strategia europea vuole evitare il rischio che un diritto esclusivo di ownership blocchi l’accesso ai dati e la loro libera circolazione all’interno della UE, che appare invece cruciale per lo sviluppo della data economy.

La Commissione Europea ha già dichiarato l’intenzione di applicare ai dati le regole del Trattato sulla libera circolazione del mercato interno, promuovendo la revisione di tutte le leggi e delle prassi amministrative interne agli Stati membri che possono in qualche modo ostacolare la libera circolazione dei dati, fatte salve quelle speciali protezioni per informazioni e dati di “interesse generale”.

L’economia dei dati è una combinazione di dati del settore pubblico e privato, dati personali e non personali. Il regolamento generale sulla protezione dei dati (GDPR) regola completamente il trattamento dei dati personali all’interno dell’UE, compresi quelli generati automaticamente dalle macchine o dati industriali che identificano o rendono identificabile una persona fisica. Tuttavia, il GDPR non copre l’accesso e il trasferimento di dati non personali.

C’è dunque consapevolezza che siano ancora da definire aspetti politici e giuridici sulle responsabilità su dati non personali generati automaticamente, le responsabilità per prodotti e servizi basati sui dati, la portabilità dei dati non personali, nel caso, ad esempio di trasferimento di dati aziendali da un fornitore cloud a un altro.

Per accelerare la transizione, la Commissione sta anche investendo 534 milioni di euro nella ricerca e nel programma Horizon 2020 che vede un partenariato pubblico-privato su Big Data Value. Si sta studiando un framework per la gestione dei dati e una regolamentazione che coinvolga più attori presenti sulla catena del valore dei dati (progetto Toreador finanziato in ambito H2020).

Italia: rendere anonimi i dati, “datificare” le leggi

Anche il nostro Paese, sembra avviato ad affrontare il tema. Piacentini, nel convegno sopra citato, ha dichiarato: “Stiamo creando un’architettura Big Data in grado di centralizzare, elaborare e distribuire i dati in maniera sicura e scalabile. L’obiettivo è valorizzare i milioni di dati a nostra disposizione, un asset prezioso che al momento non è fruibile o utile né per la PA né per i cittadini”. Il riferimento è al progetto Data & Analytics Framework (DAF), inserito nel Piano Triennale per l’informatica nella Pa 2017-2019, costituito da una componente architetturale e da un team di data scientists, data architect ed esperti di dominio. La prima ha il compito di centralizzare e conservare (data lake), elaborare e armonizzare (data engine) e distribuire (layer di comunicazione) i dati, sia in modalità batch sia real-time.

La seconda componente mette al centro il tema delle competenze tecnologiche di cui la Pubblica Amministrazione deve disporre anche al proprio interno, essenziali non soltanto per la componente Big Data. Non si entra nel merito delle competenze specifiche ma della necessità della PA di dotarsi di figure professionali competenti anche in campo tecnologico: “Il vecchio paradigma secondo il quale il pubblico dovrebbe occuparsi di norme e policy, mentre il privato di creare nuove tecnologie è superato dalla velocità con cui queste si sviluppano”, ha ricordato Piacentini. Il successo del progetto DAF è la condizione per uscire dai silos, seguendo il principio di interoperabilità, garantito non più dal concetto ormai obsoleto di convenzione, ma dalle API, pur mantenendo l’idea di accesso regolamentato. “Un tema importante è rendere anonimi dei dati [al fine di poter effettuare analisi senza risalire all’individuo ndr]. Per farlo si deve utilizzare un algoritmo, che deve essere continuamente aggiornato e che non permetta il reverse engineering [ossia la possibilità di trovare un meccanismo capace di risalire alle identità di partenza ndr], garantendo un’architettura a sicurezza elevata”, ha sottolineato Piacentini.

Un’altra prospettiva è la lex datification, la “datificazione delle leggi”, per analizzare, correlare, ottimizzare le leggi attraverso l’analisi dei milioni di parole che le compongono: “Ci potrebbe aiutare a capire quali leggi non sono mai state utilizzate, e quindi sono completamente inutili, o quali siano da migliorare”, ha aggiunto Piacentini.

In conclusione, pur cominciando a emergere la consapevolezza che i vecchi paradigmi di privacy e di competizione sono messi in discussione dalla data economy, faticano ad emergere nuovi modelli che necessariamente devono avere un’accettazione e una governace mondiale. I dati, come gli uccelli migratori, non rispettano infatti i confini.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4