Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

La tutela dei dati personali per costruire cittadini digitali

pittogramma Zerouno

Elezioni Politiche 2018

La tutela dei dati personali per costruire cittadini digitali

13 Feb 2018

di Massimo Rosso

La politica dovrebbe avere fra le priorità quella di creare cittadini consapevoli e responsabili nell’uso degli strumenti digitali come condizione per una società migliore, visto che oggi la tecnologia si intreccia indissolubilmente con le nostre vite. Temi quali la sicurezza e le fake news andrebbero affrontate alla radice, aumentando la consapevolezza dei cittadini mentre sembra poco efficace limitarsi a delegarne la soluzione ai grandi player della tecnologia e dei social. La normativa europea sulla tutela dei dati personali va dunque vista in quest’ottica: una straordinaria risorsa, non solo di business, ma anche etica, per mantenere la persona nella sua libertà e nella sua responsabilità al centro della società digitale. Ecco le riflessioni di Massimo Rosso, Direttore ICT, Rai

Le mie riflessioni partono inevitabilmente dal mio vissuto in Rai e dall’analisi di come la digitalizzazione abbia inciso e stia incidendo in questi ambiti. La logica della Tv, fino a pochi anni fa, prevedeva una comunicazione “uno a molti” (nel nostro caso, a milioni di persone) con scarsa possibilità tecnica di gestire i feed-back dei telespettatori/utenti del mezzo televisivo. L’arrivo della digitalizzazione è stato considerato, nei primi anni, alla stregua di un abilitatore tecnologico per comunicare su più piattaforme, mantenendo tuttavia la filosofia broadcasting.

Solo successivamente abbiamo percepito la differenza fra una semplice presenza su web e la possibilità di utilizzare Internet per comunicare. Mentre iniziavano queste valutazioni, si è sviluppata enormemente l’internet “umana” e i telespettatori/utenti si sono dotati di device digitali (PC, smartphone, tablet, …); in questo modo abbiamo potuto iniziare a correlare i nostri dati strutturati con le conversazioni su Internet, sviluppando nuove analitiche, facendo così evolvere il concetto di audience verso quello di social listening. Questo percorso porta inevitabilmente a riflettere su cosa stia accadendo nella società digitale e reale.

Abbiamo a disposizione diversi strumenti tecnologici per permettere a chi li utilizza di comprendere maggiormente la realtà e di agire di conseguenza su di essa. I sensori, i social e i mobile media aumentano la capacità di “sentire la realtà”; i nuovi database e logiche di elaborazione aumentano la capacità di “processare la realtà”; l’intelligenza artificiale e la data visualization aumentano la capacità di “comprendere la realtà”; i sistemi di attuazione e reazione in tempo reale aumentano la capacità di “attuare la realtà”. Il salto non è indifferente: si passa dalla capacità di previsione sociale all’anticipazione sociale. È quanto hanno fatto all’inizio gli OTT che necessitavano di più dati sui loro clienti/utenti per migliorare il target dei loro annunci o per promuovere nuovi prodotti. L’estrazione, l’elaborazione, la correlazione e l’integrazione spinta della maggior quantità possibile di dati (c.d. estrattivismo) hanno dato grandi vantaggi ai cittadini, alle aziende e ai Governi. In Rai, ad esempio, ci ha permesso di comprendere quando gli utenti/telespettatori erano stanchi di certi format o quali temi erano divenuti di interesse generale. Ma accanto ai vantaggi, come la (apparente) gratuità, vi è un interesse delle aziende che necessitano dei dati personali, con uno scambio però quasi mai alla pari. Il sociologo Morozov ha posto l’attenzione sui rischi dell’estrattivismo. Con l’arrivo dell’intelligenza artificiale e del deep learning, basati sul data intensive, è diventato chiaro che più dati si inseriscono nel sistema più il meccanismo è efficace, con la conseguenza che chi ha accumulato molti dati ha un nuovo petrolio da fruttare: le grandi quantità di dati raccolti consentono infatti ai sistemi, che “imparano” a conoscere e sfruttare il nostro comportamento, di orientare le nostre scelte non solo economiche ma anche sociali e politiche, intaccando, in ultima analisi, la nostra stessa libertà di autodeterminazione. Eppure su temi importanti come le fake news e la sicurezza, ci si mette nelle mani dei grandi colossi, chiedendo paradossalmente proprio ai giganti del web di vigilare sulle fake e di gestire la sicurezza. I problemi andrebbero invece affrontati alla radice, visto che le fake e i rischi cyber non sono le cause, ma effetti che derivano dalla scarsa conoscenza dei rischi da parte dei cittadini che andrebbero invece informati e formati. La politica ha la grande responsabilità (anche utilizzando gli strumenti tecnologici a disposizione) di aiutare i cittadini a scegliere in modo consapevole. La prima opportunità che vedo è l’attuazione della normativa europea GDPR, che riguarda il tema della protezione dei dati personali e la democratizzazione dell’accesso ai dati.

Come sostiene il sociologo Derrick de Kerckhove, con il concetto di “inconscio digitale”, oggi rischiamo di essere sconosciuti a noi stessi, mentre altri possono estrarre frammenti di noi dalla galassia delle nostre tracce on line. Il digitale è diventato la trama delle nostre vite ed è un agente potente di trasformazione sociale grazie all’impatto sull’esistenza individuale e collettiva. La normativa di protezione dei dati è dunque un fondamentale presidio di garanzia, tanto in termini di diritti esercitabili dai cittadini/consumatori quanto di complessiva responsabilità dei titolari. Va vista come uno strumento per minimizzare il rischio – inaccettabile da un punto di vista culturale – di considerare la cessione dei nostri dati come un prezzo da pagare in cambio dei vantaggi offerti dal mondo connesso. Gli algoritmi, basandosi sul comportamento passato, rafforzano le nostre convinzioni e indeboliscono l’etica del dubbio. Il tema della neutralità dell’algoritmo, dell’equità delle sue soluzioni e della sostenibilità etica e giuridica della tecnologia è una questione democratica cruciale, come ha sostenuto il garante della Privacy, Antonello Soro. In questo contesto, il diritto alla protezione dei dati non solo è una straordinaria risorsa per garantire la libertà della persona nella società digitale, ma può divenire per le stesse imprese un’opportunità di “business etico”. Non tutto quello che è tecnicamente possibile è eticamente consentito. Per definire il limite, vale il vecchio principio che la sfera di libertà di ciascuno finisce laddove inizia la libertà dell’altro individuo. Citando Soro: “in questo scenario, se il diritto in generale svolge oggi sempre più il compito di salvaguardia e ‘umanizzazione’ della tecnica, il diritto alla protezione dei dati, in particolare, è una risorsa straordinaria per mantenere la persona nella sua dignità, libertà e responsabilità, al centro della società digitale”.

In conclusione ritengo che si debba portare l’attenzione su temi fondamentali come la necessità di ricomporre la frattura tra umano e tecnologico, ripensando la relazione complessa tra naturale e artificiale. Sarà necessario avviare un percorso per fondere le culture (umanistica e scientifica) a livello di educazione e formazione. In ultima analisi dovremo promuovere un’educazione critica alla complessità e responsabilità e, in questo scenario, la politica ha una grande opportunità per fare la sua parte.

Massimo Rosso
Direttore ICT, Rai

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

LinkedIn

Twitter

Whatsapp

Facebook

Link

Articolo 1 di 4