Già un visionario come Richard Stallman, padre del movimento Free Software, ammonisce da anni contro le minacce che limitano la libertà individuale nella società digitale. Il tutto, secondo Stallman, ruota attorno alla fruizione di un software non libero che consente il tracciamento e il controllo degli individui. Con una fragilità strutturale importante: oggi non si può lavorare, studiare, giocare, conoscersi su Internet in reale libertà. Ci si muove, molto inconsapevolmente, in una condizione di perenne teorico ricatto, fino a quando, cioè, le aziende di tecnologia saranno disposte, per loro interessi commerciali (o politici, se stiamo parlando di altri soggetti coinvolti), a continuare a rendere disponibili via web i loro servizi. Qual è allora oggi il nostro livello di dipendenza? Qual è il nostro reale grado di libertà operativa e decisionale? Immaginatevi cosa potrebbe succedere se Google, per qualsiasi ragione, non potesse più garantire oggi i suoi servizi. O Amazon. E cosa è successo pochi giorni fa con il black out di alcune ore di WhatsApp, accaduto subito dopo l’acquisizione di Facebook?
Accanto a questo scenario, cresce, come ulteriore fattore incombente sulla libertà degli individui e come potenziale condizionamento di persone, comunità, stati, il controllo delle informazioni. Con la digitalizzazione diffusa della società, con le strategie “smart everything” (smart cities ma anche smart world) che innervano di tecnologia ogni cosa, ogni oggetto (Internet of Things – previsioni di circa 30 miliardi di oggetti interconnessi entro il 2020), la produzione di dati è destinata, sappiamo, a raggiungere livelli che sono superiori, considerando soltanto gli ultimi anni, a tutti i dati generati nella storia dell’umanità.
Il modello cloud, inoltre, non è solo un paradigma di flessibilità e di fruizione di applicazioni e di servizi per le imprese, ma anche, e soprattutto, per le persone. Che sta moltiplicando la produzione di dati. Gli utenti privati hanno ormai un ruolo importante nell’area, ad esempio, della memorizzazione dei dati (un parametro abbastanza preciso per analizzare l’evoluzione digitale della società). Gartner prevede che il 36% di tutto il contenuto digitale dei singoli utenti sarà memorizzato in cloud entro il 2016 e che la richiesta di capacità a livello mondiale aumenterà dai 329 exabyte del 2011 ai 4,1 zettabyte di dati nel 2016.
E ogni casa, ogni famiglia, con la crescita dei propri figli “digital natives” quanto inciderà in questo trend? Tantissimo. Sempre Gartner stima un aumento della capacità di memorizzazione media di ogni abitazione dai 464 GByte del 2011 a 3.3 Terabyte del 2016, grazie a videocamere, smarthphone, tablet e device vari, con importanti contenuti digitali da memorizzare…”sulla nuvola”. Tutto da garantire con sistemi di sicurezza, sincronizzazione, delivery, high computing.
Ed è proprio questo il “territorio di caccia”, il territorio della conoscenza. È su questo immenso bacino digitale di informazioni e contenuti, che definiscono un preciso profilo di relazioni, gusti, tendenze di ognuno di noi, che l’applicazione di potenti algoritmi di data mining, unitamente a grandissima potenza elaborativa, può generare, da un lato, sconosciute opportunità commerciali ma, dall’altro, anche un potenziale e pericoloso controllo e condizionamento. È un dibattito, quello del controllo e dell’invasività delle macchine sulla vita delle persone, di antiche origini, ma che oggi sta assumendo precisi connotati.
Il tema della Big data analysis apre oggi all’arrivo di sistemi ad altissime capacità elaborative. E parliamo sia di computer tradizionali sia, accanto a questi, di sistemi anche a dimensione commerciale (quindi non più confinati alla fase scientifico-sperimentale) di cognitive computing (architetture e strutture basate su concetti di intelligenza artificiale, memorie parallele, nuovi “neurosynaptic chip” di silicio che consentono ai computer di emulare l’efficienza, l’ampiezza e la capacità elaborativa cerebrale simulando le sinapsi del cervello) per dare risposte mediate da una capacità cognitiva di autoapprendimento del sistema che potrebbe supportare molto meglio degli attuali computer le decisioni umane. Affondando “a piene mani” la loro capacità di analisi proprio in quell’oceano di dati che va rapidamente configurandosi.
Per non parlare dei sistemi ad architetture basate sui principi della fisica quantistica, la cui origine risale ancora alla fine degli anni ‘70 ma che solo nell’ultimo periodo si stanno proponendo in una funzione di analisi di eventi supercomplessi. Una struttura basata sulle proprietà di atomi e nuclei che lavorano insieme come “quantum bit” (qubits) e dalla cui interazione (semplificando davvero al massimo) si genera una proprietà computazionale, per capacità e velocità, esponenziale rispetto ai computer tradizionali (la società canadese D-Wave ha avuto qualche settimana fa l’onore della copertina di Time che presentava il suo sistema, con il titolo Infinity Machine, come la macchina in grado di affrontare elevatissimi livelli di complessità elaborativa).
Questo è il punto di svolta verso cui rapidamente stiamo andando. Una fase in cui a molti problemi, sia di carattere economico e di business, sia, soprattutto, sociale, queste macchine potranno dare precise indicazioni di prospettiva, di intervento, di classificazione, di governance. Pensiamo ad applicazioni nell’ambito della prevenzione ambientale e della sostenibilità, della sanità e dell’ottimizzazione nei sistemi di produzione alimentare per l’intero pianeta e a tantissimi altri ambiti, non solo di business. Poi c’è il lato oscuro della medaglia: chi avrà il controllo di questi sistemi e la capacità (sia economica sia di competenze) di utilizzarli, quale ruolo potrà giocare nel processo evolutivo globale del nostro pianeta? Come si svilupperanno i sistemi economici ma anche politici grazie a questa capacità di analizzare una complessità fino a pochi anni fa inaffrontabile e ora in grado di essere sfruttata?
Sono domande al confine della filosofia, eppure i giochi si stanno facendo oggi (tra l’altro con un approccio fortemente tecnicistico, che della dimensione spirituale, morale e filosofica dell’essere umano ben poco sembrano curarsi). La ricerca di nuove competenze sta diventando spasmodica. Se pensiamo al mondo del business, questi nuovi skill saranno sempre più indirizzati alla correlazione tra l’analisi della complessità e lo sviluppo di opportune strategie di business e di sviluppo; ma se pensiamo all’applicazione di questi sistemi ad altre aree, più di carattere sociale, politico, finanziario, militare, ecc, ecco allora che le competenze saranno pertinenza di quella classe dirigente che probabilmente avrà più potere di condizionare l’evoluzione umana attraverso il digitale di quanto sia stato possibile fare fino ad oggi.
Come sempre, il cerchio sembra chiudersi sull’essenza suprema di tutto: la natura umana, che è poi la stessa che ha sviluppato questi sistemi. La capacità di saper utilizzare la conoscenza derivata dall’uso di questi sistemi determinerà le future direzioni della nostra comunità su questo piccolo pianeta. E ancora una volta, come la nostra storia insegna, si tratterà di fare una scelta molto semplice, e per questo difficilissima: tra il bene e il male.
Tra il bene e il male
Mentre noi giochiamo con gli smartphone e ci relazioniamo, talvolta, al limite dell’inutilità, attraverso i social network, la vera battaglia per la guida della rivoluzione sociale (ed economica) si sta combattendo altrove. Nel “backstage”, dove è in atto la corsa al potere per il controllo dell’informazione.
Pubblicato il 19 Mar 2014
Argomenti
Canali