Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Un gesto rivoluzionario

pittogramma Zerouno

Editoriali

Un gesto rivoluzionario

10 Ott 2017

di Stefano Uberti Foppa

Durante le vacanze estive mi sono imbattuto in un articolo di quelli che si ha la fortuna di leggere tra le tante ovvietà che siamo abituati a vedere soprattutto in tema di Intelligenza Artificiale. Era pubblicato su “La lettura”, l’inserto del Corriere della Sera che davvero vale i 50 centesimi in più che vengono richiesti per accedere a “dibattiti di idee, linguaggi, arte, inchieste e racconti”, come recita l’headline dell’allegato.

A cura di Claudio Tuniz (coordina presso il Centro Internazionale di Fisica Teorica di Trieste un programma per l’applicazione di strumenti e metodi della fisica avanzata in paleoantropologia e archeologia) e Patrizia Tiberi Vipraio (è stata professore ordinario di Politica Economica presso l’Università di Udine, docente presso l’Università di Sydney e si occupa dei processi di internazionalizzazione delle imprese e degli effetti della globalizzazione), l’articolo ha proposto una visione originale, antropologica e nella continuità dell’evoluzione della specie umana, di ciò che potrebbe svilupparsi, in un futuro vicino, nel rapporto uomo-macchina.

Oggettivamente, su questo tema ne vediamo e ne sentiamo ormai di tutti i colori e la disinformazione, vuoi per incompetenza vuoi per approccio scandalistico/sensazionalistico, è galoppante. I due studiosi propongono invece alla riflessione le parti più critiche e delicate dell’Intelligenza Artificiale nel rapporto con l’essere umano, lasciando aperti alcuni quesiti, ma soprattutto raccordando queste opzioni di pericolosi condizionamenti tecnologici sulla natura umana, con il percorso avuto fin qui dalla nostra specie. Ne emerge un quadro che ci induce alla riflessione, scevra dalle paure spettacolarizzanti orientate all’audience.

La tesi parte da un’analisi di un mutamento di rapporto, avvenuto circa 30 mila anni fa, tra i feroci lupi delle pianure euroasiatiche e l’uomo, dove i primi attuarono spontaneamente e in modo inconscio, un processo di auto addomesticazione in una prospettiva di opportunismo e scambio utilitaristico: mettere a disposizione dell’uomo, rinunciando ad una parte di ferocia e di selvaticità, le proprie capacità di caccia per avere in cambio risorse di cibo che potevano essere fornite regolarmente loro dall’essere umano, in un contesto di periodo glaciale in cui la sopravvivenza era molto difficile. È stato un processo evolutivo che ha portato a profonde modificazioni caratteriali, psicologiche e fisiche dell’animale, sino ad avere oggi quei deliziosi cuccioli, totalmente dipendenti da noi, che chiamiamo cani. Cambiamenti psicologici, fisiologici, relazionali derivano in origine da questa decisione inconsapevole di sopravvivenza e di convenienza presa circa 30 mila anni fa. Stessa cosa, scrivono i due studiosi, è avvenuto nei secoli tra esseri umani, con classi di potere che riuscirono ad imporre la disuguaglianza tra fasce sociali, oltre che utilizzando le ben note azioni di costrizione e di sopraffazione, grazie anche alla creazione di consenso, inclusione, conforto, protezione, divertimento, dipendenza, senso di appartenenza e condizionamento.

Cosa sta accadendo quindi oggi alla nostra specie con l’attuale rivoluzione digitale? E soprattutto, come ci dobbiamo rapportare, se ne abbiamo almeno la consapevolezza critica, con un futuro in cui l’informatica da elemento di calcolo, fino ad oggi principalmente usato con questo scopo, sta diventando, grazie alla combinazione formidabile di big data, Intelligenza Artificiale e Internet Of Things, uno strumento di supporto e guida alle decisioni, alle interazioni, alle previsioni comportamentali? Se la tecnologia che useremo sta correndo verso l’acquisizione e la gestione di dati secondo criteri e schemi cognitivi mutuati dal cervello umano, non rischiamo (perché sì, è un rischio), inconsapevolmente, di fare ciò che hanno fatto i lupi 30 mila anni fa? E cioè restare nella nostra “zona di conforto” e di conoscenza perché è lì, attraverso nuovi servizi digitali pensati apposta per me, che troviamo benessere, sicurezza, gratificazione e giustificazione del nostro modo di essere e di pensare?

Questi ed altri quesiti vengono posti alla lettura. È interessante sviluppare questo pensiero, aggiungendo però ulteriori riflessioni che vi sottoponiamo.

Tutto ruota attorno al concetto di comodità e di benessere, di facilità e di gratificazione insito nella natura umana. Pensiamo infatti a quanti servizi digitali ormai utilizziamo nella nostra vita quotidiana per comunicare (mail, chat, video, ecc), prenotare viaggi, acquistare servizi, consultare data base in ambiti, come ad esempio la medicina e la salute, sui quali non abbiamo competenze specifiche e tanto altro ancora. L’Intelligenza Artificiale, attraverso tecniche di apprendimento cognitivo e l’analisi di grandissime quantità di dati, impara dai nostri “comportamenti digitali” le nostre abitudini, e ci costruisce, a nostra insaputa, una confort zone nella quale ci ritroviamo, stiamo bene, siamo aiutati e rassicurati, e ritroviamo anche altre persone che vanno a costituire, nel tempo, un gruppo sempre più omogeneo per interessi, tipologie di risposte, indicazioni comportamentali, condivisione di idee e di riferimenti. Insomma, si costruiscono cluster di profili (sappiamo su questo fronte quanto il marketing stia oggi sperimentando) ai quali la tecnologia digitale può in prospettiva offrire risposte e servizi sempre più utili e gradevoli per l’utente, sempre più in linea con i singoli profili comportamentali e psicologici. Le domande che i due studiosi pongono, e che lasciano aperta la nostra riflessione, sono: dovremmo preoccuparci di come ci lasciamo condizionare da chi ci procura salute, benessere, piacere, socialità, divertimento, incontri amorosi? Da chi asseconda i nostri gusti e le nostre idee? Come si svilupperà il nostro modello di relazione o sudditanza/dipendenza da questi sistemi considerando che il lupo delle pianure eurasiatiche ha inconsapevolmente rinunciato al proprio essere originario per rabbonirsi in cambio di cibo e di una maggiore dipendenza dall’uomo? E che la domesticazione di cani e gatti (e di classi sociali) si è realizzata a colpi di carezze e di concessioni fino ad arrivare, in alcuni animali, alla totale dipendenza e soggiogazione dall’essere umano?

Chi sta prefigurando per noi un futuro di questo tipo? Solo le macchine, attraverso un loro autoapprendimento continuo e sempre più raffinato, oppure vanno formandosi, in questi anni, gruppi ristretti di potere in cui pochi condizionano i molti a fini economici, politici, militari, disegnando raffinati sistemi di controllo sociale? Qui, conveniamo con voi, siamo sull’orlo della fantasia, ma sono certe due cose: se parliamo di macchine super intelligenti, giusto per capire la velocità e la complessità delle cose su cui stiamo ragionando, si è proprio di recente scoperto che alcuni sistemi di intelligenza artificiale, pur essendo stati disegnati con algoritmi per comunicare in lingua inglese, comprensibile all’essere umano, avevano cominciato a comunicare tra di loro in una lingua nuova, sviluppata autonomamente perché considerata dai sistemi più efficiente, ma del tutto incomprensibile all’umano, escluso quindi dal processo di controllo. E si è subito intervenuti, trattandosi di ambiti applicativi particolarmente critici (protezione del territorio, medicina, analisi finanziaria, ecc.). Sul secondo punto, quello dei gruppi di potere….fiction? Può darsi: certamente già abbiamo visto i primi casi di condizionamenti sociali nei gusti e nei consumi (persino nel voto elettorale), attuati proprio grazie alla gestione e all’analisi di enormi moli di dati (big data) da parte di sistemi sempre più intelligenti.

Viene quindi da chiedersi, ed è questa la riflessione che vi lascio, su quali leve agire per trovare il giusto equilibrio nell’utilizzo del digitale? Come individuare le alterazioni e le distorsioni che sono dietro l’angolo in un futuro sempre più vicino? Interessante, ad esempio, un’altra considerazione che emerge dal servizio: condividere, approfondire e scambiare idee con gruppi di persone sempre più culturalmente omogenee, gruppi che si strutturano proprio grazie alla coerenza di informazioni che vengono proposte dai sistemi di intelligenza artificiale, non rischia di accentuare inconsciamente una logica di branco, una cultura della differenza con l’altro, il diverso, che può far germogliare un nuovo seme di intolleranza per la differente appartenenza di gruppo?

Insomma: serve ragionare su queste cose, o almeno averle presenti per interpretare i tempi che cambiano. Servirà anche imporsi alcune abitudini apparentemente arcaiche ma in realtà molto “digital detox” che potrebbero “riparametrare” periodicamente la nostra mente condizionabile, come non guardare lo smartphone mentre si aspetta qualsiasi cosa (il metrò, l’ascensore, l’inizio di un film, di essere serviti al ristorante e tantissime altre cose) ma restare nella realtà, interpretarla e relazionarsi direttamente con essa, gestendo anche la noia e la difficoltà del tempo che non passa; oppure decidere persino “un gesto rivoluzionario” come aprire una cartina stradale e scegliere autonomamente il percorso da seguire. Con il pericolo, mortale, di dover chiedere indicazioni al primo sconosciuto che ci capita di incontrare per strada. Alla faccia di Google Maps e di tutte le sue informazioni aggiuntive “apposta pensate per i tuoi interessi”.

Stefano Uberti Foppa
Direttore Responsabile

Giornalista professionista dal 1989, inizia ad occuparsi di giornalismo nel settore informatico nel 1981, partecipando all'avvio della sede italiana del settimanale Computerworld. Nel 1987 passa al mensile ZeroUno di cui nel 1997 assume la direzione insieme a quella del settimanale PcWeek Italia. Opinion leader riconosciuto nel settore Ict in Italia, attualmente è direttore responsabile di ZeroUno edito da Ict&Strategy, società del Gruppo Digital360.

Argomenti trattati

Approfondimenti

I
Intelligenza Artificiale
M
Machine Learning

Articolo 1 di 4