Prospettive

“Angeli e Demoni”, ovvero come provare a bilanciare il bello della tecnologia con il pericolo di esserne schiavi

Un recente incontro pubblico e una ripresa dei concetti durante quattro chiacchiere a casa di Francesco Varanini per parlare di come provare a vivere in un mondo digitalizzato senza perdere di vista il proprio valore di persona, fatto di intelligenza, decisioni autonome e consapevolezza.

Pubblicato il 17 Gen 2020

foto Intervista Casa della Cultura

È bene, in un periodo in cui si parla molto di Intelligenza Artificiale, sfruttare le occasioni di “pensiero parallelo” che si presentano. Pericoloso è infatti seguire il facile entusiasmo digitale, talvolta anche onestamente proposto. Soprattutto quando si tratta di tecnologie destinate a incidere sulla struttura organizzativa e sociale del nostro mondo, sulle modalità di lavoro e sulle professioni ripensate alla luce di un’automazione sempre maggiore e sempre più intelligente, è bene andare alla ricerca di un pensiero critico.

È quindi stato interessante il recente incontro organizzato dalla Casa della Cultura di Milano, dal titolo “L’Intelligenza Artificiale come risorsa civile o come furto di cittadinanza“, per discutere sulle attuali e future applicazioni di Intelligenza Artificiale considerando un possibile approccio etico, ragionando su spazi di privacy, esercizio dei diritti politici, modalità di costruzione e diffusione di notizie e altro ancora. I tre relatori presenti, Francesco Varanini, scrittore, antropologo, saggista, appassionato di letteratura sudamericana, co-fondatore del settimanale Internazionale ed esperto di tematiche digitali; Federico Cabitza, Professore di Interazione Uomo-Macchina e Uomo-Dato all’Università degli Studi di Milano Bicocca; Fabio Stella, Professore di Machine Learning e Responsabile del Laboratorio Models and Algorithms for Data and Text Mining all’Università degli Studi di Milano-Bicocca hanno quindi attivato un confronto con il pubblico. Ecco alcuni highlights che crediamo sia opportuno trasferirvi.

Il “buono e il cattivo” delle macchine

Innanzitutto, nel difficile tentativo di governare la nostra ineluttabile “dipendenza tecnologica” non va perso di vista “il buono” che c’è nelle macchine. “I traduttori automatici – cita come semplice esempio Varanini – eliminano già oggi numerose barriere. L’essere umano vive in un contesto culturale che non può essere ridotto, o peggio rinnegato, solo per attuare correttamente il tecnicismo linguistico. I traduttori attuali, per quanto grezzi, già consentono di capire molto di ciò che prima non sapevamo; ci introducono ad altre culture, all’iraniano, al cinese, ecc. Questo è bellissimo – dice, entusiasmandosi, Varanini – e ci consente di essere un po’ più pienamente cittadini. Dietro queste tecnologie non va però dimenticato che c’è sempre tanto codice, potenzialmente manipolabile per censurare oppure, attraverso una traduzione non corretta, per dare una rappresentazione non rispondente al vero”.

foto Francesco Varanini
Francesco Varanini, scrittore, antropologo, saggista, appassionato di letteratura sudamericana, co-fondatore del settimanale Internazionale ed esperto di tematiche digitali

E passiamo quindi “al lato oscuro” del digitale: “Prendiamo ad esempio l’auto a guida autonoma. Non va scordato l’insieme delle tecnologie coinvolte: sensori, radar, potenza di calcolo da inserire nel bagagliaio dell’auto, sistemi Gps (Global Positioning System), che aprono il tema, molto complesso, della governance della trasmissione del segnale… Tendiamo a dimenticarci che questi sistemi – dice Varanini – sono nati come sistemi militari. Anche il sistema di posizionamento europeo Galileo, importantissimo perché alternativo a quello americano, russo o cinese, viene oggi presentato come sistema civile ma sarà sempre disponibile anche a livello militare. Il Gps americano è nato per dare, in accoppiata con i sistemi Gis (Geographical Information Systems), una fotografia tra le più complete e precise del territorio dell’ex Unione Sovietica”. Alle driverless car serve inoltre un territorio “attrezzato”, innervando di sensori, che rilevano e trasmettono dati, le città, le strade, gli edifici e ogni tipo di oggetto. “È l’infrastruttura territoriale quella più pericolosa per la proprietà dei cittadini del proprio territorio – sottolinea Varanini – Se mai viaggeremo su macchine a guida autonoma, non sarà più prioritario il livello fisico delle strade, ma le mappe di Google, il sistema Gis correlato, la realtà aumentata che interloquisce con i sensori sparsi ovunque. Questo vuol dire forse che se si apre un cantiere per sistemare un tombino bisognerà avvisare Google?”. O che, sulla base del nostro profilo individuale memorizzato da Google, la nostra macchina a guida “autonoma”, ci farà passare per strade dove potremmo più facilmente acquistare beni e servizi? O percorrere itinerari con pedaggi superiori alla norma per sistemare i conti di aziende autostradali in crisi? Qual è il bilanciamento accettabile tra vantaggio e rischio di questa situazione? “È il tema del depauperamento della cittadinanza – continua Varanini – in cui a fronte di un servizio di valore c’è un rischio di controllo e indirizzo dei comportamenti sociali. Ne siamo consapevoli? Ci stiamo occupando di queste tematiche? Quali sono i soggetti e le categorie interessati a sfruttare questi nuovi sistemi? Oggi io vedo un’incuria politica che non ha alcuna forza su soggetti tipo Google…”.

Sentire il peso di una responsabilità diretta nello sviluppo digitale

Più filosofico e con una punta di preoccupazione l’impatto sul mondo del lavoro. “Ogni lavoro umano può essere sostituito da un sistema. Servirà quindi un patto per il lavoro umano. Non una serie di norme, piuttosto una Costituzione che dovrà coinvolgere un attore che si pensava non dovesse essere coinvolto, il tecnico, cioè tutte le competenze che sviluppano sistemi, hardware e software. Il lavoro umano – continua Varanini – sarà solo una parte di un più ampio concetto di lavoro. Essere cittadini significa appassionarsi a questi problemi e provare a interpretarli per costruire la nostra strada futura”. E fare il proprio lavoro di sviluppatori, innovatori digitali, scienziati, startupper tecnologici, ecc., sentendo anche una responsabilità diretta per il futuro della specie umana, per la nostra condizione di persone, anche se si sta giocando la partita del business. È qui che inizia la responsabilità etica, nel capire quale livello di cambiamento e controllo sociale sono disponibile a realizzare attraverso la scrittura di un algoritmo.

foto Federico Cabitza
Federico Cabitza, Professore di Interazione Uomo-Macchina e Uomo-Dato all’Università degli Studi di Milano Bicocca

Dobbiamo avere la consapevolezza che le macchine ci stanno aiutando, anche troppo; e sarà sempre di più così – è intervenuto Federico Cabitza – . Perdiamo l’abitudine a determinate competenze, tant’è che siamo già in una fase di de-skilling. In più, se fino ad oggi le macchine ci hanno aiutato a migliorare capacità fisiche e sensoriali, l’Intelligenza Artificiale, in discontinuità con tutte le tecnologie precedenti, è pensata per potenziare le nostre capacità cognitive, per interpretare la realtà che ci circonda. E questo è un punto di condizionamento pericolosissimo, di cui bisogna avere consapevolezza perché gli algoritmi sono inestricabilmente intrecciati con il nostro sistema sociale ed economico, non sono oggetti terzi, agnostici. Perché vogliamo l’AI? Perché siamo una specie addomesticata”. “Dobbiamo però ricordarci che la distorsione fa parte della natura umana e non è detto che questo sia sempre un fattore negativo e che nella distorsione non ci sia utilità. In queste fasi bisogna certo essere attenti alle direzioni dello sviluppo tecnologico ma serve essere inclusivi, flessibili e valutare queste forze soprattutto come aiuto ai problemi complessi che in tanti campi ci attendono” dice Fabio Stella.

Fabio Stella,Professore di Machine Learning e Responsabile del Laboratorio Models and Algorithms for Data and Text Mining all’Università degli Studi di Milano-Bicocca
Fabio Stella, Professore di Machine Learning e Responsabile del Laboratorio Models and Algorithms for Data and Text Mining all’Università degli Studi di Milano-Bicocca

Recuperare il senso di sé

“Questa presenza capillare di tecnologia ci spinge quindi in due direzioni: o esserne più dipendenti o più responsabilmente umani – sostiene Varanini – provando a investire di più su noi stessi. Se è vero che siamo una specie addomesticata, forse oggi, con il salto di qualità che ci consentono queste tecnologie, possiamo imparare ad esserlo meno, non ricercando subito il facile aiuto della macchina”. Varanini non fa un discorso di rifiuto di progresso, ma di ricerca di nuovo equilibrio: “Quando nel 1936 uscì l’articolo di Turing sulla macchina concettuale sulla base della quale si sono poi costruiti tutti i computer, in quello stesso anno Marcel Mauss, uno dei padri dell’etnologia francese, inaugurava nuovi campi di studi quali l’antropologia e la sociologia del corpo, sostenendo che il più naturale oggetto tecnico dell’uomo è il suo corpo e la tecnologia è il modo di usare il nostro corpo, il fisico e la mente. Questo per dire che anche oggi, in piena era digitale, dobbiamo sforzarci di mettere sempre e comunque noi stessi al centro del progresso tecnologico. Anche il fatto che oggi si cerchino di recuperare atteggiamenti di attenzione rispetto a se stessi, con percorsi di mindfulness, di meditazione e di recupero delle proprie emozioni [negli Stati Uniti si sta assistendo ad una vera e propria esplosione di corsi e stage per ribilanciamenti psicologici e di costruzione di consapevolezza della persona nei confronti di un rapporto, ormai sbilanciato, con la tecnologia – ndr], può essere inteso come un bisogno inevitabile che esiste nel momento in cui la nostra presenza nel mondo si interseca sempre di più con le macchine. E sono percorsi che ci insegnano che è bello che le macchine esistano perché ci stimolano a essere sempre più umani, a muoverci come cittadini, ad avere più fiducia in noi stessi. Sono strumenti da cui non dobbiamo dipendere ma che devono tirare fuori il meglio di noi…”.

Tecnologie come “Angeli & Demoni”, quindi, di cui è sempre bene avere consapevolezza: l’AI in una prospettiva di addomesticazione, in cui le macchine potrebbero essere il colpo di grazia ad ogni velleità rivoluzionaria e di ribellione; oppure una tecnologia che ci circonda e che, per come viene sviluppata e utilizzata, ci aiuta ed eleva il livello sociale.

Parliamone ancora un po’…davanti a un thè

Ma è in una casa disposta su tre piani, zeppa di libri sparsi davvero in ogni luogo, che sono andato a incontrare Varanini, con l’obiettivo di approfondire ancora un po’ alcuni concetti. Ad esempio: fino a che punto ricorrere alle normative per guidare la diffusione tecnologica nella società? Sul piano normativo, Varanini vede un rischio di inefficacia: “La sfera politica è distratta. Possiamo prendere ad esempio il modello giuridico del Concordato fra Stato e Chiesa. Lo Stato, con un soggetto come Google che ha una forza di pressione elevatissima, può immaginare di fare accordi vincolanti tra pari, che mettano al centro lo sviluppo umano, ma accettando, politicamente, la potenza di un soggetto privato come Google. La seconda strada è invece eliminare il divario oggi esistente tra cittadini e tecnici, e allo sviluppo di progetti digitali strategici (dove le fondamenta sono algoritmi, software di AI/analytics, ecc) devono partecipare i cittadini in una progettazione condivisa. Già una volta l’eccellenza tecnologica chiusa nei laboratori ha prodotto la bomba atomica…”.

Oggi ogni persona possiede uno smartphone che lo collega al mondo, ma che è anche uno strumento per essere potenzialmente controllati, guidati, condizionati, trasformati in soggetti di consumo, isolati culturalmente nelle proprie “bolle di interessi condivisi con le proprie comunità”, estremizzando tra l’altro, sul piano sociale, un modello di appartenenza e di circuito chiuso che può aumentare l’insofferenza e la distanza per ciò che è diverso da me o per “il diverso”, differente dal mio club di consumo culturale, politico, economico… fino a considerarlo nemico. “Bisogna oggi assumersi delle responsabilità – continua Varanini – Gli strumenti che abbiamo possono essere usati in modo push o pull. Oggi prevale decisamente il push, ma noi esseri umani non possiamo vivere solo di notifiche. Per questo dobbiamo lavorare sulla nostra individualità, per evitare queste nuove forme di broadcasting evolute che spesso, senza accorgercene, ci condizionano. Cos’altro è stato il modello dei bitcoin se non un tentativo di protezione di fronte a uno stato invasivo? Cercare di nascondersi dietro un velo di crittografia per ricostruire relazioni sociali e un minimo di garanzia di libertà per i cittadini… Oggi dobbiamo tornare ad essere più umani e a focalizzare elementi di valore e consapevolezza. Verso la metà del Novecento, il pediatra e psicoanalista Donald Winnicot ha elaborato una teoria sugli oggetti transizionali, quelli cioè che sostengono la transizione caratteriale del bambino, gli oggetti del passaggio: la copertina, l’orsacchiotto di pelouche che aiutano il bambino a spostarsi, nell’avanzare dell’età, dalla definizione di un proprio spazio soggettivo di controllo totale di ambiente e affetti, all’accettazione di una realtà oggettiva, condivisa, ma potenzialmente generatrice di traumi. Questi oggetti contribuiscono, nella transizione, alla conservazione della sicurezza e di un senso di autostima che sostiene l’originalità e le caratteristiche dell’individuo fondamentali nel percorso di crescita. Beh, forse non ce ne accorgiamo, ma per molti lo smartphone è ormai un modo di abbandonarsi a un nuovo tipo di conforto. E reinvestire sul nostro modo di essere persone è fondamentale per evitare di andare alla disperata ricerca di nuovi…orsacchiotti digitali”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4