Ethical AI

AI ed etica: relazione delicata, ma cruciale. Intervista a Luciano Floridi

È più corretto parlare di intelligenza artificiale o di intelligenza aumentata o …? E ancora: cosa deleghiamo alle macchine e ai sistemi che definiamo “intelligenti”? Siamo in un mondo globale, interconnesso, senza confini eppure siamo sempre più chiusi nelle piccole stanze create da algoritmi costruiti per “renderci la vita più facile”: come scardinare questo paradosso? Sono alcuni dei temi che ZeroUno ha affrontato in questa intervista a Luciano Floridi, professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford

Pubblicato il 12 Feb 2019

Foto di Luciano Floridi

È uno dei 52 esperti nominati dalla Commissione Europea per delineare le Ethics Guidelines for Trustworthy AI , ma soprattutto Luciano Floridi, filosofo italiano naturalizzato britannico e professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford, è uno dei pensatori più autorevoli sulla delicata, ma cruciale, relazione tra innovazione e, in particolare, intelligenza artificiale ed etica. ZeroUno lo ha intervistato nei giorni scorsi per capire quali sono le implicazioni etiche dello sviluppo di sistemi di intelligenza artificiale e per farlo siamo partiti proprio dal significato di questa espressione.

Intelligenza artificiale o intelligenza aumentata? La sottile linea che separa le due espressioni

ZeroUno: Intelligenza artificiale o intelligenza aumentata? Con la prima espressione si viene subito catapultati in un mondo futuristico che può anche essere visto con apprensione dall’uomo, con comportamenti e pensieri eterodeterminati da un algoritmo; la seconda è molto più confortevole, ci dà subito l’idea di una cosa positiva, di un supporto. Qual è la sua opinione? Qual è, se c’è, la sottile linea rossa che separa le due espressioni?

Luciano Floridi: Mi piace molto questa domanda. Si parla di intelligenza aumentata da tantissimi anni; ricordo conferenze di 20 anni fa in cui si dibatteva se fosse un termine preferibile. Non dimentichiamo del resto che “intelligenza artificiale” è un’espressione nata un po’ per caso da una intuizione di John McCarthy che, negli anni ’50, doveva chiedere i fondi per un workshop che si doveva tenere a Dartmouth: avevano bisogno di trovare un’etichetta efficace e a McCarthy venne questa definizione che, in effetti, ebbe molto successo [è in occasione della Conferenza di Dartmouth, dove venne poi presentato il primo programma esplicitamente progettato per imitare le capacità di problem solving degli esseri umani, che infatti il termine viene utilizzato per la prima volta ndr].

Successo legato anche alla sua indeterminatezza, ossia un termine che può voler dire talmente tante cose che ognuno può trovare in esso il significato che più gli fa comodo (dal punto di vista del business, politico, etico ecc.), ma la mancanza di un significato univoco è anche un suo difetto.

Molte delle cose importanti che conosciamo, dall’amicizia, all’amore, alla stessa intelligenza, non sappiamo definirle in termini di condizioni necessarie e sufficienti [una condizione che definisce una cosa se e solo se la condizione si verifica, in pratica: è possibile dare una definizione univoca ed esclusiva di amicizia, amore o intelligenza? ndr]. Sono cose delle quali abbiamo un’idea chiara, sulle quali abbiamo anche fatto delle teorizzazioni, ma non siamo in grado di dire che quella cosa è “quella cosa lì” e nient’altro. Quindi, se parliamo di intelligenza biologica, nei termini in cui la conosciamo appunto, implementabile dal punto di vista artificiale diciamo una sciocchezza.

Negli strumenti oggi disponibili non c’è nulla che assomigli, neanche lontanamente, anche solo all’intelligenza di un topo o di un cane. Quello che c’è è una grandissima capacità di risolvere problemi con successo, perseguendo un fine, che spesso è stato stabilito da un essere umano. Ecco quindi, per tornare alla sua domanda, che preferirei parlare di intelligenza aumentata, cioè che aumenta la nostra.

Però, a dire la verità, non mi piace neanche tanto questa espressione perché, come lei dice, ha un tono un po’ rassicurante, un po’ “camomilla”, che fa pensare “in fin dei conti c’è sempre l’essere umano in mezzo, quindi non c’è problema”.

E questo vuol dire sottovalutare una delle trasformazioni più importanti che stiamo esperendo oggi ossia l’automazione dell’agire, che ha una grande efficacia, e questo è il fatto straordinario: fino alla nostra generazione abbiamo sempre pensato che se c’era qualcosa/qualcuno che agiva, o era un agente naturale (un fiume, un vulcano ecc.) o era un agente biologico (un cane, una persona, ecc.), ma non abbiamo mai pensato che un oggetto ingegnerizzato fosse un agente; che avesse la capacità di affrontare i problemi, risolverli, apprendere dall’input dei propri dati per migliorare questa capacità di agire, perseguendo un obiettivo. Oggi ci sono strumenti che sono in grado di farlo e spesso sanno farlo meglio di noi, al posto nostro. A questo punto quindi io preferirei parlare di capacità di azione priva di intelligenza, ma di grande successo. Quella che stiamo vedendo è un’evoluzione di “agency” [in senso sociologico, ossia la capacità delle persone di agire in modo indipendente ndr] e non di “intelligence”. È come se, nel gioco degli scacchi, avessimo trasformato il pedone in una nuova regina: il gioco è lo stesso, ma la strategia, le mosse vincenti che possono essere fatte sono completamente diverse.

Intelligenza artificiale ed etica, intervista a Luciano Floridi
Luciano Floridi, filosofo italiano naturalizzato britannico e professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford – Foto di Ian Scott

Cosa delegare, e come, all’intelligenza artificiale

ZeroUno: A questo punto quello che diventa determinante è la delega che l’essere umano dà alla macchina per agire. È quindi in essa che va trovato un limite? È una questione che si collega direttamente con il 5° principio che avete inserito nelle Linee Guida per un’intelligenza artificiale etica, documento voluto dalla Commissione Europea, quello della esplicabilità/trasparenza, secondo il quale il criterio decisionale di un sistema di intelligenza artificiale deve poter essere controllabile, quindi deve essere comprensibile e intellegibile per gli esseri umani. Un processo, e quindi un limite, piuttosto difficile da definire, che ne pensa?

Floridi: Non tanto, sicuramente meno difficile di quanto oggi si dica, di quanto la letteratura più popolare voglia sostenere.

Sul primo punto, quello della delega, ha perfettamente ragione e forse vale la pena distinguere tra delega di processi e delega di decisioni. Banalizzando, possiamo delegare il processo di lavare i piatti alla lavastoviglie, ma se e quando farlo, e che cosa metterci dentro è una decisione che rimane in capo a noi. Per quanto banale, questa logica è alla base di tutte le decisioni e i processi delegati alla tecnologia: quello che c’è dietro (perché, quando, cosa, vale la pena…) resta, deve restare, in capo a noi; il come (con quale efficacia, con quale efficienza…) è l’oggetto della delega. Questo è fondamentale: va bene la delega dei processi, seppur con le dovute verifiche; per la delega delle decisioni, attenzione, va valutata con moltissima cautela. E tutto questo lo dico con un certo ottimismo nei confronti di queste tecnologie.

Per quanto riguarda la trasparenza, un principio nuovo, rispetto a quelli che definiscono le capacità di agire che ci vengono già date dalla bioetica, essa deve essere duplice: da un lato per chi ne sa, ossia l’ingegnere, lo sviluppatore, il tecnico che deve sapere esattamente cosa sta avvenendo all’interno del sistema automatizzato, dell’algoritmo; dall’altro lato deve esserci la capacità di spiegare, in termini profani, a chi tecnico non è, che cosa è avvenuto, quando un processo o una decisione sono stati delegati a una macchina. Certo, non è facile e più l’algoritmo è complesso, più è difficile, ma non è affatto impossibile. Oggi molti operatori, da quelli istituzionali come l’agenzia di ricerca per la Difesa statunitense DARPA ad aziende, come Microsoft e altre, stanno sviluppando software che spiega altro software: l’intelligenza artificiale può produrre strumenti in grado di aiutarci a spiegare i suoi stessi processi. Si potrebbe obiettare che così diventa sempre più complesso: è vero, ma del resto così cresce il mondo, siamo circondati da tecnologie difficili da spiegare, che però non sono certo misteriose. E così è per l’AI anche perché a un certo punto interverrà la legge che impedirà l’utilizzo, in un contesto sociale, di algoritmi che non si possono spiegare.

i libri di Luciano Floridi

Profilazione sempre più profonda: il rischio di essere “prigionieri” delle nostre scelte

ZeroUno: Profilazioni degli utenti sempre più profonde insistono sull’offerta di prodotti e servizi in linea con quanto si è dimostrato di apprezzare: un tunnel dal quale è difficile uscire, con il risultato di ingessare le nostre scelte. Algoritmi dei social che ci fanno mantenere relazioni solo con chi dimostra di pensarla come noi, relegandoci nel “nostro” mondo che alla fine diventa un confine invalicabile. Un mondo teoricamente sempre più globale e interconnesso che, a livello individuale, diventa invece una stanza che ci rende sempre più prigionieri delle nostre scelte, solo che i muri di questa stanza non li abbiamo costruiti noi, ma lo ha fatto un algoritmo per noi e lo stesso algoritmo potrebbe far entrare nella stanza elementi che possono manipolare il nostro pensiero. Questa è sicuramente una visione apocalittica, ma come scardinare quello che appare un paradosso?

Floridi: È proprio un paradosso: la tecnologia sembrerebbe fatta apposta per ampliare, comunicare, scoprire, anche per sostenere e soddisfare un po’ la propria curiosità (negli anni ’90 io scrivevo cose piuttosto ottimistiche da questo punto di vista) e invece sta avendo un po’ l’effetto contrario. E lo sta avendo perché non si è tenuto conto della enorme pigrizia umana: se c’è qualcosa che mi rende la vita più facile a fronte di una maggiore fatica che la modalità “tradizionale” richiederebbe, pian piano finirò per scegliere la prima, la più facile, che richiede meno sforzo. E quindi, pensando all’esempio dei social, finiamo con l’adagiarci sulle scelte dell’algoritmo rimanendo in contatto con persone che la pensano come noi, ritrovandoci con chi ci capisce e che noi capiamo, seguendo solo quello che ci interessa. Di per sé questo non è un male, è che purtroppo queste piattaforme rimuovono progressivamente qualsiasi frizione, o buona parte della frizione, alla quale eravamo abituati: andando dal giornalaio, acquistavo sempre il mio giornale preferito, ma almeno mi “cadeva l’occhio” su altri titoli; oggi il prodotto (social, informazione ecc.) che ci viene offerto è sempre più sartoriale e questo è molto comodo, ma così non entriamo più in contatto con chi la pensa diversamente, con chi ha posizioni differenti, con chi vive in un modo diverso.

Certo, a volte preferiamo non parlare con certe persone, a volte anch’io preferisco rimanere dentro la “bolla” perché così non sento sciocchezze, ma rimane il fatto che bisogna sapere cosa c’è fuori da questa bolla. Questo i nuovi mass media ce lo stanno un po’ togliendo: la vita è un po’ troppo semplice, mentre un po’ di sforzo, un po’ di fatica fa bene all’intelligenza.

Mi vengono in mente due analogie.

La prima è con una metafora di Aristotele: si rischia di essere un po’ sciocchi come la colomba che pensava che sarebbe stata molto più veloce se non ci fosse stato l’attrito dell’aria…ma a volte l’aria serve…senza aria non si vola. Queste tecnologie, togliendoci ogni frizione, ci impediscono di avere un rapporto più realistico con il mondo.

La seconda è con gli astronauti che, tornati sulla terra, hanno bisogno di un po’ di tempo per tornare alla vita normale perché devono essere riabilitati alla gravità terrestre: a forza di toglierci un modo un po’ più dialettico, un po’ più contrastato di vivere nel mondo, noi stiamo realmente entrando in una fase dove dobbiamo essere riabilitati ad avere una discussione con l’altro, con chi la pensa diversamente perché abbiamo perso l’abitudine a farlo. E questo è grave. Come faremo? Non lo so! Se guardo a quello che sta succedendo, noto che un certo tipo di letteratura, la saggistica, non sono affatto morte; anche la stampa sta iniziando a capire e a “riabilitarci” con un certo livello di dibattito costruttivo. Diciamo che c’è ancora molto da lavorare, per ora siamo ancora un po’ sbilanciati sulla colomba che preferirebbe non ci fosse aria per fare meno fatica.

Coltivare il senso critico e conoscere e controllare le tecnologie

ZeroUno: Ruolo quanto mai strategico, in questo senso, è quello che deve assumere la formazione…

Floridi: Che molta responsabilità ricada sull’educazione, sulla formazione è, se vuole, una banalità, ma non per questo meno vera. A me piacerebbe che le persone che si occupano di formazione avessero questo duplice aspetto: da un lato trasmettere un po’ di senso critico, nel significato greco di krino [separare, discernere, giudicare, valutare ndr], dall’altro insegnare a disegnare e controllare queste tecnologie enormemente potenti.

Mi va benissimo avere delle indicazioni da Netflix o seguire i temi più condivisi e non navigare controcorrente, ma la corrente va comunque gestita, altrimenti ci porta via, bisogna sapere come muoversi, dove indirizzarsi.

E citiamo anche Platone, per non far torto a nessuno: il ciberneta, ossia il timoniere della barca, deve sicuramente conoscere i venti, le vele, le caratteristiche della propria imbarcazione, ma deve anche sapere dove vuole arrivare, deve avere una direzione.

In Italia (nel mondo in generale ma nel nostro paese la situazione è ancor più critica) manca nel sistema educativo questa capacità di affiancare alla formazione di competenze la comprensione critica di queste tecnologie e del controllo, cioè chi gestisce cosa. Ma del resto oggi, lo vediamo anche nei nostri politici, non controlliamo più neanche il linguaggio; quindi nel momento in cui parliamo per frasi fatte, per luoghi comuni, dove è il pensiero che segue il linguaggio e non è il linguaggio che esprime un pensiero, forse quello che dico è chiedere troppo. Forse prima di tutto la scuola dovrebbe insegnare a “leggere e scrivere” (nel senso più ampio dei termini, dotando gli studenti di un bagaglio di conoscenze di base che permette di acquisire le informazioni in modo critico – con il saper “leggere” – e creare e gestire le informazione in modo intelligente – con il saper “scrivere”].

ZeroUno: Uno degli aspetti più inquietanti del discorso del replicante Roy di Blade Runner “Io ne ho viste cose che voi umani….” è il rammarico che esprime pronunciandolo, mostrando di avere emozioni e sentimenti. Fantascienza? Eppure presso il MIT di Boston esiste da vent’anni l’Affective Computing Laboratory che cerca di sviluppare modelli computazionali della sfera emotiva. È possibile costruire robot che abbiano emozioni?

Floridi: Certamente no. Soprattutto perché noi non abbiamo una teoria delle emozioni, o meglio, ne abbiamo tante; i filosofi ci stanno pensando da 25 secoli, ma ancora non abbiamo le idee chiare. E se non abbiamo una teoria delle emozioni, non possiamo matematizzarla, quindi non possiamo trasformare un’emozione in un algoritmo. Abbiamo delle intuizioni, delle teorie anche contrastanti, ma nulla di definitivo e non so neppure se mai ci arriveremo.

Per avere emozioni serve un serio embodiment [avere un corpo e avere una una riflessione sulle sensazioni corporee, ndr], serve avere memoria, forse anche un po’ di capacità morale: ci sono tanti elementi che non sappiamo spiegare in noi stessi, ma se non conosciamo qualcosa, come possiamo pensare di riprodurla artificialmente? Finché qualcuno non mi verrà a presentare una teoria fisica seria, non confutabile, delle emozioni, i robot che le provano rimangono confinati a Hollywood. Non bisogna confondere la simulazione con l’implementazione. La simulazione di una lacrima non è umida.

ZeroUno: Concludiamo con un’ultima domanda sulle Linee Guida che avete elaborato e la cui versione definitiva, dopo le consultazioni con la comunità internazionale, verrà presentata alla Commissione Europea tra qualche settimana. Una caratteristica distintiva di questo documento è, a mio parere, il fatto di avere affiancato all’elencazione di principi, una parte più pratica sull’implementazione dei requisiti etici nello sviluppo di tecnologie e progetti di intelligenza artificiale e un’indicazione sulla valutazione dell’implementazione di questi requisiti. Quali sono i prossimi passi e cosa è necessario fare perché tutto ciò non rimanga un pezzo di carta?

Floridi: Il processo è ormai nella fase finale: abbiamo concluso le consultazioni e qualche giorno fa abbiamo fatto il primo incontro di feedback sui pareri, entro marzo-aprile porteremo il documento alla Commissione Europea.

A me personalmente non è chiaro quale sarà l’impatto di questo documento, vista la prossimità delle elezioni europee. Nel passato ci sono stati sia casi di continuità su progetti importanti sia casi di grande discontinuità e io ora non sono in grado di dire quale sbocco avrà questo progetto con il nuovo parlamento europeo.

Il documento è di alto livello, ma anche molto ambizioso dal punto di vista pragmatico: un documento molto teorico potrebbe essere forse più facilmente adottato, ma sarebbe meno efficace; un documento che arriva ad avere impatti importanti, anche finanziari, come questo, è probabile che venga accolto con maggiore difficoltà da una nuova classe politica, che penso sarà molto diversa da quella attuale.

Di una cosa però sono certo ed è che l’Europa dovrebbe, e dovrebbe farlo presto, munirsi di una simile carta. Prima arriviamo a una chiara carta dei principi generali e a delle linee guida di settori particolari (in ambito retail, assicurativo, sanità ecc.) meglio è, perché noi europei abbiamo un vantaggio sia culturale sia socio-politico: arrivando prima potremmo sviluppare prima prodotti che fanno bene a tutti, potremmo avere un ruolo importante rispetto a molti altri paesi, come la Cina o gli USA, che stanno lavorando principalmente sulla parte tecnico-scientifica. Speriamo che i nostri politici siano all’altezza.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati