Prospettive

Etica e AI: la strada verso la concretezza è appena incominciata

Una grande produzione di analisi, linee guida, normative sta definendo i confini e le focalizzazioni sul piano etico dello sviluppo e della diffusione di tecnologie AI. Tuttavia, dall’Artificial Intelligence Index Report 2021 della Stanford University, emerge come siano ancora lontane delle vere e proprie practice di integrazione di questi elementi nelle tecnologie di AI. Ma lo scenario sta cambiando e stiamo entrando in una fase nuova…

Pubblicato il 22 Ott 2021

ai

In tutta franchezza: per ora sono soprattutto parole e discussioni, ma ancora poco è stato fatto in merito ad uno sviluppo tecnologico dell’Intelligenza Artificiale rispettoso dei limiti di un’etica che non deve essere dimenticata nella diffusione sociale di queste tecnologie. Anzi, impietosamente, la quarta edizione dell’Artificial Intelligence Index Report 2021della Stanford University, di cui da qualche tempo vi proponiamo alcuni approfondimenti dice chiaramente che “il team di ricercatori è stato sorpreso da quanti pochi dati, non parole, ci siano in merito al tema del delicato rapporto tecnologie AI-etica e che nonostante una serie di gruppi di lavoro stia producendo interessanti output sul fronte qualitativo e normativo, il settore manca generalmente di misurazioni e di approfondimenti concreti che diano precise indicazioni di scelta e di metodologia per passare da un’ampia disponibilità di discussioni teorico-sociali ad uno sviluppo coerente e conseguente di queste stesse tecnologie”.

È infatti abbastanza facile focalizzare le problematiche e le criticità relative ad aspetti quali le violazioni della privacy, le discriminazioni, più o meno volute, di genere, razza, etnia, di orientamenti sessuali o di identità di genere; più difficile è invece procedere di conseguenza in uno sviluppo tecnologico che fin dalle sue fasi preliminari sia in grado di creare innovazione AI etica e responsabile. Evitando che queste tecnologie, nella loro diffusione massiva nella società (sia tramite applicazioni in cui il loro ruolo è esplicito e riconoscibile, sia integrate “embedded” in funzioni non sempre visibili all’utente finale) operino senza alcuna considerazione di questi elementi di valore etico.

La difficoltà di un approccio strutturato

È da circa il 2015 che il dibattito sugli aspetti etici di una diffusione massiva dell’AI è diventato centrale. Governi, organizzazioni internazionali, aziende private ed enti di ricerca hanno abbondantemente prodotto documenti che delineano le linee guida di riferimento, i princìpi e le valutazioni di strategia collegate allo sviluppo, alla diffusione e alla governance dell’AI all’interno delle varie organizzazioni e nella conseguente diffusione sociale.

Tuttavia, sottolinea lo studio, si resta sempre, anche per la complessità del problema, su un piano astratto e vago in merito all’implementazione di linee guida che diano priorità alle componenti etiche. Da un’analisi del “corpo normativo” e di princìpi relativi alle tecnologie di AI effettuata dai ricercatori dell’AI Ethics Lab di Boston su una serie di documenti prodotti da differenti organizzazioni, si rileva che ben 117 documenti contenenti normative, indicazioni di riferimento e framework attuativi siano stati pubblicati tra il 2015 e il 2020. I dati mostrano come l’area della Ricerca e le organizzazioni professionali siano state tra le prime a pubblicare questo tipo di contenuti, mentre sono le aziende private ad aver prodotto il maggior numero di questi documenti “ethic focused” (figura 1). L’Europa e l’Asia sono invece tra le nazioni con il più alto numero di queste pubblicazioni (figura 2).

Figura 1 – Fonte: Artificial Intelligence Index Report 2021della Stanford University

L’anno più prolifico di documenti sull’AI con analisi e indicazioni relative ad elementi etici è stato il 2018, con le principali aziende tecnologiche, Google, Facebook, IBM e alcune agenzie governative europee ed australiane, ad essere punto di riferimento. Lo studio non si addentra nelle motivazioni che hanno portato a realizzare approfondimenti sugli aspetti etici della tecnologia di AI sia a livello di impatto individuale sia sociale; tuttavia è facile correlare questa “attenzione” sia in una necessaria definizione di un approccio all’utilizzo dell’AI che non spaventi i potenziali utenti e i consumatori, sia nel cercare di definire “perimetri comportamentali”, nello sviluppo e nell’adozione delle tecnologie di AI, che possano proteggere, da un lato, gli utenti finali, e dall’altro le aziende private, consigliando loro di porre attenzione a comportamenti non rispettosi di normative in via di definizione nonché al rischio di violazioni di privacy dei propri utenti, con potenziali gravi ricadute sul fronte dell’immagine e del business.

Figura 2 – Fonte: Artificial Intelligence Index Report 2021della Stanford University

La copertura dei media e la strada verso un’attuazione di principi etici

La diffusione delle tecnologie di AI ha corrisposto, negli ultimi anni, ad un deciso aumento del dibattito. I ricercatori della Stanford University hanno riportato nello studio i dati di NetBase Quid sulla copertura dei media per l’argomento “AI ethics” nel corso del 2020.

Sono 3047 gli articoli di approfondimento sull’AI che contengono termini quali “diritti umani”, “valori umani”, “discriminazioni”, “trasparenza”, “privacy”, suddividendo le tematiche individuate con questi termini di prospettiva etica in sette differenti temi.

La figura 3 conferma che articoli con focus su aspetti relativi alle “linee guida sul piano etico” hanno raggiunto il top della classifica nel 2020, con il 21% rilevato, mentre sempre in merito allo stesso tema, le altre posizioni sono occupate da “research and education” e “riconoscimento facciale”, entrambe al 20%.

Figura 3 – Fonte: Artificial Intelligence Index Report 2021della Stanford University

Tra i documenti che più di altri hanno suscitato interesse e sono stati più consultati si trovano il white paper della Commissione Europea sull’AI (5,9%); il licenziamento da parte di Google della ricercatrice Timnit Gebru, co-leader del team di etica per l’AI della Casa di Mountain View, per aver criticato pubblicamente l’approccio discriminatorio dell’azienda verso alcune minoranze, evidenziando inoltre le pericolosità di un approccio fideistico alle tecnologie di AI (3,5%); la formazione del comitato etico per l’AI da parte delle Nazioni Unite (2,7%); il piano etico dell’AI da parte del Vaticano (2,6%); l’uscita dal business del software per il riconoscimento facciale da parte di IBM (2,5%).

Figura 4 – Fonte: Artificial Intelligence Index Report 2021della Stanford University

Anche le conferenze specializzate hanno ampliato la copertura tematica dalle funzioni, prestazioni e vantaggi dell’AI all’analisi degli impatti etici. Soprattutto dal 2015 al 2020 i paper realizzati su questo tema sono raddoppiati (figura 4). Ma la cosa più significativa e che dà la misura del cambiamento della direzione in corso rispetto alle tecnologie di AI è che ai ricercatori ed agli esperti di AI viene chiesto sempre più un’analisi che tenga conto degli impatti di ampio spettro e di lungo periodo dovuti alla diffusione delle tecnologie di AI nella società. Questo focus apre alla fase di analisi approfondita degli impatti relativi ad una più ampia e strutturata integrazione di parametri etici all’interno dello sviluppo tecnologico, valutando problemi ingegneristici, di sviluppo software e di utilizzo. Il tema della concretezza attuativa di questi princìpi viene portata quindi all’ordine del giorno ed anche le università, infine, stanno sempre più offrendo corsi di AI ethics all’interno del più generale ambito di computer science (figura 5).

Figura 5 – Fonte: Artificial Intelligence Index Report 2021della Stanford University

Una fase delicata

In conclusione, quindi, sembra che il tema degli impatti etici dello sviluppo e della diffusione delle tecnologie di AI stia lasciando la fase “pionieristica” di discussione, per affrontare le problematiche più attuative. Ed è un momento delicato proprio perché due mondi apparentemente diversi ma in genere fortemente collaborativi, come quelli dell’università/ricerca e delle imprese, devono trovare un nuovo terreno comune di sviluppo e di relazione.

Se prendiamo ad esempio il mercato americano, il rapporto università-impresa è sempre stato molto proficuo, con ingenti fondi ed investimenti erogati che si sono spesso tradotti in prodotti tecnologici e business per le imprese, definendo quasi sempre modelli di utilizzo tecnologico diffusi nella società. Tuttavia, fino ad ora, la tecnologia sviluppata non aveva quel potenziale di impatto sociale e criticità sul versante etico come hanno invece i sistemi di Intelligenza Artificiale. La tensione oggi nel rapporto ricerca-impresa, considerando anche un possente sistema di enti regolatori e normativi, è quindi maggiore che in passato proprio perché il modello, come spesso avvenuto in passato, si basa su un rapido trasferimento tecnologico dalla sfera della ricerca al business, mentre lo sviluppo dell’AI apre problemi nuovi e richiede scelte di tipo etico di fondo che finora l’information technology aveva posto in modo relativo. La questione è quindi molto delicata e probabilmente un ruolo importante l’avrà la risposta del mercato, i consumatori nel loro rifiuto di un’eccessiva invasività di queste tecnologie, per indirizzare uno sviluppo più equilibrato, non dimenticando il vantaggio oggettivo che queste tecnologie determinano.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4