Prospettive

Sviluppo etico dell’intelligenza artificiale: le sfide per imprese, società e governi

Un confronto, tra addetti ai lavori di diversa provenienza e formazione, sui temi dell’etica nell’utilizzo delle tecnologie di intelligenza artificiale. Ai temi etici connessi all’AI si sono dimostrate attente, a livello mondiale, le principali istituzioni della Unione Europea, degli USA, del Regno Unito, della Cina e della Russia, se pur con approcci anche molto differenti

Pubblicato il 15 Set 2021

ai etica

Nel suo percorso di ricerca e di analisi, l’Osservatorio Artificial Intelligence del Politecnico di Milano ha censito le principali problematiche etiche che devono essere considerare sia in fase di sviluppo sia di successivo impiego delle applicazioni con cui, nel corso del convegno di presentazione del Report 2021, tenutasi qualche mese fa, si sono confrontati addetti ai lavori di diversa provenienza e formazione. Ai temi etici connessi all’intelligenza artificiale si sono dimostrate attente, a livello mondiale, le principali istituzioni della Unione Europea, degli USA, del Regno Unito, della Cina e della Russia, se pur con approcci anche molto differenti, come approfondiremo di seguito.

L’Osservatorio, come ricordato da Giovanni Miragliotta, Direttore, Osservatorio Artificial Intelligence, in occasione della presentazione del Report, ha affrontato il tema sia da un punto di vista più tecnico sia da quello delle policy.

Nel primo caso ha clusterizzato le problematiche presenti nella progettazione e dell’applicazione dell’impiego dell’AI attraverso l’analisi di casi reali evidenziando le seguenti:

  • distorsione dell’algoritmo;
  • distorsione del dato;
  • casi in cui una certa applicazione limiti, impedisca o renda meno chiara la libertà di decisione di un individuo;
  • casi in cui l’applicazione possa favorire la concentrazione di una posizione sul mercato o generare problemi di squilibrio e diseguaglianza;

Non sempre problemi etici sono risultati evidenti. “Ma quando abbiamo analizzato in profondità applicazioni, interessanti dal punto di vista scientifico o di business, siamo riusciti a scorgere le implicazioni etiche”, precisa Miragliotta. L’Osservatorio ha così individuato nuove problematiche sociali e etiche che potrebbero emergere nei prossimi anni, non solo in campo Ai ma anche in altre applicazioni digitali. “Per le problematiche completamente nuove che il digitale fa emergere si può ipotizzare un’impreparazione del tessuto normativo e degli operatori, che un’attività di rende necessaria un’evangelizzazione affinché siano prese in considerazione da aziende, cittadini e politica”, aggiunge.

L’Osservatorio ha definito un framework interpretativo per aiutare le imprese a comprendere ad un utilizzo consapevole dell’AI, distinguendo fra problematiche Design-related da quelle Application-related (figura 1).

1
Figura 1 – Etica, le problematiche più diffuse. Fonte: Osservatorio Artificial Intelligence del Politecnico di Milano, 2021

Gli addetti ai lavori consapevoli delle tematiche etiche

Lo ha evidenziato una tavola rotonda dedicata al tema.

La fiducia delle persone è fondamentale per lo sviluppo e l’impiego dell’AI, non paragonabile a una soluzione tecnologica e applicativa tradizionale”, sostiene Giuseppe Santonato, MED Leader DnA, EY Advisory, ricordando che l’obiettivo è creare una sorta di gemello digitale della nostra organizzazione. “Lo sviluppo di una soluzione AI è orientato a qualcosa di probabilistico; per ottenere buoni risultati deve imparare ed essere addestrata e, come a scuola, se l’insegnate non è bravo genera dati cattivi come bias e informazioni non corrette”, aggiunge.

Pur in un contesto completamente differente, quello della PA, anche Antonio Ballarin, Chief Artificial Intelligence Officer, Sogei, riprende il tema dell’approccio probabilistico: “Come PA non possiamo essere soddisfatti di un certo valore di probabilità ma ci serve la certezza, esigenza che ci riconduce alla centralità dell’elemento umano, non solo come problema etico ma anche tecnologico”.

Pur ricordando i limiti degli strumenti basati su AI nel fornire risposte concrete, Ballarin sottolinea che ha in corso decine di progetti di AI, per poter trasformare 50 anni di dati degli italiani in informazioni utili. Fra questi un sistema di rilevazione in automatico dei decreti comunali, scritte in tanti modi diversi quanti sono i comuni, per l’attestazione delle aliquote catastali. Sogei, al tempo stesso, sta lavorando alla spiegabilità algoritmica, tema, indispensabile per poter fare scelte. “La presenza umana in questo caso è fondamentale perché la legge non consente di applicare decisioni senza una spiegazione intelligibile alla persona coinvolta”, spiega.

Punta sull’interdisciplinarietà e sulla diversità Barbara Vecchi, Vice Presidente, SECO Mind, background in campo psicologico-psicanalitico e dall’esperienza nella selezione del personale. Nel 2013 ha creato un team di data science, per superare la tendenza nelle aziende a decidere di pancia. “Il metodo scientifico applicato al business utilizzando tanti dati a disposizione mi ha sedotta – spiega – Il segreto è puntare alla diversità che limita i bias inconsapevoli, derivanti da conferma ed eccesso di fiducia”. Infatti, il team SECO Mind è composto da un fisico creativo, una matematica tenace e rigorosa, due ingegneri informatici (provenienti rispettivamente dal Camerun e dall’India), mentre i progetti di image recognition sono partiti da un astrofisico.

“Gli interrogativi etici dimostrano la necessità di integrare nei progetti AI diverse figure e competenze”, conferma Daniela Cotimbo, Art Consultant, Alan Advantage e Presidente dell’Ass. Cult. Re:Humanism, che si occupa di analizzare il rapporto fra arte e tecnologia, artista e scienziato, l’arte anche per identificare le criticità prima che si verifichino ma anche come potenziale creativo. “La creatività è legata al fattore umano, ma può aiutare a identificare possibili scenari, come ad esempio bias di genere nel collegamento sociale e culturale” sottolinea, ricordando che, nel contesto industriale, introdurre designer e artisti a livello di processo rende i prodotti più vicini all’esperienza umana e che nel 2018 con il lancio delle linee guida sull’etica AI a livello di Unione europea, sono stati coinvolti artisti per ragionare sui possibili sviluppi.

Impegno delle istituzioni internazionali su AI e etica

L’intervento precedente fa riferimento al lancio delle linee guida sull’etica AI a livello di UE che prosegue con la proposta, lanciata a maggio, di regolamento sull’intelligenza artificiale e conferma l’interesse delle istituzioni europee sui temi dell’etica connessi all’AI. Importante anche l’adozione di tre risoluzioni del Parlamento Europeo sugli aspetti etici dell’intelligenza artificiale, della robotica e di tecnologie correlate, la responsabilità civile relativa all’impiego di applicazioni AI e i diritti di proprietà intellettuale per le tecnologie AI.

L’impostazione europea punta a creare un quadro legislativo per regolamentare l’AI sulla base di quattro fasce di rischio:

  • inaccettabile, da cui consegue il divieto impieghi considerati contrari ai principi comunitari in quanto violano i diritti fondamentali;
  • elevato, per l’impatto negativo sulla sicurezza delle persone o sui loro diritti fondamentali; l’elenco indicato potrebbe diventare terreno di scontro con le aziende che hanno sviluppato tecnologie citate; nella lista;
  • limitato, che necessita solo di requisiti di trasparenza; impone ad esempio che gli utenti siano consapevoli di interagire con una macchina;
  • minimo, in cui rientrano gli altri sistemi AI, la stragrande maggioranza dei sistemi di intelligenza artificiale attualmente utilizzati nella UE e possono essere sviluppati e utilizzati senza altro requisito se non il rispetto della legislazione esistente.

L’approccio europeo, che punta sul primato degli esseri umani e sull’etica dell’AI, prosegue nel solco della strategia fin qui seguita con un netta distinzione rispetto ad altri protagonisti a livello internazionale, come Stati Uniti, Cina e Russia. Resta ancora da definire la posizione del Regno Unito che al momento si è limitata a una Roadmap, realizzata dall’AI Council, che contiene indicazioni per supportare le decisioni strategiche del governo su AI.

Gli Usa hanno pubblicato a loro volta un Report della National Security Commission on Artificial Intelligence che raccomanda un’adozione dell’AI rapida ma attenta e responsabile, dettando alcune linee guida già adottate anche dal Department of Defense. I principi base sono: responsabilità, equità (per limitare I bias involontari introdotti dall’AI), tracciabilità, affidabilità e governabilità. Importante l’appello: “Gli Stati Uniti devono prendere misure per prevenire e scoraggiare le aziende statunitensi dal consentire, consapevolmente o inconsapevolmente l’uso dell’AI, che violi i diritti umani”. Il Dipartimento del Commercio è ad esempio invitato a vietare l’esportazione di AI ad alte prestazioni per l’uso in applicazioni di sorveglianza di massa, con particolare riferimento alla Cina. Le ragioni dell’Etica convergono forse con quelle per la supremazia in un ambito, come quello dell’AI, riconosciuto determinate per la prossima trasformazione del mondo.

In gioco anche il ruolo dell’AI nello sviluppo delle armi a scopo bellico nel confronto che le grandi potenze. Come ignorare ad esempio che il Pentagono prosegue la ricerca sulle armi autonome e che la Russia hanno già creato la prima unità armata con robot d’assalto?

In questo scontro fra giganti riuscirà la UE a dettare al mondo le sue regole come già accaduto con il GDPR sulla privacy che ha costretto le imprese internazionali ad adeguarsi se pur riluttanti?

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati