Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Ethics Guidelines for Trustworthy AI: cosa dice il documento dei 52 esperti nominati dalla CE

pittogramma Zerouno

2. APPROFONDIMENTO

Ethics Guidelines for Trustworthy AI: cosa dice il documento dei 52 esperti nominati dalla CE

12 Feb 2019

di Patrizia Fabbri

Frutto del lavoro di 52 esperti a livello internazionale nominati dalla Commissione Europea, il documento, presentato lo scorso dicembre e sottoposto alla consultazione della European AI Alliance, vuole rappresentare un punto di riferimento condiviso all’interno dell’Unione Europea sia sui principi etici per sviluppare un’AI affidabile sia sui requisiti indispensabili per implementare nel concreto questi principi. Vediamone le caratteristiche salienti

Nell’ambito del piano per promuovere un approccio europeo all’Intelligenza Artificiale, la Commissione Europea (alla quale si sono unite anche Norvegia e Svizzera) ha selezionato, nell’aprile 2018, un gruppo di 52 esperti a livello internazionale (High-Level Expert Group on Artificial Intelligence – AI HLEG) che possano supportare la Commissione stessa nell’implementazione di una strategia europea condivisa sull’intelligenza artificiale. Complementando gli investimenti dei singoli paesi dell’Unione Europea, la Commissione ha deliberato l’erogazione di 1,5 miliardi di euro entro il 2020 per supportare l’AI in Europa e si propone di investirne altri 7 nel periodo 2021-2027.

Compito non secondario dell’AI-HLEG è quello di supportare la Commissione nella definizione delle linee guida che rappresentino un punto di riferimento condiviso nell’evoluzione di progetti di AI etici e affidabili. Il primo passo è stata la pubblicazione, lo scorso 18 dicembre dopo alcuni mesi di lavoro, della bozza delle Ethics Guidelines for Trustworthy AI che è stata sottoposta alla consultazione della European AI Alliance (un forum promosso dall’Unione Europea per confrontarsi, ad ampio spettro, sui temi dell’intelligenza artificiale) fino al 18 gennaio, per arrivare a una versione definitiva da presentare alla Commissione nel marzo 2019. La Commissione deciderà poi come proseguire con l’ambizione dichiarata di coinvolgere anche i paesi non UE nella condivisione dei principi delineati.

La sottile linea che separa benefici e rischi dell’AI

I 52 esperti nominati dalla Commissione Europea sono partiti dal presupposto che l’intelligenza artificiale può generare enormi benefici per gli individui e la società in generale a fronte di alcuni rischi, ma, si legge nel documento, “dato che, nel complesso, i benefici dell’AI superano i suoi rischi, dobbiamo garantire di seguire la strada che massimizza i benefici minimizzandone i rischi. Per essere certi di rimanere sulla strada giusta, è però necessario un approccio umano all’intelligenza artificiale, obbligandoci a tenere presente che lo sviluppo e l’uso dell’AI non dovrebbero essere visti come un mezzo in sé, ma finalizzati ad aumentare il benessere umano”.

La linea che separa i benefici dai rischi è comunque molto sottile (figura 1).

Figura 1 – Panoramica delle quattro opportunità principali offerte dall’IA, dei quattro rischi corrispondenti e il del costo per le mancate opportunità di una sottoutilizzazione dell’IA Fonte: AI4People

Il documento introduce quindi il concetto di “AI affidabile”, le cui due componenti portanti sono:

  1. dovrebbe rispettare i diritti fondamentali, la normativa e i principi e valori fondamentali, assicurando uno “scopo etico”;
  2. dovrebbe essere tecnicamente solida e affidabile poiché, anche con le migliori intenzioni, la mancanza di padronanza tecnologica può causare danni non intenzionali.

Non intendiamo qui riportare l’intero contenuto del documento, del quale comunque consigliamo la lettura, ma ne riassumiamo gli elementi principali:

  • il Capitolo I indica come garantire lo scopo etico dell’AI, stabilendo i diritti, i principi e i valori fondamentali che dovrebbe rispettare;
  • sulla base di questi principi, il Capitolo II fornisce indicazioni sulla realizzazione dell’AI affidabile, affrontando sia l’aspetto etico sia la solidità tecnica: vengono elencati i requisiti per l’AI affidabile, offrendo una panoramica dei metodi tecnici e non tecnici che possono essere utilizzati per la sua implementazione;
  • il Capitolo III fornisce una lista di quesiti che consentono di effettuare una valutazione concreta, anche se non esaustiva (dato che la lista dovrà essere adatta agli specifici casi d’uso), dell’affidabilità del progetto AI che si sta sviluppando.

Proprio questa caratteristica di concretezza differenzia queste Linee guida dai numerosi documenti che, negli ultimi anni, sono stati proposti da varie organizzazioni per delineare i principi etici fondamentali che dovrebbero caratterizzare l’AI. La comunità scientifica, così come la società civile, filosofi e gli stessi vendor che propongono soluzioni basate sull’intelligenza artificiale si stanno da tempo interrogando sulle implicazioni etiche: possiamo dire che questo documento recepisce il prodotto di questo brainstorming globale (come si legge nel Capitolo 1), compiendo un passo in avanti verso la proposta di risposte concrete.

Figura 2 – Framework per una AI affidabile Fonte: Ethics Guidelines for Trustworthy AI

Come garantire lo scopo etico

Il framework di riferimento dell’impianto definito dai 52 esperti nominati dalla Commissione Europea per lo sviluppo di un’intelligenza artificiale etica sposa quello delineato dal forum AI4People (di cui Luciano Floridi, intervistato da ZeroUno nell’articolo AI ed etica: relazione delicata, ma cruciale. Intervista a Luciano Floridi è presidente) dell’Atomium-European Institute for Science, Media and Democracy, organizzazione che promuove la collaborazione e lo scambio di informazioni tra ricercatori, studiosi e università europei, e illustrato nel documento Ethical Framework for a Good AI Society che si basa sui 4 principi della bioetica ai quali aggiunge quello della “esplicabilità”, ossia della necessità di trasparenza nello sviluppo di sistemi di intelligenza artificiale. Vediamo questi 5 principi nel dettaglio:

  • principio di beneficenza: scopo di un sistema di intelligenza artificiale deve essere quello di aumentare il benessere umano individuale e collettivo;
  • principio di non maleficenza: strettamente correlato al primo è il principio che un sistema di AI non deve fare del male all’uomo, sia in senso fisico sia per quanto riguarda la dignità, la libertà, la privacy e in generale la sicurezza degli esseri umani (come si vede nell’intervista a Floridi si tratta di uno dei principi più critici);
  • principio di autonomia: il senso di questo principio è che l’essere umano non può essere subordinato o sopraffatto da un sistema di intelligenza artificiale; è infatti fondamentale che venga rispettato il principio di auto-determinazione dell’uomo;
  • principio di giustizia: evitare discriminazioni o pregiudizi, eliminando bias (termine che nel linguaggio scientifico indica tendenza, inclinazione, distorsione e in psicologia assume, semplificando, quello di pregiudizio) ed errori, assicurando un trattamento paritario degli esseri umani;
  • principio di esplicabilità: il criterio decisionale di un sistema di intelligenza artificiale deve poter essere controllabile, quindi deve essere comprensibile e intellegibile per gli esseri umani. Con il termine “esplicabilità”, gli esperti intendono sintetizzare i concetti di “intelligibilità” (che risponde alla domanda “come funziona?”) e di “responsabilità” (“chi è responsabile del modo in cui funziona?”). Come illustrato nell’articolo di Massimiliano Nicotra, quello della responsabilità è un altro tema cruciale, dal punto di vista etico e giuridico, la cui soluzione non è così semplice da trovare.

Il documento, che ha lo scopo di definire principi e requisiti condivisi dall’Unione Europea, presenta anche una serie di tematiche (su alcuni aspetti particolarmente critici come, per esempio, i LAWS-Lethal Autonomous Weapon Systems, ossia le armi basate su sistemi di AI, o gli effetti a lungo termine dell’implementazione di sistemi di AI in vari settori) sulle quali i 52 esperti non hanno raccolto un consenso unanime e per le quali si chiede esplicitamente il parere della società civile coinvolta nella consultazione prima della stesura definitiva da presentare alla Commissione Europea.

Come realizzare un’intelligenza artificiale affidabile secondo la Commissione Europea

Questa è la parte più innovativa del documento perché fornisce indicazioni specifiche su “come” implementare i principi sopra descritti nel concreto sviluppo di sistemi di AI. Riassumiamo brevemente le principali indicazioni raccomandando caldamente la lettura del documento originale.

  • Incorporare i requisiti per l’intelligenza artificiale affidabile dalla prima fase di progettazione: responsabilità, governance dei dati, progettazione per tutti, governance dell’autonomia di intelligenza artificiale (controllo umano), non discriminazione, rispetto per l’autonomia umana, rispetto della privacy, robustezza, sicurezza, trasparenza.
  • Prendere in considerazione metodi tecnici e non tecnici per garantire l’attuazione di tali requisiti nel sistema di intelligenza artificiale. Inoltre, i requisiti devono essere sempre considerati quando si costruisce il team per lavorare sul sistema, il sistema stesso, l’ambiente di test e le potenziali applicazioni del sistema.
  • Fornire, in modo chiaro e proattivo, informazioni alle parti interessate (clienti, dipendenti, ecc.) sulle capacità e sui limiti del sistema AI, consentendo loro di sviluppare aspettative realistiche. Garantire la tracciabilità del sistema di intelligenza artificiale è fondamentale in questo senso.
  • Far diventare i concetti di AI affidabile parte della cultura dell’organizzazione e fornire informazioni alle parti interessate su come questa è implementata. L’intelligenza artificiale affidabile può anche essere inclusa nelle carte di deontologia delle organizzazioni o nei codici di condotta.
  • Garantire la partecipazione e l’inclusione delle parti interessate nella progettazione e sviluppo del sistema di intelligenza artificiale. Inoltre, garantire la diversità quando si creano i team che sviluppano, implementano e testano il prodotto.
  • Sforzarsi di facilitare l’auditing dei sistemi di intelligenza artificiale, in particolare in contesti o situazioni critici. Per quanto possibile, il sistema deve essere progettato in modo da abilitare il tracciamento delle decisioni individuali nei vari passaggi: dati utilizzati, modelli pre-formati, ecc.
  • Garantire un processo specifico per la governance delle responsabilità.
  • Prevedere la formazione e l’istruzione e assicurarsi che i manager, gli sviluppatori, gli utenti e i datori di lavoro siano consapevoli e addestrati in una AI affidabile.
  • Essere consapevoli del fatto che potrebbero esserci tensioni fondamentali tra obiettivi diversi (la trasparenza può aprire la porta all’abuso, identificare e correggere pregiudizi potrebbe contrastare con le protezioni della privacy). Comunicare e documentare queste criticità.
  • Promuovere la ricerca e l’innovazione per favorire il raggiungimento dei requisiti per l’IA affidabile.

Come valutare l’affidabilità dell’AI

Strettamente correlato con la precedente definizione dei requisiti per implementare correttamente un’intelligenza artificiale affidabile, questo capitolo del lavoro svolto dagli esperti selezionati dalla Commissione Europea spinge all’adozione di una check list per valutare il sistema o il progetto di AI sviluppato. Una check list che non solo deve essere opportunamente studiata per lo specifico ambito applicativo del sistema sviluppato, ma che deve essere dinamica, sottoposta cioè a un processo continuo di identificazione dei requisiti, valutazione delle soluzioni e garanzia di migliori risultati durante l’intero ciclo di vita del sistema di intelligenza artificiale.

Patrizia Fabbri
Giornalista

Patrizia Fabbri è giornalista professionista dal 1993 e si occupa di tematiche connesse alla trasformazione digitale della società e delle imprese, approfondendone gli aspetti tecnologici. Dopo avere ricoperto la carica di caporedattore di varie testate, consumer e B2B, nell’ambito Information Technology e avere svolto l’attività di free lance per alcuni anni, dal 2004 è giornalista di ZeroUno.

Ethics Guidelines for Trustworthy AI: cosa dice il documento dei 52 esperti nominati dalla CE

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4