Ethical AI

Ethical AI: il riconoscimento facciale è un rischio per la nostra libertà?

Lo scorso 15 gennaio, 85 associazioni di diritti umani hanno inviato una lettera aperta ai “big” della Silicon Valley per chiedere una moratoria nella vendita di software e servizi per il riconoscimento facciale a organizzazioni governative. Nel frattempo Google e Microsoft hanno manifestato le proprie preoccupazioni etiche nell’utilizzo di queste soluzioni, assumendo anche posizioni forti al riguardo, mentre Amazon non sembra avere ripensamenti. Ma quali sono i rischi per la nostra libertà di queste soluzioni? E quali i vantaggi? Cerchiamo di capirlo prendendo spunto da 10 years challenge, il gioco che sta spopolando in rete in questo inizio 2019

Pubblicato il 31 Gen 2019

Concetto di Intelligenza Artificiale e riconoscimento facciale

È il nuovo tormentone o, per usare un termine più “social”, il nuovo meme che sta spopolando su Facebook, Instagram e Twitter: 10 years challenge, un gioco che invita a postare una foto di 10 anni fa al fianco di una di oggi. Da Madonna a Jennifer Lopez, da Francesco Totti a Gigi Buffon e, ovviamente, la regina dei social Chiara Ferragni stanno postando le loro foto con l’hashtag #10yearschallenge, insieme a oltre 2,5 milioni di altre persone (cifra sicuramente in difetto quando questo articolo verrà pubblicato). Il tema vero è quello del riconoscimento facciale e ciò che ne può conseguire.

Un gioco innocuo? Uno dei tanti esempi del narcisismo digitale che sembra aver contagiato la quasi totalità della popolazione mondiale? Forse, ma forse no. Qualche giorno fa la giornalista di Wired Kate O’Neill ha infatti sollevato il dubbio che in realtà il meme non sia altro che un modo per raccogliere milioni di immagini da poter utilizzare per addestrare gli algoritmi di riconoscimento facciale. Mark Zuckerberg, che deve ancora riprendersi dai danni provocati dall’affaire Cambridge Analytica (ricordiamo che i dati utilizzati provenivano dagli utenti che avevano usato il login Facebook per accedere al gioco My digital life), ha subito ribattuto che l’azienda non è coinvolta in questa operazione e che si tratta di un gioco lanciato dagli utenti.

Quale sia la verità è difficile saperlo, quello che è certo è che l’ipotesi di Kate O’Neill non è bizzarra perché l’addestramento dell’algoritmo di machine learning su cui si basa un software di riconoscimento facciale è un’attività fondamentale per garantirne l’affidabilità e su questo tipo di software si concentrano molti interessi. Non tanto perché il mercato del riconoscimento facciale (software e servizi) sia ancora particolarmente appetibile (sebbene si preveda un CAGR del 21,3% nel periodo 2016-2022, parliamo di un mercato che nel 2022 non dovrebbe arrivare, a livello mondiale, neanche ai 10 miliardi di dollari, dati Allied Market Research) quanto per le aspettative, come vedremo più avanti, che questi software suscitano in vari ambiti applicativi.

Anche l’evento mediatico del 2018, le nozze tra il Principe Harry e Meghan Markle, ha visto innestare l’intelligenza artificiale nel tradizionale Royal Wedding: Sky News ha accompagnato la diretta web dell’evento con un player che, grazie al sistema di riconoscimento facciale fornito da AWS, consentiva di identificare automaticamente gli invitati presenti al matrimonio proponendo al pubblico, in tempo reale, nome e breve biografia.

Ma, al di là di queste applicazioni di entertainment, l’interesse principale di organizzazioni governative e aziende è concentrato in particolare su due ambiti: sicurezza fisica e marketing in ambito retail.

Facial Recognition

Sebbene anche per le applicazioni in ambito marketing vengano sollevate perplessità in termini etici, soprattutto per quanto riguarda la garanzia della privacy, i quesiti principali si pongono per il primo tipo di applicazioni; di seguito vedremo perché, ma prima riassumiamo brevemente qual è lo stato dell’arte di questa tecnologia e quali sono le aziende maggiormente impegnate in questo ambito.

Quali sono le aziende che lavorano sul riconoscimento facciale

Nel 2014 Facebook ha annunciato il lancio di DeepFace, il programma che consente al social network di riconoscere, comparandola con la fotografia del profilo, la presenza dell’utente in questione nei video o foto che vengono postati sul social da altri utenti (perché ciò avvenga bisogna che nelle impostazioni sia abilitata la funzione di riconoscimento facciale). DeepFace, come ha spiegato la stessa Facebook quando ha lanciato il software, si basa su una rete neurale per il deep learning su 9 strati di profondità che consentono di connettere milioni di parametri (quando il programma è stato lanciato erano stati creati 120 milioni di parametri sulla base di un corpus di 4 milioni di foto di utenti, ma più il sistema “apprende” e più crescono i parametri) raggiungendo, sulla base del test Labeled faces in the Wild (test di riferimento per valutare l’accuratezza di un algoritmo di riconoscimento facciale) un’accuratezza del 97,25% (quella dell’occhio umano, con lo stesso test, è calcolata in media del 97,53%).

FaceNet, l’algoritmo lanciato da Google nel 2015 e implementato in Google Foto, ha raggiunto, con lo stesso test, un livello di accuratezza addirittura pari al 100% anche se, ed ecco che i problemi iniziano ad emergere, pochi mesi dopo l’azienda di Mountain View ha dovuto scusarsi perché il suo sistema di riconoscimento facciale alla ricerca della parola “gorilla” aveva mostrato la foto di due ragazzi afroamericani.

Mentre la community open source lavora su OpenFace, le più importanti aziende del digitale sono impegnate su software di questo tipo (sempre basati su reti neurali e deep learning), ma problemi di accuratezza vengono sollevati in varie occasioni; la più nota denuncia viene da uno studio del MIT di Boston del gennaio 2018 dove la ricercatrice Joy Buolamwini, testando i software di IBM, Microsoft e della cinese Face++, aveva appurato che gli algoritmi sono precisi al 99% nel caso di uomini bianchi, ma questa percentuale crolla al 35% per le donne dalla pelle scura. Il motivo? Il set di dati da analizzare che questi algoritmi utilizzavano per “apprendere” si basa su soggetti per l’80% bianchi e per il 75% maschi.

Critiche che evidentemente hanno lasciato il segno, dato che è proprio di questi giorni la notizia che IBM ha rilasciato un nuovo set di dati, chiamato Diversity in Faces (DiF), che contiene 1 milione di immagini con annotazioni utili ad aiutare la comunità scientifica a rilevare, riconoscere e analizzare meglio le immagini dei volti. Utilizzando quelle pubblicamente disponibili (dal data set Creative Commons YFCC-100M), IBM ha codificato le immagini sulla base di 10 schemi di codifica (illustrati nello studio Diversity in Face pubblicato dall’azienda). Il data set DiF è stato messo a disposizione dei ricercatori, su richiesta: “Riteniamo che il set di dati DiF e i suoi 10 schemi di codifica offrano un punto di partenza per i ricercatori di tutto il mondo che studiano la tecnologia di riconoscimento facciale affinché sia più corretta e accurata”, ha affermato John R. Smith, Manager of AI Tech for IBM Research AI presso IBM T. J. Watson Research Center, annunciando l’iniziativa.

Dettaglio del funzionamento del riconoscimento facciale

Un altro importante attore che opera in questo scenario è Amazon che, oltre che per applicazioni “innocenti” come quella di Sky News, vende i propri servizi di riconoscimento facciale, Rekognition, a enti governativi provocando, come vedremo più avanti, forti contestazioni.

Riconoscimento facciale per le forze dell’ordine: pro e contro

Partiamo dai pro. Il riconoscimento facciale può essere uno strumento molto efficace, per esempio, per ritrovare persone scomparse. Gartner prevede che nel 2023 il numero delle persone scomparse nei mercati maturi si ridurrà dell’80%, rispetto al 2018, grazie all’utilizzo di sistemi di riconoscimento facciale basati sull’intelligenza artificiale. È dello scorso aprile la notizia della sperimentazione che la polizia indiana ha effettuato nella città di Nuova Delhi dove, utilizzando un sistema di riconoscimento facciale su circa 45.000 bambini, nel giro di 4 giorni sono stati identificati 2.930 bambini che risultavano scomparsi (una delle piaghe del paese asiatico dove i minori scomparsi sono oggi circa 200.000). E in quest’ambito sono particolarmente preziose informazioni come quelle che possono essere fornite da 10 years challenge perché consentono di addestrare l’algoritmo a riconoscere persone a distanza di anni dalla scomparsa, ipotizzandone la trasformazione somatica (argomento quanto mai critico nei bambini dove il cambiamento avviene in tempi molto rapidi e in forme radicali).

Sul versante sicurezza si può citare il caso di Jarrod Ramos, l’attentatore che il 28 giugno 2018 ha aperto il fuoco nella redazione della Capital Gazette di Annapolis uccidendo 5 persone, che è stato immediatamente identificato dalla polizia, che lo aveva arrestato sul posto, grazie a un sistema di riconoscimento facciale; Ramos infatti si era rifiutato di dare le proprie generalità e si era danneggiato i polpastrelli per impedire o ritardare il riconoscimento.

Questi esempi mostrano quanto i software di riconoscimento facciale siano utili, ma l’utilizzo diffuso di questi sistemi da parte delle forze dell’ordine di tutto il mondo solleva anche dubbi e proteste.

Il primo quesito riguarda la loro affidabilità. Nonostante i test positivi presentati dalle aziende, alla prova dei fatti questi software hanno mostrato in più di un caso la loro fallacia.

Nel luglio dello scorso anno, l’associazione per i diritti civili American Civil Liberties Union, ha condotto un esperimento sottoponendo, tramite Rekognition di Amazon, a un database di 25.000 foto segnaletiche le immagini di 535 parlamentari americani: nel 5% è stata riscontrata una corrispondenza, in realtà inesistente, tra i criminali e i parlamentari; inoltre l’esperimento ha confermato i “pregiudizi” di questi sistemi evidenziati dallo studio del MIT dato che, nonostante i parlamentari di colore costituiscano il 20% del Congresso, gli errori che hanno riguardato persone di colore nell’esperimento sono stati del 39%.

Strada di Shenzen in cui viene utilizzato il riconoscimento facciale per multare i pedoni che passano col rosso

Ed è noto il caso della finale di Champions League del 2017 tra Juventus e Real Madrid a Cardiff: la Polizia del Galles ha utilizzato un sistema di riconoscimento facciale dove, su 2470 soggetti che il sistema aveva identificato come sospetti tra i 170mila tifosi arrivati nella capitale del Galles, i falsi positivi sono risultati 2297 (92% dei casi).

Il secondo grande tema etico riguarda il data base di riferimento. Indipendentemente dalla tecnologia, che lo rende semplicemente più pervasivo, il problema è sempre lo stesso: nel momento in cui una persona è sottoposta a schedatura, i dati che la riguardano possono essere utilizzati per i fini, legali e non, più diversi.

La tecnologia di riconoscimento facciale consente di abbinare a un volto non solo un nome ma, grazie alle briciole (e spesso le montagne) digitali che ognuno di noi lascia in rete, anche interessi, passioni, orientamento religioso, politico, culturale. La schedatura non è certo una novità, è quasi coeva al concetto stesso di organizzazione sociale, ma il salto di qualità che l’intelligenza artificiale abilita è proprio la possibilità di tracciare profili molto precisi delle persone, correlando rapidamente miliardi di informazioni, e, di conseguenza, creare cluster sulla base di parametri utili ai fini commerciali ma anche di tipo politico, religioso ecc.

Nell’AI Now Report 2018 della New York University, pubblicato lo scorso dicembre, vengono riportati numerosi esempi dell’utilizzo di queste tecnologie per la sorveglianza dei comportamenti della popolazione. Un esempio per tutti è quello del governo cinese (paese che sta investendo ingenti capitali nello sviluppo di questi sistemi) nella regione autonoma dello Xinjiang per il controllo della minoranza etnica uigura (da anni protagonista di una forte opposizione al governo centrale) con strumenti di machine learning che processano milioni di informazioni derivanti da spyware, sniffer WI-FI, raccolta di dati biometrici che, combinati con l’uso diffuso di telecamere di sorveglianza, consentono di dare un volto ai soggetti catalogati e, in base ai risultati emersi dall’analisi di queste informazioni, generare liste di sospetti dissidenti che possono essere seguiti, controllati e destinati alla detenzione in “campi di rieducazione”.

La risposta delle corporation: chi riflette e chi no

Ed è proprio questo che allarma le organizzazioni per i diritti civili e chi, in generale, chiede una moratoria nell’utilizzo di questi sistemi da parte delle organizzazioni governative: il possibile utilizzo ai fini repressivi di questi database e dei sistemi che li analizzano.

Già oggetto di critiche per i contratti di fornitura di Rekognition alle forze dell’ordine USA, il board di Amazon nei giorni scorsi si è visto recapitare la richiesta di un gruppo di azionisti, guidato dalle Sisters of St Joseph of Brentwood, di interrompere i servizi di riconoscimento facciale erogati alle agenzie governative (richiesta che si unisce ad altra analoga dello scorso luglio, sempre di un gruppo di azionisti, e a quella di un gruppo di dipendenti Amazon dello scorso ottobre).

Mentre l’azienda di Jeff Bezos non sembra avere per il momento ripensamenti, gli altri big coinvolti nello sviluppo e nell’erogazione di questo tipo di software stanno seriamente riflettendo sulla faccenda, esplicitando frenate più o meno significative nella fornitura di questi servizi.

Kent Walker, Senior Vice President Global Affairs di Google, in un post pubblicato nello scorso dicembre sul blog ufficiale di Google, ha annunciato la scelta di “non offrire API per il riconoscimento facciale general-purpose prima di aver definito importanti questioni tecnologiche e di policy”, decisione che fa seguito alla nuova policy aziendale adottata a giugno, illustrata dallo stesso CEO Sundar Pichal sempre con un post, che vieta lo sviluppo di tecnologie AI che possano trasformarsi in armi o strumenti di sorveglianza; la carta dei principi si è subito concretizzata nell’interruzione della collaborazione avviata precedentemente con il Pentagono per dotare droni militari di “intelligenza” tramite servizi dell’azienda di Mountain View, rendendoli capaci di riconoscere oggetti e persone rilevati dall’alto.

Microsoft, con post del suo presidente Brad Smith dello scorso dicembre e dopo avere presentato nel luglio precedente la propria vision etica in tema di intelligenza artificiale, rileva che, in tema di riconoscimento facciale, è giunto il momento di passare all’azione e chiede esplicitamente ai governi di definire, nel 2019, regole chiare e in linea con il rispetto dei diritti civili per l’utilizzo di queste tecnologie perché si tratta di una decisione che non può rimanere in carico alle aziende: “Non crediamo che il mondo otterrà un buon servizio dalla corsa commerciale verso il basso [nello sviluppo ed erogazione di queste tecnologie ndr] con le società tecnologiche costrette a scegliere tra responsabilità sociale e successo di mercato. Crediamo che l’unico modo per proteggere il mondo da questa corsa verso il basso sia costruire un piano di responsabilità che supporti una sana competizione di mercato. E un solido piano richiede che ci assicuriamo che questa tecnologia e le organizzazioni che la sviluppano e la utilizzano siano governate dallo stato di diritto”, ha scritto Smith.

E mentre i governi e le organizzazioni internazionali definiscono queste regole, che fare? Prima di tutto una moratoria nell’erogazione di qualsiasi tipo di servizio di riconoscimento facciale alle organizzazioni governative: è quanto richiesto lo scorso 15 gennaio in una lettera aperta ai “big” della Silicon Valley sottoscritta da 85 associazioni di diritti umani.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4