Ethical AI

Armi letali e AI: servono limitazioni

Si chiamano LAWS (Lethal Autonomous Weapon Systems): sono i robot-soldato con abilità cognitive che possono identificare, bersagliare e uccidere una persona senza alcun intervento umano. Uno sviluppo che può configurare scenari da incubo, ma la società civile, le stesse aziende che si occupano di intelligenza artificiale, l’Unione Europea e l’ONU si stanno muovendo per porre dei limiti, per uno sviluppo tecnologico che non dimentichi l’etica.

Pubblicato il 29 Gen 2019

Concetto di armi letali e Intelligenza Artificiale

“Io ne ho viste cose che voi umani non potreste immaginarvi: navi da combattimento in fiamme al largo dei bastioni di Orione… e ho visto i raggi B balenare nel buio vicino alle porte di Tannhäuser. E tutti quei momenti andranno perduti nel tempo, come lacrime nella pioggia. È tempo di morire.” Sono le parole che il replicante Roy Batty, programmato per uccidere e sfuggito al controllo della Tyrell Corporation, pronuncia, con un rammarico profondamente umano, nell’imminenza della sua “data di termine” nel film cult Blade Runner.

Il film è del 1982 ed è ambientato in una Los Angeles distopica del… 2019.

Ma se oggi androidi capaci di provare (non imitare) sentimenti umani non sono stati ancora costruiti, la realizzazione di robot killer e droni programmati per distruggere e uccidere è una delle frontiere dell’intelligenza artificiale che non riguarda un lontano, ipotetico futuro: attualmente, un numero imprecisato di paesi e industrie sta ricercando e sviluppando sistemi letali di armi autonome (i cosiddetti LAWS – Lethal Autonomous Weapon Systems), robot-soldato con abilità cognitive che possono identificare, bersagliare e uccidere una persona senza alcun intervento umano; questo significa che non è un essere umano a prendere la decisione finale di autorizzare la forza letale; la decisione e l’autorizzazione relative al fatto che qualcuno muoia o meno vengono lasciate al sistema di armi autonomo. Questi sistemi non includono i droni di oggi, che possono selezionare obiettivi in modo autonomo ma operano sotto la supervisione umana che attiva o disattiva le azioni del robot, e non includono sistemi autonomi che si limitano a difendersi contro altre armi, poiché il termine “letale” implica l’uccisione di un essere umano.

La situazione della ricerca e dello sviluppo di robot killer nel mondoFonte: World Economic Forum

Non bisogna dimenticare che la ricerca per lo sviluppo di armi “intelligenti” se da un lato è motivata dall’esigenza di rendere le azioni militari molto più “efficaci” (colpendo solo l’obiettivo designato, limitando o eliminando i cosiddetti danni collaterali, come nell’asettico e beffardo linguaggio militare vengono definite le vittime civili), dall’altro vuole far fronte al ruolo cruciale che assume l’aspetto psicologico, individuale e collettivo, in un conflitto: individuale perché a meno che non ci si trovi in presenza di un Roy Batty, il robot-soldato è privo di emozioni e quindi può colpire qualsiasi target; collettivo perché difficilmente l’opinione pubblica si indignerà alla vista di un po’ di “ferraglia” distrutta, sollevandosi invece contro la guerra come successe a metà degli anni ’60 alla vista delle centinaia di bare di soldati americani morti in Vietnam.

Quindi è presumibile che nessuno vorrà mettere in moratoria le armi intelligenti, ma quella che da più parti viene sollecitata è la definizione e condivisione di un limite che deve essere considerato invalicabile: la decisione finale sull’esito letale di un’azione deve sempre prevedere l’intervento umano.

Ed è questa la direzione nella quale si stanno muovendo, negli ultimi anni, le organizzazioni internazionali.

Quale limite per i Lethal Autonomous Weapon Systems?

La Convenzione ONU su certe armi convenzionali (UN Certain Conventional Weapons – CCW), adottata nel 1980 ed entrata in vigore nel 1983, proibisce o limita l’utilizzo, secondo i principi del Diritto Umanitario Internazionale, di alcune armi convenzionali considerate particolarmente dannose e/o suscettibili di provocare effetti indiscriminati sulla popolazione civile. A partire dal novembre 2013, il Gruppo di Esperti della Convenzione è stato incaricato di discutere le questioni relative alle tecnologie emergenti nell’ambito dei LAWS. Il Gruppo ha svolto varie riunioni che hanno permesso un’analisi approfondita, anche se non definitiva, e uno scambio di opinioni su quattro aree relative alle LAWS: aspetti tecnici, etici e sociologici, legali, operativi e militari.

Per quanto riguarda l’Europa, quello dei LAWS è uno degli argomenti sui quali i 52 esperti nominati dalla Commissione Europea per delineare le linee guida per un’AI etica hanno specificatamente chiesto un confronto alla comunità internazionale prima di stilare il documento finale.

È un tema sul quale l’Unione Europea si è mostrata da tempo molto sensibile. L’ultimo atto è l’approvazione della Risoluzione del Parlamento europeo del 12 settembre 2018 sui sistemi d’arma autonomi (notizia purtroppo passata in secondo piano dato che nella stessa riunione plenaria, Junker ha pronunciato il suo ultimo discorso sullo stato dell’Unione ed è stata approvata la proposta di direttiva sul diritto d’autore nel mercato unico digitale). Facendo riferimento a dichiarazioni e regolamenti della stessa Unione, ma soprattutto ai tanti segnali di allarme sollevati dalla società civile e da chi si occupa direttamente di intelligenza artificiale (la Risoluzione fa esplicito riferimento alla lettera aperta del luglio 2015 firmata da oltre 3000 ricercatori nel campo dell’intelligenza artificiale e della robotica e a quella del 21 agosto 2017 firmata da 116 fondatori di industrie di punta nel settore della robotica e dell’intelligenza artificiale, che mettono in guardia sui rischi dei sistemi d’arma autonomi letali, nonché alla lettera con la quale 240 organizzazioni del settore delle tecnologie e 3049 persone si impegnano a non sviluppare, produrre o utilizzare mai sistemi d’arma autonomi letali), il Parlamento europeo sollecita, per quanto riguarda i LAWS, lo sviluppo urgente di una posizione giuridicamente vincolante comune che affronti questioni etiche e giuridiche del controllo umano, della supervisione, della responsabilità e dell’attuazione della legge internazionale sui diritti umani, del diritto internazionale umanitario e delle strategie militari.

La sottile linea rossa che ci separa da un futuro da incubo

Chiudiamo questo articolo con un’altra citazione “cinematografica”. Nel 2017 ha fatto rapidamente il giro del mondo, superando in poche settimane i due milioni di visualizzazioni, Slaughterbots, il corto prodotto e distribuito da Future of Life, un’organizzazione sostenuta anche da Elon Musk e che annoverava Stephen Hawking tra i suoi fondatori: nei primi 5 minuti un entusiastico pubblico assiste a un’avvincente demo di un CEO della Silicon Valley su mini droni equipaggiati con una minima quantità di esplosivo, ma dotati di sistemi intelligenti che consentono di raggiungere, e colpire, direttamente il cervello del bersaglio che il sistema stesso individua sulla base di criteri autoappresi; nelle scene successive i telegiornali mostrano attacchi mirati a singoli senatori, individuati dai droni sulla base delle loro azioni politiche, per chiudersi con un’inquietante escalation che vede protagonisti alcuni studenti, “colpevoli” di essersi intromessi in “questioni politiche” (attività rilevata da un software capace di acquisire e processare post, tweet e altri contenuti social) e che vengono inseguiti fin dentro le aule dell’università e “abbattuti” con estrema precisione dal drone killer. Futuristico? No, le tecnologie adottate (miniaturizzazione, capacità elaborativa periferica, algoritmi di profilazione, sistemi di riconoscimento facciale ecc.) sono già disponibili, devono solo essere perfezionate per raggiungere il livello di precisione mostrato nel video, ma attenzione: a qualcuno quel livello di precisione potrebbe anche non interessare molto.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4