Editoriale

Il dito e la luna: da dove arrivano i veri rischi nell’uso dell’AI?

Si moltiplicano gli allarmi per eventuali “perdite di controllo” degli algoritmi di intelligenza artificiale. I casi di cronaca che trovano spazio sui media, però, sono ben lontani dal centrare il problema.

Pubblicato il 13 Lug 2022

shutterstock_2115664517 (1) (1)

Quello della gestione dell’intelligenza artificiale (AI per gli amici) non è un tema da prendere alla leggera. Al di là degli allarmismi dettati da analisi semplicistiche e posizioni ideologiche, l’evoluzione dell’AI pone problemi concreti a cui, prima o poi, si dovrà necessariamente rispondere in maniera organica e concreta.

Per il momento, gli unici allarmi registrati a livello di opinione pubblica sono quelli che riguardano l’ipotesi della “ribellione dei robot”, sintetizzati nella vicenda legata all’algoritmo LaMDA e alla teoria del ricercatore di Blake Lemoine, secondo il quale l’AI di Google sarebbe diventata “senziente”, acquisendo una sorta di coscienza.

Se quello fosse il problema, ci sarebbe ben poco di cui preoccuparsi. Dopo “Il mondo dei robot”; “Terminator” e “Matrix”, abbiamo tutti un’idea abbastanza precisa di come possiamo reagire. Purtroppo, la questione è più sottile e richiede una maggiore finezza per essere affrontata in maniera efficace.

You get what you give

Proprio la vicenda di LaMDA può essere un buon punto di partenza per comprendere il meccanismo capace di influenzare in maniera più subdola lo sviluppo dell’intelligenza artificiale. I sistemi di deep learning, che spesso vengono descritti come algoritmi in grado di “imparare” in maniera autonoma a prendere decisioni, funzionano in maniera tutto sommato semplice: derivano le logiche da applicare analizzando dei dati.

Il vero nodo, di conseguenza è: quali dati gli forniamo? Nel caso di LaMDA, tutti gli esperti sono concordi nel dire che la supposta spiritualità dell’algoritmo (a un certo punto ha affermato di “meditare ogni giorno” e trarne grande beneficio) sia stata semplicemente il frutto di una serie di sollecitazioni fornitele in questo senso dallo stesso Lemoine.

Il problema, però, non è nuovo ed è alla base delle problematiche legate ai vari bias invariabilmente individuati nel recente passato. In sintesi: gli algoritmi adottano comportamenti discriminanti (o più genericamente indesiderabili) perché apprendono da dati che li portano a quelle conclusioni. Di solito, da informazioni riguardanti comportamenti di esseri umani che gli sono stati forniti come modelli per il loro addestramento.

Nel 2016, qualcosa di simile è accaduto a Tay, il software AI di Microsoft che avrebbe dovuto imparare a interagire con gli umani attraverso Twitter. Sommerso di commenti razzisti e sessisti, l’algoritmo ha adottato rapidamente le stesse modalità nel rapportarsi con tutti i suoi interlocutori.

In ambito di ricerca questo fenomeno (sia a livello accademico che nei progetti delle Big Tech come Google e soci) viene analizzato, controllato e mitigato attraverso azioni specifiche. Tutte le aziende impegnate nello sviluppo di sistemi di intelligenza artificiale, infatti, hanno ormai dipartimenti dedicati all’etica nello sviluppo della tecnologia. Si tratta però di analisi ex-post, cioè che individuano un bias già acquisito dall’algoritmo e che lo correggono.

L’insostenibile leggerezza della quotidianità

Partendo dal presupposto che il vero problema dell’AI non si collochi nell’elaborazione dell’algoritmo ma nelle modalità di addestramento (in particolare risieda nei dati che vengono utilizzati a questo scopo) viene da chiedersi che cosa potrà succedere quando l’intelligenza artificiale diventerà uno strumento di uso comune.

Siamo sicuri che la piccola software house (o addirittura la singola azienda) avrà l’accortezza e la lungimiranza di investire risorse per evitare eventuali derive? I possibili scenari, sotto questo punto di vista, configurano vere e proprie distopie.

Dalla possibilità che un algoritmo operi discriminazione in base al sesso in fase di assunzione (è già successo) fino all’ipotesi che i dati sanitari vengano utilizzati per stabilire l’esito di una richiesta di finanziamento, l’unico limite alla formulazione di ipotesi riguardanti conseguenze “indesiderabili” nell’uso dell’AI è solo l’immaginazione.

Regole e leggi possono bastare?

Il dibattito sull’AI sta “carburando” da qualche tempo e i cominciano a registrare le prime iniziative legislative che puntano a cercare di arginare le possibili derive. Prima tra tutte quella dell’Unione Europea, che sta alacremente lavorando a una proposta di normativa in merito.

Tenendo conto di quanto detto in precedenza, però, i dubbi sulla reale efficacia di uno strumento legislativo e di eventuali sanzioni rimangono in campo. Escluso l’esplicito dolo, cioè l’ipotesi in cui qualcuno sviluppi volutamente un algoritmo con caratteristiche discriminatorie, si apre un’area grigia in cui l’AI può semplicemente “sfuggire di mano” e in cui individuare precise responsabilità o anche semplicemente individuare l’esistenza del problema diventa estremamente difficile.

Per una volta, sarebbe una bella idea aprire un reale confronto tra istituzioni e mondo della ricerca senza partire da un modello predefinito da commentare o correggere, ma per definire a priori quale possa essere un approccio efficace. Magari abbandonando la logica delle sanzioni – che con il GDPR hanno funzionato abbastanza bene – per introdurre invece un framework di procedure che consenta di limitare il rischio.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4