Il dito e la luna: da dove arrivano i veri rischi nell’uso dell’AI?

pittogramma Zerouno

Editoriale

Il dito e la luna: da dove arrivano i veri rischi nell’uso dell’AI?

Si moltiplicano gli allarmi per eventuali “perdite di controllo” degli algoritmi di intelligenza artificiale. I casi di cronaca che trovano spazio sui media, però, sono ben lontani dal centrare il problema.

13 Lug 2022

di Marco Schiaffino

Quello della gestione dell’intelligenza artificiale (AI per gli amici) non è un tema da prendere alla leggera. Al di là degli allarmismi dettati da analisi semplicistiche e posizioni ideologiche, l’evoluzione dell’AI pone problemi concreti a cui, prima o poi, si dovrà necessariamente rispondere in maniera organica e concreta.

Per il momento, gli unici allarmi registrati a livello di opinione pubblica sono quelli che riguardano l’ipotesi della “ribellione dei robot”, sintetizzati nella vicenda legata all’algoritmo LaMDA e alla teoria del ricercatore di Blake Lemoine, secondo il quale l’AI di Google sarebbe diventata “senziente”, acquisendo una sorta di coscienza.

Se quello fosse il problema, ci sarebbe ben poco di cui preoccuparsi. Dopo “Il mondo dei robot”; “Terminator” e “Matrix”, abbiamo tutti un’idea abbastanza precisa di come possiamo reagire. Purtroppo, la questione è più sottile e richiede una maggiore finezza per essere affrontata in maniera efficace.

You get what you give

Proprio la vicenda di LaMDA può essere un buon punto di partenza per comprendere il meccanismo capace di influenzare in maniera più subdola lo sviluppo dell’intelligenza artificiale. I sistemi di deep learning, che spesso vengono descritti come algoritmi in grado di “imparare” in maniera autonoma a prendere decisioni, funzionano in maniera tutto sommato semplice: derivano le logiche da applicare analizzando dei dati.

WHITEPAPER
PREDICTIVE ANALYSIS: perché la manutenzione degli impianti è cambiata. Per sempre.
Intelligenza Artificiale
IoT

Il vero nodo, di conseguenza è: quali dati gli forniamo? Nel caso di LaMDA, tutti gli esperti sono concordi nel dire che la supposta spiritualità dell’algoritmo (a un certo punto ha affermato di “meditare ogni giorno” e trarne grande beneficio) sia stata semplicemente il frutto di una serie di sollecitazioni fornitele in questo senso dallo stesso Lemoine.

Il problema, però, non è nuovo ed è alla base delle problematiche legate ai vari bias invariabilmente individuati nel recente passato. In sintesi: gli algoritmi adottano comportamenti discriminanti (o più genericamente indesiderabili) perché apprendono da dati che li portano a quelle conclusioni. Di solito, da informazioni riguardanti comportamenti di esseri umani che gli sono stati forniti come modelli per il loro addestramento.

Nel 2016, qualcosa di simile è accaduto a Tay, il software AI di Microsoft che avrebbe dovuto imparare a interagire con gli umani attraverso Twitter. Sommerso di commenti razzisti e sessisti, l’algoritmo ha adottato rapidamente le stesse modalità nel rapportarsi con tutti i suoi interlocutori.

In ambito di ricerca questo fenomeno (sia a livello accademico che nei progetti delle Big Tech come Google e soci) viene analizzato, controllato e mitigato attraverso azioni specifiche. Tutte le aziende impegnate nello sviluppo di sistemi di intelligenza artificiale, infatti, hanno ormai dipartimenti dedicati all’etica nello sviluppo della tecnologia. Si tratta però di analisi ex-post, cioè che individuano un bias già acquisito dall’algoritmo e che lo correggono.

L’insostenibile leggerezza della quotidianità

Partendo dal presupposto che il vero problema dell’AI non si collochi nell’elaborazione dell’algoritmo ma nelle modalità di addestramento (in particolare risieda nei dati che vengono utilizzati a questo scopo) viene da chiedersi che cosa potrà succedere quando l’intelligenza artificiale diventerà uno strumento di uso comune.

Siamo sicuri che la piccola software house (o addirittura la singola azienda) avrà l’accortezza e la lungimiranza di investire risorse per evitare eventuali derive? I possibili scenari, sotto questo punto di vista, configurano vere e proprie distopie.

Dalla possibilità che un algoritmo operi discriminazione in base al sesso in fase di assunzione (è già successo) fino all’ipotesi che i dati sanitari vengano utilizzati per stabilire l’esito di una richiesta di finanziamento, l’unico limite alla formulazione di ipotesi riguardanti conseguenze “indesiderabili” nell’uso dell’AI è solo l’immaginazione.

Regole e leggi possono bastare?

Il dibattito sull’AI sta “carburando” da qualche tempo e i cominciano a registrare le prime iniziative legislative che puntano a cercare di arginare le possibili derive. Prima tra tutte quella dell’Unione Europea, che sta alacremente lavorando a una proposta di normativa in merito.

Tenendo conto di quanto detto in precedenza, però, i dubbi sulla reale efficacia di uno strumento legislativo e di eventuali sanzioni rimangono in campo. Escluso l’esplicito dolo, cioè l’ipotesi in cui qualcuno sviluppi volutamente un algoritmo con caratteristiche discriminatorie, si apre un’area grigia in cui l’AI può semplicemente “sfuggire di mano” e in cui individuare precise responsabilità o anche semplicemente individuare l’esistenza del problema diventa estremamente difficile.

Per una volta, sarebbe una bella idea aprire un reale confronto tra istituzioni e mondo della ricerca senza partire da un modello predefinito da commentare o correggere, ma per definire a priori quale possa essere un approccio efficace. Magari abbandonando la logica delle sanzioni – che con il GDPR hanno funzionato abbastanza bene – per introdurre invece un framework di procedure che consenta di limitare il rischio.

Marco Schiaffino

Direttore ZeroUno

Marco Schiaffino ricopre il ruolo di Direttore di ZeroUno da aprile 2022. Dal 2000 si occupa di nuove tecnologie e sicurezza informatica, come redattore (e in seguito caporedattore) di Computer Magazine. Giornalista freelance, ha collaborato con varie riviste di settore e siti di news, tra cui PC Professionale, CHIP e Il Fatto Quotidiano. È autore e conduttore della trasmissione radiofonica settimanale Doppio Click su Radiopopolare.

Articolo 1 di 5