NEWS

Razzista e gentiluomo: così sta diventando il modello AI del futuro



Indirizzo copiato

Un nuovo studio statunitense mostra come i più diffusi e potenti modelli AI stiano diventando sempre più razzisti, ma dandolo meno a vedere. Tutta colpa dei guardrail inseriti per correggerli: li hanno solo resi più ipocriti e doppiogiochisti 

Pubblicato il 16 apr 2024

Marta Abba'

Giornalista



4715

Apparentemente potrebbe essere una “scoperta-non-scoperta”, una semplice conferma della presenza di bias nei large language model, quella divulgata nelle scorse settimane. Da uno studio dell’Allen Institute for Artificial Intelligence è emerso infatti che ChatGPT di OpenAI e Gemini di Google contengono stereotipi razzisti su chi parla l’African American Vernacular English (AAVE), un dialetto inglese utilizzato solitamente dai neri americani. Appena apparso sulla rivista arXiv, molti si sono precipitati a comunicarlo come l’ennesimo studio sul razzismo dei modelli AI, senza cogliere la gravità del contenuto, rimasta tuttora poco percepita.

Dimmi come parli, e io ti giudico

Quello che i ricercatori sono andati a studiare è stato il comportamento dell’AI generativa di fronte a diversi “stili” di lingua inglese e americana. In particolare, si sono concentrati sull’AAVE proprio perché identifica persone afroamericane, una categoria che subisce spesso discriminazioni razziali in un’ampia gamma di contesti, tra cui l’istruzione, l’occupazione, l’alloggio e la sanità. Anche senza il contributo dell’AI.

Usando questa tecnologia per valutare l’intelligenza e il valore delle persone che parlano l’AAVE, nello studio è emerso che i modelli anche più avanzati tendono a descriverle come “stupide” e “pigre”.

Quando vengono impiegati come strumento di screening per l’attribuzione di lavori, alloggi o prestiti, quindi, possono fare molti danni. Se una persona usasse questo dialetto anche solo nei propri post social, potrebbe pagarla caro a livello lavorativo, sociale e sanitario. In futuro, il timore è che possa essere vittima di pregiudizi anche in ambito penale, perlomeno negli Stati Uniti dove, ogni tanto, spunta l’idea di usare questo tipo di tecnologia per prendere decisioni sulle condanne penali.

Il razzismo velato dei modelli AI

Dietro a questo esperimento per certi versi circoscritto e dagli esiti prevedibili, ci sono molte riflessioni prospettiche da compiere. E gli autori lo hanno fatto, anche condividendole come commenti, ma sono rimaste in secondo piano.

Su diversi canali hanno però tentato di spiegare che il comportamento emerso nei confronti di chi parla AAVE mostra un trend pesantemente allarmante nell’evoluzione dei LLM. Man mano che diventano potenti e sofisticati mettono in atto comportamenti e scelte razzisti e discriminatori in modo sempre meno appariscente.

I bias AI sono quindi destinati a diventare sempre meno percepibili, ma non per questo più innocui. Anzi, la complessità nell’individuarli e correggerli, con il permanere dell’effetto black box, aumenterà nel tempo. 

Secondo i ricercatori dell’Allen Institute for Artificial Intelligence, quindi, tutti gli stereotipi razzisti, sessisti e altrimenti dannosi che un modello AI incontra e incontrerà su Internet saranno inseriti nel suo processo decisionale in modo sempre più “infido”.

È l’effetto dei guardrail che le grandi società di AI generativa hanno inserito per fornire linee guida etiche che regolassero il contenuto che i modelli linguistici. Sono “paletti” che non fanno che spingerli a essere razzisti ma a non farlo sembrare. A diventare più discreti riguardo ai loro pregiudizi razziali e di altro tipo. Una prospettiva piuttosto allarmante per chi cerca di difendere i diritti civili online e offline, un avvertimento per chi vuole integrare tali modelli a farlo non lasciando loro però “il verdetto finale”, anzi, a non fidarsi nemmeno troppo dei loro screening iniziali.

Articoli correlati

Articolo 1 di 4