NEWS

Razzista e gentiluomo: così sta diventando il modello AI del futuro



Indirizzo copiato

Un nuovo studio statunitense mostra come i più diffusi e potenti modelli AI stiano diventando sempre più razzisti, ma dandolo meno a vedere. Tutta colpa dei guardrail inseriti per correggerli: li hanno solo resi più ipocriti e doppiogiochisti 

Pubblicato il 16 apr 2024

Marta Abba'

Giornalista



4715

Apparentemente potrebbe essere una “scoperta-non-scoperta”, una semplice conferma della presenza di bias nei large language model, quella divulgata nelle scorse settimane. Da uno studio dell’Allen Institute for Artificial Intelligence è emerso infatti che ChatGPT di OpenAI e Gemini di Google contengono stereotipi razzisti su chi parla l’African American Vernacular English (AAVE), un dialetto inglese utilizzato solitamente dai neri americani. Appena apparso sulla rivista arXiv, molti si sono precipitati a comunicarlo come l’ennesimo studio sul razzismo dei modelli AI, senza cogliere la gravità del contenuto, rimasta tuttora poco percepita.

Continua a leggere questo articolo

Articoli correlati