Apparentemente potrebbe essere una “scoperta-non-scoperta”, una semplice conferma della presenza di bias nei large language model, quella divulgata nelle scorse settimane. Da uno studio dell’Allen Institute for Artificial Intelligence è emerso infatti che ChatGPT di OpenAI e Gemini di Google contengono stereotipi razzisti su chi parla l’African American Vernacular English (AAVE), un dialetto inglese utilizzato solitamente dai neri americani. Appena apparso sulla rivista arXiv, molti si sono precipitati a comunicarlo come l’ennesimo studio sul razzismo dei modelli AI, senza cogliere la gravità del contenuto, rimasta tuttora poco percepita.
NEWS
Razzista e gentiluomo: così sta diventando il modello AI del futuro
Un nuovo studio statunitense mostra come i più diffusi e potenti modelli AI stiano diventando sempre più razzisti, ma dandolo meno a vedere. Tutta colpa dei guardrail inseriti per correggerli: li hanno solo resi più ipocriti e doppiogiochisti
Giornalista

Continua a leggere questo articolo
Argomenti
Canali
Speciale Digital Awards e CIOsumm.it