Apparentemente potrebbe essere una “scoperta-non-scoperta”, una semplice conferma della presenza di bias nei large language model, quella divulgata nelle scorse settimane. Da uno studio dell’Allen Institute for Artificial Intelligence è emerso infatti che ChatGPT di OpenAI e Gemini di Google contengono stereotipi razzisti su chi parla l’African American Vernacular English (AAVE), un dialetto inglese utilizzato solitamente dai neri americani. Appena apparso sulla rivista arXiv, molti si sono precipitati a comunicarlo come l’ennesimo studio sul razzismo dei modelli AI, senza cogliere la gravità del contenuto, rimasta tuttora poco percepita.
NEWS
Razzista e gentiluomo: così sta diventando il modello AI del futuro
Un nuovo studio statunitense mostra come i più diffusi e potenti modelli AI stiano diventando sempre più razzisti, ma dandolo meno a vedere. Tutta colpa dei guardrail inseriti per correggerli: li hanno solo resi più ipocriti e doppiogiochisti
Giornalista

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business

VITA DA CIO
-

Cosa hanno raccontato i CIO nel 2025
26 Dic 2025 -

«Rimettere la “T” al centro dell’IT»: la visione di Enrico Andrini, CIO di Bonfiglioli
16 Dic 2025 -

Dal supercalcolo al pensiero critico: la figura del CIO secondo Dario Pagani (Eni)
27 Nov 2025 -

Modernità e rapidità d’esecuzione: l’IT di Hyundai come ponte tra culture e innovazione
06 Nov 2025 -

Liberi dai lock-in: la vision di Erika Barausse, CIO di Replay, per un’IT che sceglie
30 Ott 2025

















