NEWS

Dammi solo un minuto e ti svio LLM: la nuova tecnica si chiama BEAST



Indirizzo copiato

Alcuni ricercatori dell’Università del Maryland hanno scoperto un modo per sferrare attacchi velocemente ed efficacemente facendo sviare gli LLM anche più diffusi. Si può salvare chi è stato formato: i prompt malevoli sono leggibili e credibili, è facile essere ingannati. 

Pubblicato il 8 apr 2024

Marta Abba'

Giornalista



osservabilità

Capita fin troppo di frequente che il mondo funzioni alla rovescia. Quando però si tratta di ricercatori che provano a ingannare modelli di AI altamente diffusi e che usiamo “a nostro rischio e pericolo”, sta girando nella giusta direzione. Anzi, meno male che ci si mettono anche “hacker buoni” e non solo i veri criminali informatici. I loro sforzi e i loro risultati sono spunti utili per chi desidera offrire un modello o una soluzione eticamente corretti e che non creino danni a chi li usa in modo inevitabilmente ingenuo.

Continua a leggere questo articolo

Articoli correlati