Capita fin troppo di frequente che il mondo funzioni alla rovescia. Quando però si tratta di ricercatori che provano a ingannare modelli di AI altamente diffusi e che usiamo “a nostro rischio e pericolo”, sta girando nella giusta direzione. Anzi, meno male che ci si mettono anche “hacker buoni” e non solo i veri criminali informatici. I loro sforzi e i loro risultati sono spunti utili per chi desidera offrire un modello o una soluzione eticamente corretti e che non creino danni a chi li usa in modo inevitabilmente ingenuo.
NEWS
Dammi solo un minuto e ti svio LLM: la nuova tecnica si chiama BEAST
Alcuni ricercatori dell’Università del Maryland hanno scoperto un modo per sferrare attacchi velocemente ed efficacemente facendo sviare gli LLM anche più diffusi. Si può salvare chi è stato formato: i prompt malevoli sono leggibili e credibili, è facile essere ingannati.
Giornalista

Continua a leggere questo articolo
Argomenti
Canali
Speciale Digital Awards e CIOsumm.it