Capita fin troppo di frequente che il mondo funzioni alla rovescia. Quando però si tratta di ricercatori che provano a ingannare modelli di AI altamente diffusi e che usiamo “a nostro rischio e pericolo”, sta girando nella giusta direzione. Anzi, meno male che ci si mettono anche “hacker buoni” e non solo i veri criminali informatici. I loro sforzi e i loro risultati sono spunti utili per chi desidera offrire un modello o una soluzione eticamente corretti e che non creino danni a chi li usa in modo inevitabilmente ingenuo.
NEWS
Dammi solo un minuto e ti svio LLM: la nuova tecnica si chiama BEAST
Alcuni ricercatori dell’Università del Maryland hanno scoperto un modo per sferrare attacchi velocemente ed efficacemente facendo sviare gli LLM anche più diffusi. Si può salvare chi è stato formato: i prompt malevoli sono leggibili e credibili, è facile essere ingannati.
Giornalista

Continua a leggere questo articolo
Argomenti
Canali
VITA DA CIO
-

«Il coraggio della leadership»: la visione di Giovanni Cauteruccio, CIO di Prysmian
13 Mar 2026 -

In A2A, IT e business si muovono a ritmo di jazz
12 Feb 2026 -

Cosa hanno raccontato i CIO nel 2025
26 Dic 2025 -

«Rimettere la “T” al centro dell’IT»: la visione di Enrico Andrini, CIO di Bonfiglioli
16 Dic 2025 -

Dal supercalcolo al pensiero critico: la figura del CIO secondo Dario Pagani (Eni)
27 Nov 2025









