Dopo l’innamoramento iniziale per “le meraviglie prodotte dall’intelligenza artificiale generativa”, oggi, con mente più lucida, si cerca di esplorarne le tante opportunità, vigilando perché siano accessibili a tutti in modo omogeneo. Dalla tecnologia, la sfida si è spostata all’etica, alla sociologia e all’ambito normativo, ma gli esperti IT non sono rimasti senza lavoro. Un ambito che ne sta offrendo tanto è quello relativo ai casi di avvelenamento di LLM (Large Language Model). Si tratta di un campo ancora poco noto, ma che ha tutta l’aria di poter diventare il terreno dove i criminali informatici possono coltivare minacce dagli impatti detonanti. Non è pessimismo e nemmeno allarmismo per “rovinare” la fama della genAI, ma uno scenario sempre più possibile e dimostrabile. Un dato di fatto che da un lato fa tremare, ma dall’altro fa pensare: meglio conoscere per primi, e subito, questi rischi piuttosto che scoprirli dopo il cybercrime.
News
Codice avvelenato a “scoppio” ritardato: nuovo rischio cyber nascosto negli LLM
Scoperta la possibilità di nascondere “frasi pericolose” in Internet, perché scatenino un attacco cyber dopo un certo arco di tempo. Scoperta anche la attuale mancanza di protezione per questo genere di crimine: le tecniche di sicurezza tradizionali non lo intercettano
Giornalista

Continua a leggere questo articolo
Argomenti
Canali
Speciale Digital Awards e CIOsumm.it