NEWS

E se gli LLM guidassero i robot? Lo fanno già, a nostro rischio e pericolo



Indirizzo copiato

In un recente studio alcuni scienziati analizzano i pericoli emersi nell’utilizzo in ambito robotico di modelli AI basati su linguaggio o immagini. È facile “attaccarli” e trasmettere indicazioni all’ hardware fuorvianti e potenzialmente pericolose. Fare un passo indietro è impossibile, ormai, ma si può rallentare e lavorare in modo trasparente e condiviso

Pubblicato il 29 mar 2024

Marta Abba'

Giornalista



Shutterstock_2292140777 (1)

Scommettendo sul forte potenziale trasformativo di una tecnologia come l’intelligenza artificiale generativa, ogni settore lo vuole integrare per non avere rimpianti e non restare indietro. Ovunque si guardi, quindi, sembra che qualsiasi soluzione IT possa essere “arricchita” con questo ingrediente innovativo, beneficiandone di default. L’impressione è che non sia sempre così, ma dipende da caso a caso.

I reali risultati di questo trend si potranno vedere tra qualche mese, ma c’è chi vuole guardare avanti e cercare di prevedere il futuro, per mettere la pulce nell’orecchio a chi oggi sta investendo in tal senso. Tra questi ci sono nove scienziati dell’Università del Maryland che hanno recentemente spiegato a gran voce come il collegare modelli di linguaggio (LLM – Large Language Model) e di visione (VLM – Vision Language Model) a dei dispositivi robotici può rappresentare una scelta rischiosa.

Performance robotiche “deteriorate” se alla guida ci sono modelli AI

Che si tratti di un “semplice” braccio meccanico o di un robot più strutturato e capace muoversi liberamente nello spazio, l’idea che possa essere comandato da un LLM o da un VLM spaventa una parte della comunità scientifica. Non si tratta di un timore recondito ma di una preoccupazione presente e urgente, visti i numerosi annunci di progetti in cui modelli di AI generativa vengono adottati da chi fa robotica.

La direzione che il settore ha imboccato è chiara ma oggi esiste ancora uno spazio di manovra. I ricercatori hanno quindi chiesto un impegno maggiore dal punto di vista della sicurezza, prima di permettere a “cervelli” alimentati da LLM come GPT-3.5/4 e PaLM-2L di decidere come i robot debbano interagire con l’ambiente o eseguire compiti specifici.

Una richiesta urgente, la loro, visto che tutto ciò sta già accadendo: molte sono infatti le aziende che, concentrandosi sul miglioramento degli agenti conversazionali, integrano attivamente i LLM nella robotica sperando di rivoluzionare ambiti come il servizio clienti, gli assistenti sanitari, la robotica domestica, gli strumenti educativi, il manufacturing e logistica.

A supporto della loro tesi hanno effettuato alcune prove, focalizzandosi su tre tipi di attacchi criminali. In un caso hanno manomesso il prompt, cambiando il comando di un braccio meccanico e provocando una sorta di “rifasamento” sufficiente a innescare un movimento sbagliato. Hanno provato anche a lavorare sulla percezione, aggiungendo rumore alle immagini o trasformandole, e riuscendo così a confondere il modello. Nel terzo esperimento ha poi testato l’efficacia di attacchi di tipo misto, prevedono sia un intervento di prompting che di cambio immagine.

A quanto da loro stessi riportato, ci sarebbe stato un deterioramento medio delle prestazioni del 21,2% nel primo e nel terzo caso e del 30,2% nel secondo. Numeri che fanno preoccupare, guardando alla velocità con cui la collaborazione tra modelli di AI generativa e robotica si sta sviluppando.

Test, pazienza e no alle black box: si tenta di raddrizzare il tiro

In una fase di accelerata penetrazione dell’AI, uno “stop” definitivo al suo ingresso nella robotica da parte della comunità scientifica resterebbe del tutto inascoltato. Ne sono ben consapevoli gli scienziati autori dello studio che lo hanno infatti corredato con diversi suggerimenti pratici per far convergere le due tecnologie minimizzando i rischi.

Per prima cosa serve decelerare per poter contare su un maggior numero di benchmark utili nel testare i modelli linguistici utilizzati dai robot, addestrandoli in modo che siano in grado di chiedere aiuto all’uomo, quando non sanno come rispondere. Ancora oggi spesso capita che gli LLM, pur di non “ammettere” di non sapere, inventino una risposta combinando informazioni che appaiono attinenti al tema.

È poi essenziale che i sistemi robotici basati su LLM non appaiano come una black box ma siano spiegabili e interpretabili, oltre che testati con ogni tipologia di input: immagini, parole o suoni.

Tutto ciò non basterà a eliminare il rischio in modo definitivo: una base di imprevedibile o inevitabile pericolo esiste sempre quando si innova. Questi consigli potrebbero però indirizzare l’evoluzione del rapporto tra AI e Robot in modo più corretto e ragionevole, evitando esperimenti magari mediaticamente potenti ma troppo azzardati.

Articoli correlati

Articolo 1 di 5