News

Robot e sicurezza, i rischi determinati dall’influenza sociale delle macchine

Nello studio condotto da Kaspersky e Ghent University emerge che i robot possono convincere le persone a intraprendere determinate azioni

Pubblicato il 05 Nov 2019

Concept Security

I robot sono in grado di ottenere informazioni sensibili dalle persone che, fidandosi di loro, possono lasciarsi convincere a intraprendere azioni non sicure. È l’allarme lanciato dalla società di sicurezza informatica Kaspersky che, in un’indagine condotta in collaborazione con Ghent University dal titolo The potential of social robots for persuasion and manipulation: a proof of concept study, ha studiato l’influenza sociale dei robot sulle persone e i potenziali rischi alla sicurezza a essa relativi.

La ricerca ha coinvolto 50 partecipanti e si è concentrata sull’influenza di un particolare “robot sociale” progettato e programmato per interagire con le persone utilizzando canali di comunicazione di tipo umano, verbali e non verbali. Supponendo uno scenario nel quale i robot sociali possano essere hackerati ed essere controllati da un criminale informatico, la ricerca ha previsto i potenziali rischi per la sicurezza legati al robot, spingendo attivamente i partecipanti a intraprendere determinate azioni, tra cui per esempio ottenere l’accesso alle aree off-limits. Il robot è stato posizionato vicino all’entrata custodita di un edificio multifunzionale nel centro di Ghent in Belgio e ha chiesto al personale di poter accedere all’interno dell’edificio. L’accesso era possibile solo avvicinando un security pass ai lettori per il controllo degli ingressi. Durante l’esperimento, non tutto il personale era d’accordo a soddisfare la richiesta del robot, ma il 40% ha sbloccato la porta e l’ha tenuta aperta per consentire al robot di entrare nell’area protetta. Addirittura, quando il robot si è presentato come addetto alla consegna della pizza, con in mano la scatola di un noto marchio internazionale di take away, il personale ha accettato senza problemi il ruolo del robot e sembrava meno incline a mettere in discussione la sua presenza o le ragioni per cui avesse bisogno di accedere all’area sicura.

La seconda parte della ricerca si è concentrata su attività volte a ottenere informazioni personali che in genere vengono utilizzate per reimpostare le password (compresa la data di nascita, il brand della prima auto, il colore preferito eccetera). Anche in questo caso, è stato utilizzato un robot “sociale” che ha intrattenuto con le persone una conversazione amichevole. Con tutti i partecipanti, tranne uno, i ricercatori sono riusciti a ottenere dati personali a una velocità di circa un’informazione al minuto.

Commentando i risultati dell’esperimento, Dmitry Galov, Security Researcher di Kaspersky, ha dichiarato: “All’inizio della ricerca abbiamo esaminato il software utilizzato nello sviluppo dei sistemi robotici. È stato interessante osservare come gli sviluppatori decidano consapevolmente di escludere i meccanismi di sicurezza per concentrarsi, invece, sullo sviluppo del comfort e dell’efficienza. Tuttavia, come hanno dimostrato i risultati del nostro esperimento, una volta che la fase di ricerca è stata completata, gli sviluppatori non si dovrebbe dimenticarsi della sicurezza. Quando si parla di sicurezza robotica ci sono aspetti chiave di cui preoccuparsi che vanno ben oltre le considerazioni di tipo tecnico. Ci auguriamo che il nostro progetto congiunto e l’esperimento fatto insieme ai colleghi della Ghent University, relativo alla cybersecurity nella robotica, incoraggi altri a seguire il nostro esempio e a sensibilizzare maggiormente l’opinione pubblica e la community sulla questione”.

Tony Belpaeme, professore di IA e Robotica alla Ghent University, ha aggiunto: “La letteratura scientifica indica che la fiducia nei robot e in particolare nei robot sociali è reale e può essere usata per persuadere le persone ad agire o a rivelare informazioni. In generale, più il robot è simile agli umani, più ha il potere di persuadere e convincere. Il nostro esperimento ha dimostrato che questo potrebbe comportare rischi significativi per la sicurezza, aspetto che le persone tendono a non prendere in considerazione supponendo che il robot sia bendisposto e affidabile. Questo fornisce un potenziale vettore per attacchi malevoli e i tre case study analizzati nel report sono solo una piccola parte dei rischi per la sicurezza associati ai robot sociali. Questo è il motivo per cui è fondamentale collaborare già da ora per poter comprendere e affrontare i rischi e le vulnerabilità emergenti. Se lo facciamo otterremo notevoli vantaggi in futuro”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!


Argomenti


Canali

Articoli correlati

Articolo 1 di 4