News

Intelligenza artificiale e manipolazione, ecco gli esiti degli esperimenti F-Secure

Una recente ricerca, condotta dal Centro di Eccellenza per l’Intelligenza Artificiale di F-Secure, mostra come i sistemi di raccomandazione basati sull’IA, utilizzati da social media, siti di shopping online, servizi di streaming eccetera, possano essere facilmente manipolati da eventuali attaccanti o gruppi organizzati

Pubblicato il 08 Set 2021

ai

La crescente influenza dei sistemi di raccomandazione basati sull’intelligenza artificiale su ciò che le persone vedono e fanno su Internet ha sollevato preoccupazioni circa la loro suscettibilità a vari tipi di abusi, come il loro utilizzo nella diffusione di disinformazione e nella promozione di teorie cospirative.

Andy Patel, un ricercatore del centro di eccellenza per l’intelligenza artificiale del fornitore di sicurezza informatica F-Secure, ha recentemente completato una serie di esperimenti per apprendere come semplici tecniche di manipolazione possano influenzare le raccomandazioni basate sull’IA su un social network.

“Twitter e altre reti – ha affermato Patel – sono diventati campi di battaglia in cui diverse persone e gruppi spingono diverse narrazioni. Queste includono conversazioni organiche e annunci, ma anche messaggi destinati a minare ed erodere la fiducia nelle informazioni legittime. Esaminare come questi ‘combattenti’ possano manipolare l’IA aiuta a far emergere i limiti di ciò che l’IA può realisticamente fare, e idealmente, come può essere migliorata.”

Un sondaggio del PEW Research Center condotto alla fine del 2020 ha scoperto che il 53% degli americani ottiene notizie dai social media. Gli intervistati di età compresa tra i 18 e i 29 anni hanno identificato i social media come la loro fonte più frequente di notizie. Allo stesso tempo, la ricerca ha evidenziato i potenziali rischi nell’affidarsi ai social media come fonte: un’indagine del 2018 ha scoperto che i post di Twitter contenenti falsità hanno il 70% di probabilità in più di essere retwittati.

Per la sua ricerca, Patel ha raccolto dati da Twitter e li ha utilizzati per addestrare modelli di filtraggio collaborativo (o collaborative filtering, un tipo di apprendimento automatico utilizzato per codificare le somiglianze tra utenti e contenuti in base alle interazioni precedenti) da utilizzare nei sistemi di raccomandazione. Poi, ha eseguito esperimenti che prevedevano il riaddestramento di questi modelli utilizzando set di dati contenenti retweet aggiuntivi (quindi avvelenando i dati) tra account selezionati per vedere come cambiavano le raccomandazioni.

Selezionando gli account appropriati per il retweet e variando il numero di account che eseguono retweet insieme al numero di retweet che hanno pubblicato, anche un numero molto piccolo di retweet era sufficiente a manipolare il sistema di raccomandazione per promuovere gli account il cui contenuto è stato condiviso attraverso i retweet iniettati.

Mentre gli esperimenti sono stati condotti utilizzando versioni semplificate dei meccanismi di IA che le piattaforme di social media e altri siti web probabilmente impiegano quando forniscono raccomandazioni agli utenti, Patel ritiene che Twitter e molti altri servizi popolari stiano già affrontando questi attacchi nel mondo reale.

“Abbiamo eseguito test su modelli semplificati – ha aggiunto Patel – per comprendere meglio come i veri attacchi potrebbero effettivamente funzionare. Penso che le piattaforme di social media stiano già affrontando attacchi simili a quelli dimostrati in questa ricerca, ma per queste organizzazioni è difficile essere certi che questo è ciò che sta accadendo, perché vedono solo il risultato, non come funziona”.

Secondo Matti Aksela, Vice President of Artificial Intelligence di F-Secure, è importante riconoscere e affrontare le potenziali sfide con la sicurezza dell’IA.

“Poiché ci affideremo sempre di più all’IA in futuro, dobbiamo capire cosa fare per proteggerla da potenziali abusi. Il fatto che l’IA e il machine learning alimentino in misura crescente i servizi da cui dipendiamo ci richiede di capirne i punti di forza e di debolezza in termini di sicurezza, oltre ai benefici che possiamo ottenere, in modo da poterci fidare dei risultati. L’IA sicura è il fondamento dell’IA affidabile” ha concluso Aksela.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4