News

I deepfake minano l’autenticazione vocale

Con l’intelligenza artificiale si possono bypassare i sistemi di autenticazione vocale con un tasso di successo del 99%. Accade solo con alcuni ma la scoperta di due informatici canadesi deve spingere tutti a migliorare questi software, prima che i deepfake vocali li rendano inutili

Pubblicato il 31 Ago 2023

Immagine di ZinetroN su Shutterstock

Chi è sempre stato scettico sull’affidabilità dell’autenticazione vocale, oggi ha un motivo in più per non cambiare idea. Sembra infatti che l’intelligenza artificiale stia regalando il potere di clonare le voci umane. Ciò potrebbe significare, per qualsiasi malintenzionato, poter bypassare ogni controllo. Ciò sicuramente significa che gli sviluppatori di software con questa funzionalità devono elevare al massimo il livello di sicurezza garantito. Una volta sparsa la notizia, infatti, sicuramente glielo domanderanno soprattutto call center, banche, agenzie governative, i principali utenti di questo tipo di autenticazione.

La voce non è più unica

La segnalazione di questa nuova vulnerabilità non è originata dal comune allarmismo legato all’AI ma nasce nel mondo della ricerca. Una coppia di informatici dell’Università di Waterloo in Canada ha infatti recentemente provato che, utilizzando il machine learning, è diventato più facile imitare la voce di qualcuno e ingannare i controlli di questi sistemi di autenticazione.

La scoperta, pubblicata negli atti del 44° IEEE Symposium on Security and Privacy, si basa su un intenso lavoro scientifico di manipolazione di registrazioni vocali generate dall’intelligenza artificiale, per creare campioni “avversari” altamente efficaci.

In genere si è sempre partiti dal presupposto che la voce di ognuno sia unica, per via di caratteristiche fisiche, come la dimensione e la forma del tratto vocale e della laringe, e di fattori sociali, come l’accento. È ciò su cui fanno leva i sistemi di autenticazione vocale, captando queste sfumature in impronte vocali uniche e, teoricamente inimitabili. L’audio generato con algoritmi di intelligenza artificiale sarebbe infatti “affetto” da artefatti distintivi che gli analisti sono in grado di individuare, riconoscendolo come “fake”.

La sfida dei ricercatori canadesi è stata quella di sviluppare una nuova tecnica per eliminare queste caratteristiche “civetta”. Il segreto starebbe nell’incidere l’impronta vocale dell’utente nel campione contraffatto, tentando di rimuovere gli artefatti meccanici che sono predominanti.

Migliorare prima che migliori il cybercrime

Il piano sembra semplice ma, per implementarlo, sono stati necessari un massiccio uso di AI generativa, tanto training e numerose voci reali e non. La coppia di informatici ha addestrato il proprio sistema su campioni di 107 discorsi autentici per individuare in modo scientifico ciò che rende umano un parlato. Poi è passata alla fase di test dell’algoritmo, creando diversi campioni avversari per provare a ingannare i sistemi di autenticazione vocale. Il tasso di successo raggiunto è stato del 72%, ma con alcuni software più deboli, la percentuale è schizzata al 99% dopo solo sei tentativi.

Il risultato spaventa, ma sono gli stessi ricercatori ad affermare che non deve portare ad archiviare definitivamente questa tecnologia. Esistono già sistemi avanzati che la utilizzano e con cui il loro algoritmo ha avuto poco successo (10%). Ci sono anche tanti miglioramenti possibili da implementare, senza contare che non tutti i criminali sono oggi in grado di usare l’AI per imitare la voce umana. Oltre ad avere accesso alla voce del loro bersaglio, è necessario che siano anche sufficientemente esperti di tecnologia. Mentre studiano per diventarlo, il mondo della sicurezza ha un discreto margine di tempo per trovare meccanismi di autenticazione più affidabili e a prova di deepfake.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4