Rilevare deepfake in real time sfiorando una precisione del 100%. Intel lancia la sfida 

pittogramma Zerouno

News

Rilevare deepfake in real time sfiorando una precisione del 100%. Intel lancia la sfida 

Pur essendo un pericolo annunciato, si fatica a trovare “antidoti” efficaci per le truffe tramite deepfake. Ora Intel ha presentato il primo rilevatore real time di questi video sintetici con cui è possibile manipolare la realtà, fino a “mettere in bocca” a una persona frasi mai pronunciate. Si chiama FakeCatcher e, secondo l’azienda, raggiungerebbe un tasso di precisione del 96%.

Pubblicato il 01 Dic 2022

di Marta Abba'

Già nel 2020, Forrester Research aveva previsto che i costi associati alle truffe perpetrate tramite contenuti deepfake, avrebbero superato i 250 milioni di dollari. Oggi tale tecnica di sintesi di immagini basata sull’AI non è più una preoccupazione solo per una nicchia di esperti. Si sta diffondendo in modo rapido, complici alcuni “casi d’uso” con larga copertura mediatica, come i video “falsi” di Tom Cruise, Elon Musk e Leonardo DiCaprio apparsi online.

Se finora una affermazione in video era considerata autentica per definizione, oggi servono strumenti affidabili per accertarsene. Quello appena presentato da Intel, FakeCatcher, rispetto ai precedenti tentativi, si distingue per l’approccio tecnologico e per la promessa di una identificazione di falsi “in real time”.

Rilevare deepfake dal colore delle vene grazie ai segnali PPG

Progettato in collaborazione con la State University of New York di Binghamton, il rilevatore di deepfake di Intel è basato sui segnali PPG, già noti ma mai usati in questo contesto. La maggior parte degli strumenti anti truffe deepfake finora presentati, infatti, hanno sempre sfruttato il deep learning per esaminare i dati grezzi e individuare eventuali contenuti non autentici.

WHITEPAPER
Gartner: l’iperautomazione tra i principali trend tecnologici
SaaS
Cloud application

FakeCatcher va invece a “scovare” indizi all’interno dei video: grazie alla fotopletismografia (PPG), riesce infatti a misurare la quantità di luce assorbita o riflessa dai vasi sanguigni nei tessuti viventi. Si va oltre a ciò che è percepibile all’occhio umano, quindi, e si punta su segnali computazionalmente visibili quando il cuore pompa il sangue, modificando il colore delle vene. Raccogliendo queste variazioni in 32 punti del viso, FakeCatcher è in grado di creare mappe PPG dalle componenti temporali e spettrali per poi proporle a una rete neurale convoluzionale appositamente addestrata per classificarle come false o reali.

Oggi è possibile valutare in tempo reale fino a 72 flussi di rilevamento simultanei raggiungendo, secondo Intel, un livello di precisione del 96%. Se confermato, è un risultato importante nel campo del rilevamento di contenuti manipolati, ma di fronte a cui la ricerca non si arresta. Il team di esperti da cui nasce FakeCatcher, chiamato Trusted Media, ha infatti intenzione di sviluppare altri rilevatori basati su diversi indizi di autenticità, come il rilevamento dello sguardo. L’obiettivo è quello di riuscire a individuare la fonte e il modello GAN di ogni deepfake, sfruttando il consenso algoritmico dato da un insieme di modelli AI come quello creato.

Bias e diversity: i “soliti” problemi dell’AI spuntano anche con i deepfake

L’universo dei deepfake si può dividere in due aree. Ci sono i deepfake interattivi, che offrono l’illusione di parlare con una persona reale, e i deepfake compositivi, in cui i malintenzionati creano una vera e propria narrazione distorta. Noti quasi unicamente per il loro utilizzo fraudolento, questi contenuti presentano anche una serie di applicazioni utili. C’è chi li sfrutta per la formazione interattiva dei dipendenti, per l’istruzione o l’e-commerce, oppure per implementare una sorta di gemello virtuale. Ciò non toglie che debbano essere riconoscibili come video manipolati, non rimanendo “mimetizzati” tra quelli reali.

Anche in questa applicazione di intelligenza artificiale emerge la sfida della diversity. A metterla in luce una ricerca della University of Southern California secondo cui persone di un certo sesso o con un determinato colore della pelle potrebbero essere sottorappresentate, a seconda del set di dati utilizzati. Nulla di sorprendente per chi conosce questa tecnologia, ma resta il fatto che una differenza nel tasso di errore del 10,7% al variare della razza di appartenenza, non è accettabile. Da questo punto di vista, FakeCatcher compie un significativo passo avanti. Le sue performance, infatti, non dipendono dalle specifiche caratteristiche del protagonista e nemmeno dal tono di illuminazione.

L’approccio scelto da Intel sarebbe vincente anche contro attacchi che inducono gli altri rilevatori a confondere immagini reali e “contraffatte”. Questo pericolo non esiste perché l’estrazione PPG non è differenziabile e non si può inserire nella funzione di perdita di una rete avversaria e non è possibile eseguire il backpropagate.

Restano comunque ancora numerosi i trabocchetti da imparare a evitare. Secondo gli esperti, quella del rilevamento di deepfake sarà una “lunga corsa agli armamenti evolutiva”, complessa ma, allo stesso tempo stimolante. Sicuramente fondamentale per poter continuare a utilizzare e condividere immagini e video, con la certezza di conoscerne la natura.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Marta Abba'

Laureata in Fisica e giornalista, per scrivere di tecnologia, ambiente e innovazione, applica il metodo scientifico. Dopo una gavetta realizzata spaziando tra cronaca politica e nera, si è appassionata alle startup realizzando uno speciale mensile per una agenzia di stampa. Da questa esperienza è passata a occuparsi di tematiche legate a innovazione, sostenibilità, nuove tecnologie e fintech con la stessa appassionata e genuina curiosità con cui, nei laboratori universitari, ha affrontato gli esperimenti scientifici.

Articolo 1 di 4