News

Deepfake solo in linea con i valori nazionali. La Cina li regola guardando al futuro

Non autorizzati o intenzionalmente cattivi, i deepfake non sono ammessi in Cina. Se però rispettano la linea del governo, rappresentano l’innovazione, soprattutto nel mondo delle chatbot e dei content creator. Di fronte alla nuova norma emanata da Xi Jinping, emergono l’assenza di un’analoga chiarezza sul fronte occidentale e l’impegno delle big per fornire strumenti utili a limitare i rischi legati al fenomeno. 

Pubblicato il 27 Dic 2022

Deepfake Phishing

Sono rappresentazioni realistiche di persone che dicono o fanno cose che non hanno detto o fatto. Il loro utilizzo è aumentato del 13% in un anno, secondo un report VMware, e stanno allarmando tutto il mondo. I deepfake sono un reale rischio, oggi: possono provocare attacchi informatici ma anche danni reputazionali o inganni, con conseguenze inimmaginabili. L’Occidente ne è consapevole e li guarda attonito, spaventato, e quasi immobile. La Cina è invece preoccupata per i propri valori e non ha tardato a prendere contromisure.

Divieti e linee guida per deepfake solo in linea col governo

Come visto finora, questo Paese reagisce prontamente quando si tratta di proteggere l’interesse nazionale e, con i deepfake, ha tradotto la sensazione di allarme in precisi e immediati divieti. La Cyberspace Administration of China (CAC), a inizio dicembre, ha infatti diffuso alcune norme per far sì che questi video non danneggino il governo o trasmettano messaggi contrari ai valori socialisti. Nella stessa legge vieta anche qualsiasi contenuto con “informazioni illegali e dannose” o l’utilizzo di esseri umani generati dall’AI per ingannare o calunniare.

“In allegato” ai divieti, ci sono anche delle linee guida su come realizzare i deepfake “nel modo giusto”. In questo contesto, si dà anche un nome ai creatori – “fornitori di servizi di sintesi profonda” – li si obbliga alla registrazione e li si responsabilizza. Per non risultare illegali, dovranno assicurarsi che i loro modelli e algoritmi di AI/ML siano accurati e regolarmente rivisti, oltre a garantire la sicurezza dei dati raccolti.

Tutto ciò entrerà in vigore il 10 gennaio del 2023. Tempi rapidi, per una Cina che non ha alcuna intenzione di arrestare l’innovazione. La sua pressoché unica preoccupazione è che i deepfake, come altre controverse novità tecnologiche, non creino problemi al governo, ma solo vantaggi all’economia del Paese.

Deepfake e innovazione: big tech in campo per identificarli

Seppur non esemplare per un occidente con una concezione ben differente di innovazione, la reazione ai deepfake della Cina contiene un messaggio importante. Questo Paese ha ampiamente preso atto della diffusione di esseri umani sintetici. Si aspetta che saranno ampiamente utilizzati, in futuro, e ha già iniziato a identificarne alcune applicazioni virtuose, per investirci e restare all’avanguardia.

Nelle chatbot, per esempio, ha consentito l’uso di deepfake, basta che siano segnalati come creazioni digitali. Anche gli editori online possono fare leva su questo tipo di contenuti, prestando però attenzione alla miriade di altre norme cinesi. Compresa quella che vieta Winnie the Pooh.

In Europa siamo ben lontani da tale precisione, dal punto di vista normativo. Dal 2018 esiste un codice di condotta volontario, ogni tanto aggiornato, contenente alcune raccomandazioni generali per il contrasto alla disinformazione online. Potrebbe diventare una norma vincolante, con pesanti sanzioni dissuasive fino al 6% del fatturato, per le big. C’è anche il regolamento dell’IA. La sua ultima versione consente tale tecnologia, a patto che rispetti alcuni requisiti minimi, e impone ai creatori di dichiarare che il contenuto generato è stato artificialmente creato e/o manipolato.

Finora non è emersa una ferma presa di posizione, al pari di quella cinese. Osservando gli annunci dei big player, il sospetto è che il mercato arrivi prima dei regulator, sia europei che statunitensi. Google, Microsoft e Meta hanno apertamente condannato la tecnologia deepfake, dichiarando l’intenzione di creare strumenti sempre più performanti per identificare questi video alterati.

Intel lo ha fatto, collaborando con la State University di Binghamton (New York) per sviluppare un sistema che garantisce una precisione di rilevamento del 96%. Si chiama FakeCatcher, si basa sul machine learning e utilizza il flusso sanguigno per smascherare contenuti falsi. Osservando questo parametro riesce a riconoscerli perché, in questi video, il volto della “vittima” viene incollato all’interno del corpo dell’ospite. Dovrebbe quindi emergere una discrepanza tra i flussi sanguigni in parti diverse del volto, del collo o di altre parti visibili.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3