News

USA: più potere contro reati AI e deepfake

Con una mossa decisa e approvata all’unanimità, la Federal Trade Commission si aarroga il potere di richiedere documenti e interviste nelle indagini sull’AI per accelerarle. Alza la guardia anche contro i deepfake vocali, lanciando una challenge per raccogliere idee mirate a prevenirle reati che li sfruttano. In palio 25.00 dollari: questa “sfida esplorativa” resta aperta fino a gennaio 2024

Pubblicato il 19 Dic 2023

Immagine di Suri_Studio su Shutterstock

Pervasiva come si sta dimostrando giorno dopo giorno, l’intelligenza artificiale impatterà sempre di più anche nei futuri casi di regolamentazione del commercio. Non tenerne conto sarebbe non solo anacronistico, ma anche decisamente pericoloso. A rendersene conto e passare subito all’azione è stata l’agenzia governativa USA nota come FTC (Federal Trade Commission). È nata per promuovere la tutela dei consumatori e l’eliminazione e la prevenzione di pratiche commerciali anticoncorrenziali: non poteva stare ancora per molto a guardare come l’AI sta stravolgendo le dinamiche su cui ha il compito di vigilare.

Indagini “express” contro i criminali AI

Negli scorsi mesi, questa commissione ha deciso di ampliare i propri poteri di indagine, quando riguardano prodotti e servizi che utilizzano o affermano di essere alimentati dall’AI. Potrà quindi presto avviare “processi obbligatori”, pratica che consente al suo personale di emettere richieste investigative civili (CID). Si tratta di uno strumento molto simile a un mandato di comparizione, uno strumento che è stato accolto all’unanimità dai funzionari e che, chi è pratico dell’ambito, sa essere molto potente.

Resterà in vigore per i prossimi 10 anni e funzionerà così: la FTC potrà scegliere le aziende su cui indagare, poi i funzionari procederanno, beneficiando della nuova conquistata possibilità di richiedere documenti e interviste molto più rapidamente.

Indagini “express”, quindi, per una tecnologia che a cui si fatica a star dietro, ambito legal in primis, ma che abilita e potenzia frodi, inganni, violazioni della privacy e altre pratiche sleali. Senza contare il suo ruolo nell’assicurare una sana concorrenza sul mercato: basta che resti in mano a pochi per creare grossi problemi in tal senso.

Deepfake vocali: cercasi soluzioni preventive

La spirito di intraprendenza della FTC per difendersi dai lati oscuri dell’AI, la spinge a promettere anche “un giro di vite” nei confronti di chi la sfrutta per sviluppare prodotti poi utilizzati per frodare, ingannare o manipolare i consumatori. Sembrerebbe si stia già muovendo per verificare se ChatGPT violi le leggi sulla protezione dei consumatori in materia di privacy dei dati o di danni alla reputazione.

La sua azione non si limita allo svolgere il ruolo di controllore, però. Negli scorsi mesi la commissione ha infatti lanciato la “FTC Voice Cloning Challenge” per contrastare il fenomeno dei deepfake. La definisce “una sfida esplorativa” per trovare “idee innovative per prevenire, monitorare e valutare la clonazione vocale dannosa”.

Con un primo premio di 25.000 dollari, un secondo da 4.000 e tre “menzioni d’onore” da 2.000, la FTC conta di incoraggiare lo sviluppo di approcci multidisciplinari per proteggere dai danni della clonazione vocale abilitata dall’AI. Possono essere prodotti fatti e finiti, ma anche proposte di policy o di procedure: l’importante è che contrastino le frodi e ogni tipologia di utilizzo improprio dei dati biometrici e dei contenuti creativi.

La finestra temporale indicata per presentare le idee è prevista a inizio 2024, solo da quel momento in poi si farà il punto delle proposte ricevute. La Commissione ha già messo però le mani avanti, dichiarando che “se non dovessero emergere idee valide, ciò rappresenterà un avvertimento critico e precoce per i responsabili politici, che dovrebbero prendere in considerazione limiti più severi all’uso di questa tecnologia”.

Potrebbe suonare come una minaccia, ma molto più probabilmente è la semplice presa di coscienza che i rischi posti dalla clonazione vocale e da altre simili tecnologie AI non possono essere affrontati solo con la tecnologia. Non basta una challenge, serve un impegno continuo e a 360 gradi. Servirebbe, in realtà, un impegno globale e coordinato, perché si tratta di criminali che spesso non rispettano nemmeno i confini oltre che le leggi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4