O perigo dos deepfakes: Inteligência Artificial detecta vídeos falsos com 98,5% de precisão
Especialista alerta sobre como vídeos falsos podem ser usados para prejudicar campanhas eleitorais ao usar rostos de políticos em contextos enganosos.
As tecnologias que usam Inteligência Artificial para simular rostos e vozes humanas, chamadas de deep fake, têm avançado a passos largos nos últimos anos, o que tem preocupado cientistas políticos para riscos às eleições. Mas uma ferramenta desenvolvida pelo pesquisador Wang Weimin chamou atenção nas últimas semana ao conseguir detectar vídeos “deep fake” com 98,5% de precisão, o que pode ser uma saída à onda de desinformação que os vídeos falsos criam.
Weimin trabalha na gigante de tecnologia ByteDance, dona do TikTok, e sua ferramenta foi a vencedora do Trusted Media Challenge, evento promovido em Singapura e organizado pelo National Research Foundation. O identificador de deep fakes de Weimin derrotou outras 469 equipes concorrentes, ganhando o prêmio de US$ 100 mil.
Ele recebeu uma doação inicial de US$ 300 mil para comercializar seu projeto. Sua intenção é vender a ferramenta para que os clientes possam detectar as deepfakes.
Deep fakes e desinformação
Deep fakes são técnicas desenvolvidas por programação que permitem ocultar e trocar o rosto e a voz de vídeos ou fotografias. No Brasil, o jornalista e roteirista Bruno Sartori tornou-se famoso ao criar paródias com a tecnologia, que servem também para denunciar seu uso político.
Em um vídeo publicado em seu Twitter, Sartori alerta sobre como vídeos falsos podem ser usados para prejudicar campanhas eleitorais ao usar rostos de políticos em contextos enganosos. Na ocasião, Sartori criou um vídeo em que “Lula” aparece reclamando sobre um produto adquirido. O vídeo e as falas na verdade são de outra pessoa, sendo que o rosto e a voz de Lula foram inseridos digitalmente.
“Usei deepfake pra inserir o rosto de Lula e transferir o timbre de voz dele pra fala original: é um computador falando. Precisamos ficar alerta neste ano eleitoral, pois, conteúdos com intuito de enganar podem aparecer”, disse Sartori.