Notícias

16/06/2019 - Folha de São Paulo

Produção de vídeos falsos com uso de inteligência artificial liga alerta nos EUA

Temor é que técnica, conhecida como deep fake, se alastre durante a campanha eleitoral de 2020
Por: Bruno Benevides

SÃO PAULO - Donald Trump falando sobre como os algoritmos o ajudaram a chegar a Casa Branca. Mark Zuckerberg explicando como manipulou milhões de pessoas. E Kim Kardashian afirmando que não se importa em ser odiada nas redes sociais.

Todos esses são exemplo de um novo e controverso fenômeno que paira sobre a campanha eleitoral americana de 2020, a deep fake, nome usado para designar vídeos falsos criados com o auxílio de inteligência artificial.

A expressão vem da junção da palavra em inglês “fake” (falso) com o termo “deep learning” (aprendizado profundo), um ramo da inteligência artificial em que sistemas aprendem a analisar dados e executar tarefas.

O processo para criar esse tipo de vídeo é relativamente simples, explica Agesandro Scarpioni, coordenador do curso de jogos digitais da Fiap (Faculdade de Informática e Administração Paulista).

O trabalho basicamente é feito por softwares que são capazes de mapear as expressões faciais de uma pessoa a partir de um vídeo original.

Depois, o próprio programa usa essas informações para criar um novo vídeo a partir do primeiro, alterando alguns pontos. É possível, por exemplo, mudar o que a pessoa disse ou trocar completamente a face da personagem.

“Assim, uma pessoa pode se passar por outra, falar algo que a outra não disse, dar um depoimento, sorrir e até aparecer em um local onde nunca esteve”, diz Scarpioni.

A vantagem dessa técnica é que a manipulação é feita de maneira sutil e realista, sendo quase impossível perceber as modificações a olho nu.

A deep fake é usada no mercado pornográfico e também já deu as caras em jogos eletrônicos, no cinema e na televisão. E ela que permite, por exemplo, colocar o rosto de um ator famoso no corpo de um dublê.

Mas é seu uso em campanhas políticas que tem assustado especialistas como advogado Diogo Rais, professor da FGV e do Mackenzie.

“É uma fake news muito mais sofisticada e que traz um novo desafio. Hoje há uma ideia de que, se eu vi, é verdade, e para deep fake isso não existe”, diz ele.

Editor do site jornalístico Bellingcat, Eliot Higgins vai pelo mesmo caminho. “Nós já vemos a quantidade de conteúdo falso que é disseminado por apoiadores de figuras políticas, em especial de Donald Trump, e não podemos esperar nada diferente no caso dos vídeos de deep fake”, diz ele, conhecido por usar ferramentas de redes sociais em suas reportagens.

“Na verdade creio que é até mais provável que eles sejam mais compartilhados, já que inicialmente são mais convincentes e em geral é só isso que as pessoas precisam para apertar o botão de compartilhar”, completa.

Scarpioni, da Fiap, concorda. “As pessoas não fazem uma análise prévia, não observam o vídeo, só recebem no grupo da família de WhatsApp e logo aquilo vira verdade. E depois para corrigir é muito difícil”, afirma ele.

A primeira deep fake que se tem notícia foi feita em 2017 por três pesquisadores da Universidade de Washington, nos EUA.

O grupo usou inteligência artificial para modificar um vídeo de Barack Obama, fazendo o ex-presidente americano falar coisas que na verdade faziam parte de uma entrevista anterior —a ideia era demonstrar o poder da tecnologia e não enganar ninguém.

Logo, porém, especialistas alertaram para o perigo que a técnica poderia representar em eleições.

“Vídeos de deep fakes podem ser usados para espalhar falsos rumores sobre candidatos. E até mesmo podem colocar em dúvida eventos verdadeiros, com a desculpa que tudo pode ser falso”, diz o pesquisador Aviv Ovadya, que investiga como a informação circula no mundo.

O assunto voltou a ser destaque nas últimas semanas após o surgimento de um vídeo que foi alterado para que a presidente da Câmara dos Representantes dos EUA, a democrata Nancy Pelosi, aparentasse estar embriagada.

A confusão em torno do caso aumentou após o Facebook se recusar a deletar o vídeo, apesar de ele ser falso.

Dias depois, surgiu no Instagram (que pertence ao Facebook) um novo vídeo estrelado pelo fundador e CEO da rede social, Mark Zuckerberg, no qual ele aparecia denunciando a atuação das empresas de tecnologia.

A imagem era na verdade um deep fake feito por uma dupla de artistas britânicos exatamente com o objetivo de denunciar os perigos do uso deste tipo de técnica.

“Nós usamos essa tecnologia para criar peças de arte digital que falem sobre alguns dos principais assuntos da atualidade, como a falta de privacidade e o impacto que isso exerce sobre a democracia no mundo”, diz à Folha Bill Posters, autor dos vídeos ao lado de Daniel Howe.

Fazem parte da obra os vídeos falsos de Trump e Kim Kardashian citados no início deste texto. O cantor Freddie Mercury e o ator Morgan Freeman, entre outros, também foram alvo dos deep fakes da dupla.

Powers e Howe também criaram uma instalação na cidade de Sheffield, na Inglaterra, sobre o tema. Chamada “Spectre”, ela é formada por totens que simulam cabines de votação e exibem conteúdo criado a partir de algoritmos.

“Sem transparência das empresas de tecnologia e sem uma maior regulação e fiscalização da indústria digital, nós vamos continuar a ver a democracia sendo subvertida”, diz Powers sobre os motivos que o levaram a fazer a obra.

Para Higgins, do Bellingcat, o uso de deep fakes ainda deve crescer no ciclo eleitoral de 2020 e ele e não vê o que pode ser feito para impedir que isso aconteça.

O advogado Rais também espera um crescimento do uso dessa técnica, em especial se ela se tornar mais acessível.

“Eu me preocupo muito com o avanço dessa tecnologia. Atualmente ainda é caro, mas não duvido que até a eleição de 2020 já existam aplicativos que façam isso de maneira automática”.



AVISO: O artigo aqui reproduzido é de exclusiva responsabilidade do relativo autor e/ou do órgão de imprensa que o publicou (indicados na topo da página) e que detém todos os direitos. A DEALL R&I, divisão do IBRACAF Ltda., não avaliza as informações contidas neste artigo nem se responsabiliza por elas.