O refinamento do deepfake. E os desafios que ele coloca

A sofisticação de tecnologias de manipulação de vídeo levanta preocupações sobre seu uso malicioso, especialmente na política

 

No início de junho, começou a circular no Instagram um vídeo em que o fundador do Facebook, Mark Zuckerberg, aparece fazendo um pronunciamento surpreendente. “Imagine isso por um segundo: um homem com controle total sobre os dados roubados de bilhões de pessoas, seus segredos, suas vidas, seu futuro. Eu devo isso à Spectre. Eles me mostraram que quem controla os dados controla o futuro.”

Um observador mais atento perceberia que o timbre da voz era bastante diferente do timbre do executivo. E as palavras, que normalmente estão na boca de detratores da rede social, não de seu dono, evidentemente, nunca foram ditas por Zuckerberg.

A peça é o que se chama de deepfake, ou fake profundo, termo que alude a uma fraude sofisticada, difícil de identificar à primeira vista e que facilmente poderia confundir espectadores mais desatentos ou desinformados.

 

Em cinco dias, o vídeo chegou a quase 60 mil visualizações. O Facebook, dono do Instagram, optou por não removê-lo. A reação da empresa era aguardada, pois em maio ela havia decidido manter no ar um vídeo adulterado com a presidente do congresso americano, deputada Nancy Pelosi. Nas imagens manipuladas, a voz da congressista sai arrastada, como se estivesse embriagada ou doente.

A peça com Mark Zuckerberg faz parte de um projeto dos artistas britânicos Bill Posters e Daniel Howe. Spectre é o nome de uma instalação da dupla, em cartaz em uma galeria em Sheffield, Inglaterra. Inclui deepfakes da celebridade Kim Kardashian, do cantor Freddie Mercury, do presidente americano Donald Trump e do artista plástico Marcel Duchamp, entre outros.

Segundo o texto de apresentação, a mostra quer “revelar os segredos da Indústria da Influência Digital”. Sua proposta é se valer de tecnologias e técnicas utilizadas pelas companhias do Vale do Silício, empresas de publicidade e grupos políticos para expor “como nossos comportamentos são previstos e influenciados, tanto online como na cabine de votação”.

A evolução da tecnologia

A tecnologia utilizada no vídeo com Zuckerberg foi desenvolvida pela empresa israelense de inteligência artificial Canny AI. Em maio, ela divulgou um vídeo de demonstração do seu software, conhecido como VDR, sigla para Video Dialogue Replacement (substituição de diálogo de vídeo, em português).

Esse vídeo se inicia com uma imagem de Donald Trump. Quando ele abre a boca, ouve-se o primeiro verso de “Imagine”, na voz de John Lennon. Em seguida, aparece o líder russo Vladimir Putin, que emenda o segundo verso da canção. Conforme o vídeo avança, aparecem outros governantes cantando.

 

Em 2018, quando se falava em deepfake, o foco, geralmente, eram falsificações que transplantavam o rosto de um personagem para o corpo de outro. Com isso, era possível, por exemplo, fazer com que uma atriz famosa de Hollywood parecesse estar participando de um filme pornográfico.

Outra linha em que pesquisadores e empresas vêm trabalhando é a inserção de movimentos faciais e labiais realizados por um ator oculto, captados pelo software e recriados no rosto do personagem-alvo. É o que faz a tecnologia do projeto Face2Face, desenvolvida pela Universidade de Stanford, nos Estados Unidos. O vídeo abaixo permite compreender a eficácia do método.

 

Para a dupla fundadora do Canny AI, ambos com experiência em áreas de tecnologia do exército israelense, o Face2Face “não era muito preciso em termos da sincronia labial”. Os desenvolvedores procuraram melhorar esse aspecto em seu produto.

O software da empresa recebe dados de imagens e movimentos labiais do personagem a ser manipulado, incluindo tomadas de ângulos diferentes. Por exemplo, 60 frames de uma imagem lateral do presidente Trump foram suficientes para servir de base para a produção de outros movimentos com essa perspectiva. Nuances como perspectiva, iluminação e oscilação da luz são levados em conta.

É um volume de informações que só é capaz de ser processado por meio de “deep learning”, método de inteligência artificial em que o computador é capaz de aprender e relacionar uma quantidade imensa de informações.

São dois algoritmos em ação: um replica os dados e outro avalia o grau de sucesso da simulação. Chamada GAN, sigla em inglês para redes generativas adversariais, a abordagem foi criada por um pesquisador do Google.

A escolha da Canny AI pelo vídeo de “Imagine” foi uma tentativa de ir contra a percepção negativa que existe a respeito desse tipo de tecnologia. “Queríamos fazer algo com uma forte mensagem unificadora e mostrar usos positivos”, relatou o cofundador Omer Ben-Ami ao site FX Guide.

Segundo a empresa, sua invenção pode ser aplicada em trabalhos de dublagem, reutilização de imagens existentes e na tradução de vídeos de treinamento para diferentes idiomas.

O uso na política

Técnicas de manipulação tão sofisticadas têm um potencial de dano enorme se usadas maliciosamente. Os deepfakes em que um rosto é aplicado em outro corpo já são alvo de atenção do Departamento de Defesa dos Estados Unidos desde 2018.

Nas eleições brasileiras de 2018, a proliferação de fake news atingiu níveis epidêmicos. Fotos, textos, áudios, vídeos e boatos circularam em massa pelas redes sociais e pelo WhatsApp. Deepfakes, entretanto, ainda eram uma presença rara

O órgão criou um software de análise de vídeos que consegue detectar pistas sutis em imagens manipuladas. Um desses sinais é que as caras transplantadas raramente ou nunca piscam. Mesmo quando o fazem, o movimento não parece natural.

Em abril de 2019, o BuzzFeed publicou um vídeo em que o ex-presidente Barack Obama aparece dizendo “coisas que nunca diria”. A voz é, na verdade, do ator Jordan Peele, o que é revelado a certa altura do filme. Segundo o site, a intenção foi soar um alerta sobre “nossa época perigosa”, em que é preciso se apoiar em fontes noticiosas confiáveis.

Nas eleições brasileiras de 2018, a proliferação de fake news atingiu níveis epidêmicos. Fotos, textos, áudios, vídeos e boatos circularam em massa pelas redes sociais e pelo WhatsApp. Deep fakes, entretanto, ainda eram uma presença rara.

Com o envolvimento de diversas empresas e usuários individuais no desenvolvimento de ferramentas desse tipo, tornando-as cada vez mais acessíveis e fáceis de usar, é razoável prever um aumento na sua utilização em um futuro próximo.

Países que já sofrem os impactos de notícias falsas em diversas áreas, da saúde à política, caso de Brasil e Índia, terão um problema sério nas mãos. É a avaliação do pesquisador e tecnólogo americano Aviv Ovadya, em entrevista de 2018 para a Agência Pública.

“Sociedades menos alfabetizadas [digitalmente] e aquelas com culturas com instituições midiáticas mais fracas provavelmente sofrerão mais impacto, já que vídeo e áudio manipulados não poderão ser neutralizados por outras formas de mídia”, observou.

Se existem milhões de pessoas dispostas a acreditar em um rumor sem sentido ou artigo apócrifo, o que dizer de imagens em que um personagem conhecido aparece falando para a câmera?

“Basta imaginar um candidato a um cargo fazendo uma declaração inflamada na noite anterior à eleição”, explicam os pesquisadores Bobby Chesney e Danielle Citron no estudo “Deep Fakes: um desafio iminente para a privacidade, democracia e segurança nacional”.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

Já é assinante?

Entre aqui

Continue sua leitura

Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: