Ir direto ao conteúdo

Como o Youtube planeja combater vídeos que divulgam teorias da conspiração

Medida que planeja anexar artigos do Wikipedia a vídeos do tipo faz parte de uma investida contra a disseminação de desinformações na rede

    Em meados de fevereiro, após sobreviver ao ataque de um atirador em sua escola na Flórida, nos EUA, o jovem David Hogg, de 17 anos, se viu obrigado a negar acusações feitas em vídeos de que ele era um ator contratado por organizações contrárias à política de armas no país.

    “Eu sou alguém que testemunhou e sobreviveu e continua tendo que conviver com aquilo”, disse à rede de TV americana CNN.

    A resposta de Hogg tinha como alvo uma teoria elaborada por um canal no Youtube. O vídeo que divulgava a informação fantasiosa chegou à primeira colocação entre os mais compartilhados na plataforma que, após repercussão negativa, removeu o vídeo sob a justificativa de que ele feria suas políticas contra assédio ou bullying.

    Teorias conspiratórias dessa natureza não são raridade na plataforma de vídeos do Google. No entanto, diante do aumento com que vem aparecendo em razão dos casos recentes de atiradores nos EUA, a empresa decidiu fazer algo a respeito.

    Nesta quarta-feira (14), em uma conversa pública com um dos editores da revista Wired no SXSW (South by Southwest), festival de Austin dedicado a diversas áreas, entre elas a tecnologia, a diretora-geral do Youtube Susan Wojcicki afirmou que, nos próximos meses, vídeos que divulguem “teorias da conspiração” visando promover desinformação serão devidamente sinalizados.

    Além disso, a executiva diz que o novo sistema prevê anexar textos com informações verdadeiras sobre o caso discutido no vídeo. “Vamos exibir como uma peça próxima ao vídeo informações da Wikipedia sobre o evento”, disse Wojcicki.

    Foto: Youtube/Reprodução
    Exemplo de como as informações textuais adicionais aparecerão em vídeos
    Exemplo de como as informações textuais adicionais aparecerão em vídeos

    Desafios da verdade

    Liquidar com a popularização de vídeos que espalham falsas verdades na internet não é algo simples. Como explica o professor do centro de jornalismo digital da Universidade de Columbia, Jonathan Albright, os próprios sistema de busca e os algoritmos que selecionam os vídeos mais recomendados sobre um tema fazem com que “naturalmente esses vídeos [falsos] estejam conectados e, assim, tenham mais alcance”.

    As mudanças no Youtube não preveem, no entanto, nenhuma alteração no próprio algoritmo, mas apenas o anexamento de informações em texto. “É também notável que o Youtube escolha lincar para sites externos baseados em texto, em vez de rearranjar seu algoritmo visando favorecer criadores mais confiáveis ou video-jornalistas [na plataforma]”, aponta a revista Wired.

    “Uma razão para a decisão pode ser que o Youtube quer evitar a percepção de que está ajustando sua plataforma para favorecer certos criadores, uma crítica que ela já enfrentou no passado. Isso também previne o Youtube de ter de censurar conteúdos prontamente, atuando como uma juíza final da verdade”, diz a publicação. Atualmente, segundo Wojcicki, 98% das remoções de vídeos que contrariam as políticas do Youtube são removidos por análise de “robôs”, de forma automatizada.

    Apesar de a porta-voz do Youtube esclarecer que a Wikipedia será apenas uma das fontes de informação a fazer parte desse novo mecanismo, o anúncio da empresa foi criticado por quem apontou uma falha no plano da plataforma: assim como o Youtube conta com vídeos produzidos por qualquer usuário, o Wikipedia também pode ter seus artigos livremente modificados.

    Além disso, como apontou o jornal inglês The Guardian citando texto da própria Wikipedia, o site a servir de referência “é uma enciclopédia, não um jornal” e, por isso, também não teria agilidade para fincar verdades sobre novas teorias em circulação na internet.

    O plano do Youtube sofreu ainda um segundo revés: a Wikimedia Foundation, responsável pela Wikipedia, disse publicamente no mesmo dia que não fora avisada da iniciativa pelo Google

    Apesar de não fazer “parte de uma parceria formal” com a plataforma de vídeos, a organização à frente da enciclopédia diz ficar feliz que a empresa reconheça seu valor “como um repositório de conhecimento livre”.

    E alerta: “Os artigos da Wikipedia são editados e melhorados por membros voluntários e independentes da Wikimedia Foundation, a qual não controla o conteúdo ou toma decisões editoriais sobre a informação nela incluída”.

    De acordo com ela, os primeiros vídeos a se tornarem alvos da nova medida serão os que tratam de teorias falsas mais conhecidas, como a que prega que o homem nunca pisou na Lua ou ainda que o ataque às Torres Gêmeas nos EUA, em 2001 foram uma farsa, por exemplo.

    “Estamos sempre explorando novas maneiras de lutar contra desinformação no Youtube (...) Ainda há muito trabalho a ser feito, mas estamos fazendo progressos”, concluiu a executiva.

    Tecnologia contra mentira

    “Esse foi o ano das fake news e da desinformação”, disse Susan Wojcicki, referindo-se a 2017. “E vimos a importância de entregar informação precisas a nossos usuários.” A plataforma de vídeos não foi a única do Vale do Silício a ser cobrada no último ano para se equipar melhor contra a disseminação de notícias falsas.

    Em janeiro, Mark Zuckeberg, criador do Facebook, anunciou mudanças em seu algoritmo visando controlar a circulação do que chamou de conteúdo público – notícias e vídeos produzidos por sites externos – e dar peso maior a conteúdos pessoais e interações entre amigos na rede.

    Também no festival SXSW, Alex Hardiman, vice-presidente de notícias do Facebook, reforçou a intenção da empresa de combater a disseminação de conteúdo falso e prejudicial.

    “Historicamente, nós nunca distinguimos os tipos de notícias. E isso era problemático. Tratar todas as notícias da mesma forma significava não ser capaz de distinguir a boa notícia do conteúdo fraudulento”, disse, antes de comentar que mais mudanças serão feitas no algoritmo visando valorizar fontes de notícias confiáveis.

    O Twitter, por sua vez, tem sido uma plataforma cada vez mais popular na disseminação de boatos, mentiras e fake news.

    Em fevereiro, parlamentares britânicos cruzaram o oceano rumo à Universidade George Washington, nos EUA, para uma audiência pública com a presença de representantes do Google, Facebook e Twitter justamente sobre fake news.

    Na ocasião, Nick Pickles, diretor de políticas públicas do Twitter, defendeu a empresa apontando suas limitações. “Não somos árbitros da verdade. Não vamos remover conteúdo baseado no fato de que não é verdade. A maior força que o Twitter tem é que ele tem um enxame de jornalistas, cidadãos e ativistas corrigindo as publicações, as informações.”

    No dia 3 de março, o fundador do Twitter Jack Dorsey fez uma transmissão ao vivo para anunciar o início de uma série de tomada de decisões visando tornar o ambiente da rede mais “saudável”, combatendo, por exemplo, as fake news na rede. Uma das medidas, disse, é alterar o sistema de verificação de contas, tirando o poder de creditar o selo a pessoas confiáveis da rede e passando para os próprios usuários.

    “E a ideia é fazer isso de modo que seja escalável, para que nós [do Twitter] não fiquemos no caminho e as pessoas possam checar mais os fatos sobre elas mesmas e nós não tenhamos de atuar como juízes ou incutir qualquer viés da nossa parte”, afirmou Dorsey.

    Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

    Já é assinante?

    Entre aqui

    Continue sua leitura

    Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: