Qual o impacto na saúde mental de moderar conteúdo online

Trabalhadores terceirizados, responsáveis por barrar das redes sociais imagens de casos extremos como terrorismo e violência, relatam quadros de estresse pós-traumático, ansiedade e depressão

    “Enquanto uma pessoa não tiver cometido suicídio, nós não podemos interromper uma transmissão ao vivo”, afirma um moderador de conteúdo do Facebook na Ásia no documentário “The cleaners”, de 2018 (“Os limpadores”, em tradução livre).

    Diante de uma situação como essa, os trabalhadores que exercem essa função na rede social são obrigados a ver os preparativos, acompanhar os comentários em tempo real e, só uma vez acabado, podem deletar o vídeo. As regras tentam garantir que a empresa não tenha problemas judiciais com acusações de censura.

    Um dos entrevistados do documentário diz que um colega de trabalho tirou a própria vida após procurar ajuda psicológica e pedir três vezes uma transferência para outros setores. Esse tipo de situação não é incomum, segundo reportagens.

    Em 2009, os 120 milhões de usuários mensais do Facebook eram moderados por 12 pessoas. Nove anos depois, em 2018, a rede social já contava com 2,3 bilhões de usuários mensais, e 15 mil moderadores espalhados por diversos países.

    Com a disseminação de fake news pela rede social que obrigou, entre outros motivos, o fundador da empresa, Mark Zuckerberg, a dar explicações ao Senado americano em 2018, o trabalho de moderação vem se tornando uma das mais importantes frentes da empresa.

    Pressões regulatórias dos diferentes países onde a rede social está presente também impulsionam essa preocupação. Em casos de vídeos que se configuram como propaganda ao terrorismo, por exemplo, o Parlamento Europeu está em vias de aprovar uma exigência de que as imagens sejam removidas em até uma hora depois de publicada.

    Ainda assim, o salário dos moderadores de conteúdo, que no geral são terceirizados, é mais de oito vezes menor do que a mediana do valor recebido pelos funcionários do Facebook. Várias das revisões feitas são de fato tediosas, como a limpeza de spam ou remoção de contas falsas. Mas muitos trabalhadores acabam responsáveis por moderar um único tipo de assunto, como pedofilia, terrorismo, assassinato e estupro, muitas vezes recebendo pouco apoio psicológico.

    160 mil

    remoções foram feitas pela Google, apenas no Blogger, Google Photos, e Google Drive em 2019, por apresentar conteúdos de extremismo violento

    O documentário “The cleaners” apresenta apenas uma fração desses trabalhadores, baseados nas Filipinas. Mas uma série de reportagens do site The Verge publicadas em 2019 mostrou que funcionários nos EUA, que moderam conteúdo para Facebook, Google e outras empresas de tecnologia, também vêm sofrendo dos mesmos problemas que vêm acompanhados da exposição constante a imagens perturbadoras: estresse pós-traumático, ansiedade, depressão, entre outros.

    Os diferentes tipos de moderação

    A moderação automatizada via aprendizado de máquina já existe, e usa tecnologias que estudam padrões de remoção e os aplicam em situações futuras. Mas o ser humano continua sendo mais preciso em reconhecer diferenças de contexto, e a presença global do Facebook exige atenção a diferentes idiomas.

    Os três principais tipos de moderação humana são:

    • pré-moderação: quando um conteúdo não pode ser acessado até que o moderador tenha decidido se ele é apropriado. É o caso da grande parte dos sites voltados para crianças
    • pós-moderação: quando um conteúdo é moderado depois de já ter sido publicado. É o caso de muitos sites de notícia
    • moderação reativa: quando um conteúdo é alertado como impróprio ou ofensivo pelos usuários, e assim passa por uma revisão dos moderadores. É a principal forma de moderação de grandes redes sociais, como YouTube e Facebook.

    Todos esses processos são monitorados pelas máquinas, que vão acumulando informações para melhorar o desempenho. Fotos de imagens históricas de tragédias ou obras de arte com nudez, por exemplo, já são reconhecidas e aprovadas pelos códigos.

    Os efeitos do trabalho de moderação de conteúdo

    É comum que o contrato assinado por moderadores de conteúdo os proíba de discutir esses assuntos fora do ambiente de trabalho. Segundo o Facebook, isso é necessário para que os usuários tenham a privacidade assegurada e dados não sejam vazados. Para os funcionários, as regras seriam usados para esconder as condições de suas funções.

    O trabalho é monitorado constantemente, e há restrições no uso de celulares e permissão para ir ao banheiro. Os moderadores precisam cumprir metas diárias e ter uma margem de acerto, segundo as diretrizes de cada empresa, no que mantêm ou tiram do ar de até 98% de precisão. Cada moderador é também revisado por supervisores, que podem determinar, segundo critérios muitas vezes subjetivos e generalistas, a demissão de um funcionário que apresente repetidas métricas fracas.

    Mudanças diárias nas políticas de moderação podem gerar interpretações conflitantes entre moderador e supervisor. Por conta dessa pressão constante, um supervisor admitiu ao site The Verge levar uma arma para o trabalho, receoso de que ex-funcionários voltassem para se vingar da demissão.

    Moderadores contam que de tanto revisarem conteúdos sobre teorias da conspiração, muitos passam a questionar acontecimentos históricos como o Holocausto e a acreditar na Terra Plana.

    As tentativas de resguardar a saúde mental dos funcionários

    A Google vem tentando implementar configurações que reduzam o impacto emocional em seus funcionários, enquanto não desenvolve tecnologias que substituam o trabalho humano. Borrar rostos, silenciar vídeos e converter a uma escala de cinza são algumas das ferramentas testadas.

    No entanto, como aponta o editor do site The Verge, o que essas empresas não estão incluem em seus estudos é o limite de tempo que um moderador pode ser exposto a conteúdos sensíveis ao longo da vida. Ele também defende que as companhias paguem despesas médicas de trabalhadores terceirizados e ofereçam apoio para ex-funcionários que continuam sofrendo de transtornos mentais após deixar o emprego.

    Normalmente, as companhias de tecnologia tendem a culpar o processo de recrutamento das empresas terceirizadas, que não seriam capazes de selecionar pessoas capazes de lidar com esse tipo de conteúdo. a Cognizant, que prestava serviços para o Facebook, decidiu deixar o mercado de moderação de conteúdo após uma série de denúncias.

    Os brasileiros que moderam conteúdo

    Na Espanha, a CCC (Competence Call Centre), empresa terceirizada do Facebook, conta com cerca de 350 funcionários brasileiros responsáveis por moderar conteúdos em português. Em maio de 2019, o UOL visitou o centro e encontrou uma realidade diferente das descritas no site The Verge. Vale, no entanto, destacar que as conversas eram monitoradas o tempo todo por assessores e supervisores.

    Das mais variadas formações — sociologia, arquitetura, relações internacionais, direito —, os moderadores entrevistados explicaram que o Facebook exige um nível de qualidade alto porque não quer que os usuários tenham sua liberdade de opinião tolhida.

    Os funcionários compararam a pressão a qual são submetidos a de um policial ou cirurgião: “alguém precisa fazer esse trabalho”. Outros veem a função até como forma de ajudar usuários, referindo-se a alertas que eles podem enviar a pessoas que estejam, pelas postagens, cogitando o suicídio.

    Um mês antes, em abril de 2019, a revista Carta Capital conversou com ex-funcionários dessa mesma empresa terceirizada que relataram problemas de saúde mental semelhantes aos dos moderadores americanos e de outros países. Um deles afirmou tomar antidepressivos para evitar lembrar dos casos de pedofilia que teve que assistir, e outro diz viver angustiado de que qualquer pessoa na rua possa cometer alguma crueldade.

    Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

    Já é assinante?

    Entre aqui

    Continue sua leitura

    Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: