Ir direto ao conteúdo

O que pode (ou não) no Facebook, segundo suas normas internas

De forma inédita, rede social divulgou as diretrizes usadas internamente para embasar decisões de remoção de conteúdo, como nudez

     

    Na sequência do escândalo envolvendo a empresa de inteligência britânica Cambridge Analytica, o Facebook decidiu ir além das desculpas e deu um passo em direção à transparência, expondo as normas que determinam o que é permitido na rede social.

    Na terça-feira (24), a empresa abriu ao público as diretrizes que balizam as decisões de moderadores pela remoção ou não de conteúdos no Facebook.

    De acordo com um comunicado assinado por Monika Bickert, vice-presidente de Políticas Públicas da empresa, o objetivo é permitir que os usuários entendam como a rede se posiciona “sobre questões delicadas”, além de permitir que as diretrizes sejam questionadas pelo público e dessa forma, possivelmente, revistas.

    Chamados de “Padrões da comunidade”, o conjunto de regras fala de conteúdos com ameaças ou incitação à violência, imagens de nudez, bullying, discurso de ódio, violação de direitos autorais e até notícias falsas (as fake news).

    Sobre essas, a rede esclarece que existe uma “linha tênue entre notícias falsas e sátiras ou opiniões” e, por isso, não remove notícias falsas, apenas reduz “significativamente sua distribuição”.

    Quem desrespeitar as políticas de uso ou as agora públicas,diretrizes sobre conteúdo poderão ser impedidos de publicar no Facebook ou terem seu perfil desativado. A empresa diz ainda que, dependendo da gravidade e do histórico do usuário, poderá “notificar as autoridades quando julgarmos haver um risco real de danos físicos ou ameaça direta à segurança pública”.

    Como conteúdos são removidos

    O Facebook faz uso de dois métodos para a remoção de conteúdos que não estão de acordo com as suas políticas. O primeiro está ancorado em um processo automatizado, ou seja, é feito por máquinas devidamente instruídas para identificar textos e imagens indesejados.

    O outro é humano. A rede social recebe denúncias de conteúdos impróprios pela sua própria comunidade de usuários. O conteúdo apontado passa então por uma equipe de moderadores. Segundo Monika Bickert, o grupo formado por cerca de 7,5 mil revisores “trabalha 24 horas por dia, 7 dias por semana, em mais de 40 idiomas”.

    Em ambos os casos, são aplicadas as diretrizes internas -- agora abertas ao público. Segundo Bickert, “muitas vezes, cometemos erros porque nossos processos envolvem pessoas, e as pessoas são falíveis”.

    Pode apelar

    Usuários que tiverem um conteúdo removido pela rede social poderão recorrer da decisão internamente. Ao longo dos próximos 12 meses, o Facebook diz, será desenvolvido um sistema adequado para esse tipo de caso.

    “Como primeiro passo, estamos lançando o recurso de apelação para publicações removidas por nudez, atividade sexual, discurso de ódio ou violência explícita”, disse Bickert.

    Funciona assim: ao ter uma foto, vídeo ou publicação removida, o usuário é notificado e pode então pedir revisão humana. O processo leva, em geral, 24 horas. “Caso tenhamos cometido um erro, enviaremos uma notificação a você e o conteúdo será restaurado”, afirmou a executiva.

    O novo sistema deve incluir ainda formas de o usuário “fornecer mais contexto que nos ajude a tomar a decisão certa”. As apelações, diz o Facebook, serão disponibilizadas na plataforma “não apenas para o conteúdo que foi removido, mas também para o conteúdo que foi denunciado e mantido na plataforma”.

    O que não pode

    O extenso documento com os “padrões de comunidade” se divide em seis capítulos sobre temas diversos. Abaixo, um resumo dos principais temas:

    Discurso de ódio e violência gráfica

    Nas diretrizes, a rede reforça fala de Zuckerberg de que “não é permitido discurso de ódio no Facebook”, o que é entendido como ataques direitos a pessoas enquadradas no que a empresa chama de “características protegidas”. São elas a sua raça, etnia, nacionalidade, filiação religiosa, orientação sexual, sexo, gênero, identidade de gênero e doença ou deficiência grave ou ainda pessoas sob a condição de migrante.

    “Definimos ataques como discursos violentos ou degradantes, declarações de inferioridade ou incentivo à exclusão ou segregação”, diz a regra. Critério semelhante é aplicado para conteúdos que explorem “vulnerabilidades” de usuários na rede. Assim, a rede proíbe texto ou imagem que ridicularize “ferimentos físicos graves, reais ou implícitos, doenças ou deficiências, contato sexual não consentido ou morte prematura”.

    Assim como no caso da nudez, o Facebook diz que é proibida a publicação de conteúdos de violência explícita, gráfica ou ainda que celebre humilhação ou sofrimento de outras pessoas, mas indica uma exceção à regra: quando ele é feito “para ajudar as pessoas a gerar conscientização sobre algumas questões”, como terrorismo ou violação de direitos humanos.

    Terminantemente proibidoas ficam conteúdos gráficos com legendas ou comentários que demonstrem satisfação pela violência exibida ou que indiquem que seu autor “está compartilhando as imagens pelo prazer sensacionalista da visualização”. No caso de vídeos com “pessoas feridas ou mortas” com situação de desmembramento, há ainda uma nova exceção: “contexto médico”.

    Sobre conteúdos explícitos mais brandos o Facebook passa a adicionar um “rótulo de aviso a conteúdo muito explícito ou violento para que tal conteúdo não fique disponível para menores de 18 anos e para que as pessoas estejam cientes de sua natureza explícita ou violenta antes de clicar para vê-lo”.

    Violência e crime

    O primeiro deles trata de “Comportamento violento e criminoso”. Nele são abordados tópicos como publicações que endereçam ameaças (“removeremos conteúdo, desabilitaremos contas e poderemos trabalhar com as autoridades locais se notarmos um risco real de danos físicos”) ou ainda sobre a proibição de perfis de “organizações e indivíduos perigosos”.

    A regra impede a permanência de usuários e páginas de atividade terrorista, “ódio organizado”, assassinos em série (“todo indivíduo que tenha cometido dois ou mais homicídios em diversos incidentes ou locais”) ou em massa (quando envolvem “quatro ou mais mortes”), tráfico humano e atividade criminosa em geral. “Também removemos conteúdo que expresse apoio ou exalte grupos, líderes ou indivíduos envolvidos nessas atividades”, diz o Facebook.

    Não são permitidas também publicações que divulguem drogas ilegais, armas de fogo ou crimes como agressão a pessoas ou a animais. Nesse caso, a rede faz uma ressalva: “salvo em casos de caça, pesca, sacrifício religioso ou preparação/processamento de alimentos”. 

    Nudez, assédio e bullying

    As regras atacam conteúdos claramente impróprios que exibem ou promovem atos como suicídio e automutilação, exploração sexual de crianças, mas avança no detalhamento de alguns conceitos sobre outros conteúdos que envolvem nudez (infantil e adulta), bullying e assédio.

    Sobre nudez em geral, o Facebook reconhece que as políticas quanto ao tema “ficaram mais flexíveis com o passar do tempo”. Isso porque foram diversos os casos de fotos removidas de mulheres despidas em protesto durante manifestações ou de mães amamentando. Para esses casos, a rede passou a abrir exceções.

    “Por exemplo, embora restrinjamos algumas imagens dos seios femininos que incluam o mamilo, permitimos outras imagens, incluindo as que mostram atos de protesto, mulheres engajadas ativamente na causa da amamentação e fotos de cicatrizes pós-mastectomia”, diz o Facebook. Além dessa categoria de imagens, ficam de fora dos filtros automatizados nudez presente em obras de arte como pinturas e esculturas.

    Sobre nudez infantil, a rede social diz que continuará removendo imagens de crianças nuas, independentemente do contexto. “Sabemos que, às vezes, as pessoas compartilham imagens de seus próprios filhos desnudos sem más intenções; no entanto, geralmente removemos essas imagens devido ao potencial de abuso por parte de outros”, afirma a diretriz.

    Por nudez infantil, a empresa entende imagens ou vídeos em que “crianças que já não são mais bebês” aparecem sem “roupas do pescoço aos joelhos”. Também é entendido como nudez imagens que mostrem “mamilos femininos descobertos em crianças”.

    Quanto a bullying, a rede proíbe textos ou imagens manipuladas que envolvam alegações “sobre atividades sexuais”, e “descrições físicas degradantes”, ou ainda “comparações a animais culturalmente percebidos como inferiores, física ou intelectualmente”.

    Em relação a assédio, o Facebook entende serem dignas de denúncia à rede pessoas que fazem contato “insistentemente com uma pessoa em particular, apesar do desejo e ações evidentes em rejeitar tal contato”, ou ainda publicações com injúrias, ou ainda com “alegações de que uma vítima de uma tragédia violenta [ou evento confirmado] está mentindo sobre esse fato”.

    Conteúdo sexual relacionado a adulto também não é permitido. A rede avisa que removerá publicações de comércio sexual ou ainda conteúdo “que retrate ou defenda qualquer forma de esmagamento, necrofilia, bestialidade ou contato sexual não consensual”.

    Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa Equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project. Saiba mais.

    Mais recentes

    Você ainda tem 2 conteúdos grátis neste mês.

    Informação com clareza, equilíbrio e qualidade.
    Apoie o jornalismo independente. Junte-se ao Nexo!