Ir direto ao conteúdo

As políticas de redes sociais para prevenir suicídios. E seus limites

Facebook, Twitter e Instagram têm ferramentas que tentam identificar quem precisa de ajuda e fazer intervenções. Casos recentes reacenderam debate sobre o papel das plataformas

 

Em 22 de janeiro, no Reino Unido, o pai de uma garota de 14 anos que havia se suicidado dois anos antes atribuiu a morte da jovem ao contato dela com o tema nas redes socias. “Não tenho dúvida de que o Instagram ajudou a matar minha filha”, disse à BBC.

O Instagram reagiu ao caso britânico afirmando que não permite “conteúdo que promova ou glorifique distúrbios alimentares, automutilação ou suicídio”, e que removeria todo o conteúdo do tipo.

Depois, a comissária para a infância do Reino Unido Anne Longfeld publicou uma carta pública endereçada às redes Instagram, WhatsApp, Snapchat, Youtube e Pinterest, em que pedia esclarecimentos das empresas sobre como lidam com conteúdo perturbador.

A literatura acadêmica já associa consistentemente a difusão de informações sobre casos de suicídio a casos de imitação. Mas essas conclusões valem especialmente para a mídia tradicional, como jornais e sites noticiosos. O problema é exacerbado quando o processo e os métodos usados no suicídio são detalhados.

Ainda há um debate em curso sobre o papel e a responsabilidade das redes sociais na proliferação de suicídios. Mas diversas plataformas vêm implementando sistemas com a finalidade de captar informações dos usuários e, a partir disso, prevenir mortes.

Os conteúdo nas redes

Twitter

Em fevereiro de 2018, o Twitter publicou informações sobre como lida com os temas de suicídio e automutilação. A empresa diz que não permite conteúdo que promova essas práticas. O Twitter afirma que remove conteúdos que violem essas regras e bloqueia temporariamente o usuário que publicar imagens ou falas sobre o assunto. Quem viola essas regras pode ter o perfil permanentemente deletado.

Facebook

Desde fevereiro de 2019, após a divulgação do caso da jovem britânica Molly Russell, o Facebook deixou de permitir o compartilhamento de imagens de automutilação, como braços cortados por exemplo. Antes, a empresa já vinha proibindo conteúdo que defendesse e promovesse o suicídio, mas permitia que as pessoas expressassem e admitissem pensamentos ou atos de automutilação, sob a justificativa de que isso poderia contribuir para que obtivessem ajuda.

Instagram

Na mesma época das alterações no Facebook, mudanças similares foram realizadas no Instagram, do qual o Facebook também é proprietário. Sob o mesmo raciocínio, as anteriormente toleradas imagens de automutilação passaram a ser completamente banidas. A rede afirmou também que continuaria a promover a política de banir conteúdo que promovesse suicídio ou automutilação. Outros tipos de conteúdo relacionados a automutilação, como cicatrizes que já se fecharam, não chegaram a ser completamente banidos, mas ficaram menos visíveis. Eles não podem mais ser acessados em buscas e hashtags, e deixariam de ser recomendados.

As tentativas de intervenção

Em 15 de  julho, uma influenciadora digital do Rio se suicidou, aos 24 anos, num caso que envolveu exposição pública de dramas pessoais e bullying online. O episódio reacendeu, no Brasil, o debate sobre a influência das redes na saúde mental. E sobre as possibilidades de identificação e prevenção de eventuais mortes.

Várias pesquisas têm apontado que, com uso de inteligência artificial, é possível analisar padrões de linguagem, cores e imagens em posts nas redes sociais e assim identificar pessoas que têm apresentado pensamentos suicidas. A partir disso, seria possível intervir e tentar evitar novos casos.

Em novembro de 2017, o Facebook passou a fazer uso de uma inteligência artificial desse tipo. Após a identificação pelo sistema, funcionários do Facebook podem analisar o caso e reportar a autoridades sobre o risco.

A ferramenta foi lançada inclusive no Brasil. Procurada pela reportagem do Nexo em novembro de 2018, a empresa afirmou que não compartilha nenhum dado a respeito dos resultados.

Desde 2006, o Facebook já vinha se utilizando de uma ferramenta mais simples para atuar sobre o problema. O site permite que os usuários reportem conteúdo suicida identificado entre as postagens de algum contato. A partir disso, esse contato pode receber uma mensagem do Facebook que o encoraje a pedir ajuda.

O Instagram também tem equipes para analisar mensagens de usuários que afirmam ter encontrado sinais de tendências suicidas nos posts de contatos. É possível denunciar um conteúdo como relacionado à automutilação, e usuários que realizam buscas por hashtags ligadas ao tema são direcionados a uma página de apoio.

O Twitter também possui uma página em que usuários preocupados com a saúde mental de outros podem fazer alertas – ela está, no entanto, disponível apenas em inglês. Esses alertas são analisados por equipes, que podem contatar os usuários, indicar serviços de auxílio e encorajá-los a buscar ajuda.

As políticas e seus efeitos

Publicado em 2015 na revista Prevention in Psychiatry, o estudo “Mídias sociais e prevenção ao suicídio, uma revisão sistemática” tenta entender o efeito de algumas iniciativas contra o suicídio no âmbito das redes sociais.

O trabalho analisou 30 pesquisas anteriores, e concluiu que as redes sociais podem ajudar a propagar medidas de prevenção de suicídio, permitir intervenções que evitem casos, e criar ambientes em que experiências possam ser compartilhadas pelos usuários. O estudo também alerta, no entanto, que espaços de discussão dentro das redes, em especial fóruns dedicados apenas ao assunto, podem servir para normalizar a prática e propagá-la.

Como chegar até o usuário

A pesquisa concluiu que as redes sociais têm potencial de fazer com que medidas de prevenção alcancem pessoas que normalmente não seriam alcançadas.

Um dos estudos conseguiu fazer com que uma ação preventiva atingisse 18 mil adolescentes gays, lésbicas ou bissexuais conectados por meio da rede MySpace. Outro apontou que era possível monitorar postagens no Twitter para indicar tendências de suicídio e promover ações de prevenção.

A busca por ajuda

Outros 15 estudos analisaram as formas como as pessoas usam fóruns que têm a finalidade específica de evitar o suicídio. No geral, concluíram que havia benefícios aos usuários, incluindo a atmosfera positiva criada pelos moderadores e outros membros, e a facilidade de usar esses sites. Entre os benefícios estava também a possibilidade de “falar sobre sentimentos e experiências com outros em situação similar”.

No geral, as respostas a postagens suicidas foram positivas, especialmente quando partiam de moderadores treinados para intervir e ajudar a pessoa em sofrimento.

Por que os fóruns são fonte de preocupação

Algumas preocupações foram levantadas nos trabalhos analisados. Entre elas, o fato de que redes sociais poderiam substituir formas de ajuda offline, marginalizando “ainda mais essas pessoas da sociedade” e dificultando a compreensão real de seu estado emocional.

Outra preocupação é de que a discussão em ambientes online poderia normalizar o comportamento suicida.

Um exemplo aparece em uma pesquisa publicada em 2013 na revista Nordicom Review e intitulada “Falando sobre suicídio: Conversas online sobre um assunto tabu”. Ela acompanhou entre junho e agosto de 2008 conversas realizadas em fórum online sueco ligado a um grupo que defendia o suicídio.

A pesquisa avalia que a possibilidade de os participantes conversarem entre si anonimamente no site fazia com que eles não fossem afetados por regulações e figuras institucionais. “Suas discussões podem ser destrutivas, no sentido de que informações sobre métodos potentes de suicídio podem ser discutidas e trocadas, e participantes exortam uns aos outros a levarem seus planos a cabo”, diz o trabalho.

Muitas das trocas no chat eram positivas e reconfortantes, agindo de forma contrária à prática do suicídio. Mas também se difundia nesse chat uma visão de mundo “pró-suicídio”, que vê a prática como uma escolha defensável.

Um estudo publicado em 2011 na revista acadêmica Journal of Child Psychology and Psychiatry intitulado “Onde jovens aprendem sobre suicídios na internet, e qual influência isso tem em ideação suicida?” entrevistou 719 pessoas com entre 14 e 24 anos sobre uso de internet e experiências suas e de seus conhecidos em relação ao sentimento de desesperança e ao suicídio.

Deles, 79% reportaram serem expostos a conteúdo suicida por meio da família, amigos e mídia tradicional, como jornais. E 59% afirmaram que encontraram esse tipo de conteúdo em fontes na internet. Uma análise adicional não encontrou uma forte ligação entre uso de redes sociais e ideação suicida, ou seja, pensamentos sobre suicídio.

Mas, em consonância com aquilo que foi levantado na pesquisa sobre o fórum sueco, foi encontrada uma ligação entre o acesso a conteúdo relacionado a suicídio nesses ambientes online, que estão presentes em várias redes sociais, e ideações suicidas. “A participação em fóruns online pode muito bem ser um catalisador para a emergência de novas ideações suicidas”, diz o artigo.

No Brasil, fora das redes, o CVV (Centro de Valorização da Vida) tem uma equipe de voluntários que oferecem ajuda 24h pelo telefone 188, durante o dia por um serviço de chat e também por e-mail.

O Nexo conversou com Mariana Valente, que é diretora do centro de pesquisa InternetLab, a respeito das medidas que vêm sendo adotadas pelas redes sociais para lidar com a questão do suicídio.

Que tipo de medidas têm sido adotadas pelas redes sociais em relação ao suicídio?

Mariana Valente As empresas maiores – Facebook, Instagram – vêm realizando há algum tempo consultas com organizações da sociedade civil que trabalham com prevenção ao suicídio para reformar suas políticas sobre conteúdos que mostrem pessoas cometendo automutilação ou ameaçando cometer suicídio. No Brasil, uma organização que vem dando esse tipo de apoio é o Centro de Valorização da Vida.

Nos últimos anos, exemplos de mudanças nas políticas incluem a possibilidade de qualquer pessoa notificar, no Facebook, um conteúdo desse tipo, e a plataforma envia conteúdos de apoio a essa pessoa. Quem faz a notificação também recebe informações sobre formas de oferecer apoio direto.

Algumas plataformas também vêm desenvolvendo ferramentas de inteligência artificial para detectar em posts, ou vídeos live, quando alguém está pensando em suicídio, e enviar esses conteúdos proativamente. (É o caso do Facebook)

Há outras políticas, também – o Instagram, por exemplo, estabelece nas Diretrizes da Comunidade que remove conteúdos que exaltem a automutilação, e desativa as contas que o fazem. O Facebook também anuncia nas políticas que remove conteúdos, inclusive imagens explícitas e representações em tempo real, que possam levar outros a praticar atos semelhantes.

Quais são as limitações dessas medidas?

Mariana Valente Há casos sensíveis, que já levantaram muita discussão: imagens exibindo casos antigos de autoagressão, como cicatrizes de cortes, podem ser parte da expressão de alguém em recuperação? Nesse caso, o Facebook decidiu colocar uma tela de alerta de que o conteúdo pode ser desagradável – uma espécie de “trigger warning”.

Não é simples definir quais são as melhores políticas para a prevenção de suicídio, em especial porque nem sempre é fácil definir a linha que define um conteúdo expressivo de alguém que pode ajudar outras pessoas ou mesmo a pessoa em questão (que pode receber ajuda de outras pessoas), e um conteúdo que pode incentivar outros a seguir o mesmo caminho.

É por isso que essa parceria com organizações da sociedade civil que compreendem profundamente o problema do suicídio, levando em conta fatores como idade e outras vulnerabilidades, é muito importante.

Parece que há, também, o problema adicional de como lidar com o fato de que a própria forma de comunicação propiciada pelas arquiteturas das redes sociais pode ser um fator a ajudar ou a agravar um quadro que pode levar ao suicídio, algo que se discutiu muito sobre o trágico suicídio de Alinne Araújo. É um assunto muito sério para ser tratado levianamente; bons argumentos para tentar interferir nessa questão predicam de estudos sérios em diversas áreas das ciências humanas.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.

Já é assinante?

Entre aqui

Continue sua leitura

Para acessar este conteúdo, inscreva-se abaixo no Boletim Coronavírus, uma newsletter diária do Nexo: