Anulado

Ameaça de violência contra o povo rohingya

Um usuário apelou da decisão da Meta de deixar ativo um comentário em uma publicação no Facebook alegando que as pessoas da etnia rohingya causam confusões e são “tricksters” (malandras). O comentário também incitava a implementação de medidas de controle contra eles.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Comunidades marginalizadas, Guerra e conflitos, Raça e etnia
Padrão da comunidade
Violência e incitação

Regiões/países

Localização
Mianmar

Plataforma

Plataforma
Facebook

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Um usuário apelou da decisão da Meta de deixar ativo um comentário em uma publicação no Facebook alegando que as pessoas da etnia rohingya causam confusões e são “tricksters” (malandras). O comentário também incitava a implementação de medidas de controle contra elas, inclusive seu “total erasure” (desaparecimento total). Esse caso destaca um problema recorrente na under-enforcement (aplicação insuficiente) da Política sobre Violência e Incitação da empresa, especificamente em relação a ameaças contra grupos vulneráveis. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.

Sobre o caso

Em janeiro de 2024, um usuário do Facebook comentou em uma publicação sobre o povo rohingya em Mianmar. O comentário incluía uma legenda acima da imagem de um porco defecando. Na legenda, o usuário escreve que “this group” (este grupo) (em referência aos rohingya) são “tricksters” (malandros) que “continue to cause various social problems” (continuam causando vários problemas sociais). A legenda argumenta que o governo de Mianmar tomou a atitude correta ao “curbing” (reprimir) os rohingya e incita seu “absolute erasure from the face of the Earth” (desaparecimento total da face da Terra) em prol da “national security and well-being” (segurança e bem-estar nacional).

Na sua declaração ao Comitê, o usuário que fez a apelação escreveu que vive em Mianmar e expressou frustração pela falta de ação da Meta contra comentários que incitam o genocídio, como o desse caso. Ele explicou como testemunhou, em primeira mão, de que forma a incapacidade da Meta de moderar, de forma eficaz, o discurso de ódio contra o povo rohingya levou à violência no meio físico e como esse povo está definhando em campos de refugiados.

De acordo com a Política sobre Violência e Incitação da Meta, a empresa proíbe “ameaças de violência que podem levar à morte (ou outras formas de violência de alta gravidade)”. Após o usuário fazer uma apelação à Meta, a empresa inicialmente deixou o conteúdo na plataforma.

Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o comentário “promove a violência letal por meio da incitação ao ‘desaparecimento’ do povo rohingya da Terra” e, portanto, não segue o Padrão da Comunidade sobre Violência e Incitação. A empresa então removeu o conteúdo da plataforma.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância do caso

Esse caso destaca problemas na repetida under-enforcement (aplicação insuficiente) da Meta em relação à retórica violenta e provocativa contra o povo rohingya. Esse é um problema bem conhecido e recorrente: em 2018, a Meta encomendou uma avaliação dos direitos humanos independente para determinar até que ponto a empresa desempenhou um papel na exacerbação das campanhas de desinformação e da discriminação contra o povo rohingya. A incapacidade da empresa de moderar conteúdos que apoiam o genocídio e promovem a limpeza étnica da população rohingya marginalizada foi documentada por outros grupos da sociedade civil, como a Anistia Internacional em um relatório que detalha o papel da Meta nas atrocidades cometidas contra a comunidade.

Em uma decisão anterior, o Comitê recomendou que a “Meta deveria reescrever [seu] valor de 'segurança' para refletir que o discurso online pode representar risco para a segurança física das pessoas e o direito à vida, além dos riscos de intimidação, exclusão e silenciamento” (Alegação de crimes em Raya Kobo, recomendação n.º 1). A Meta concluiu parcialmente a implementação dessa recomendação.

O Comitê pediu que a Meta melhore a detecção e o monitoramento do discurso que incita a violência contra o povo rohingya.

Decisão

O Comitê revoga a decisão original da Meta de manter o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas