Anulado
Desenho animado envolvendo estupro
Um usuário fez uma apelação contra a decisão da Meta de deixar ativa uma publicação do Facebook que continha um desenho animado com cenas de alguém drogando outra pessoa, dando a entender que um estupro seria iminente.
As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.
Resumo
Um usuário fez uma apelação contra a decisão da Meta de deixar ativa uma publicação do Facebook que continha um desenho animado com cenas de alguém drogando outra pessoa, dando a entender que um estupro seria iminente. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.
Sobre o caso
Em abril de 2024, um usuário no México recompartilhou uma publicação do Facebook que continha um desenho animado envolvendo estupro. O desenho retrata duas pessoas, que parecem ser homens, entrando em uma casa. O morador da residência pede desculpas pela bagunça da casa. Porém, quando eles entram, o local está totalmente limpo. A outra pessoa afirma que só faz faxina quando quer ter relação sexual. O morador da residência responde “me too, my friend” (eu também, amigo) enquanto cobre o rosto da outra pessoa com um pano, e uma luta entre eles acontece. A legenda que acompanha a publicação exibe a fala “I’m sorry my friend” (Desculpe, amigo) junto com um emoji de tristeza.
O usuário que denunciou a publicação explica que piadas que envolvem estupro “não são engraçadas” e que “os homens são menos propensos a denunciar que foram estuprados devido a esses tipos de imagens.”
A Política sobre Exploração Sexual de Adultos da Meta proíbe “conteúdo que retrata, defende ou ridiculariza o contato sexual não consensual”, incluindo “[c]onteúdo que ridiculariza o conceito de contato sexual não consensual ou os sobreviventes dele”. A falta de consentimento é determinada pela Meta com base no contexto, como expressões verbais, gestos físicos ou incapacitação.
Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que o conteúdo violava a Política sobre Exploração Sexual de Adultos e que sua decisão original de manter o conteúdo estava incorreta. A empresa então removeu o conteúdo do Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário que denunciou que o conteúdo estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.
Significância do caso
Esse caso demonstra deficiências na aplicação da Política sobre Exploração Sexual de Adultos. Durante muitos anos, grupos da sociedade civil diversas vezes expressaram preocupações com a aplicação insuficiente das políticas da Meta em relação a materiais que fazem piadas sobre estupro ou ridicularizam vítimas e sobreviventes de violência sexual. O Comitê já havia abordado as dificuldades inerentes à moderação precisa de piadas e tentativas de fazer humor. Na decisão do caso Meme dos dois botões, o Comitê enfatizou a importância de avaliar cuidadosamente o conteúdo e o contexto de piadas aparentes quando a Meta analisa publicações. Embora a decisão do Meme dos dois botões tenha lidado com um conteúdo satírico removido erroneamente, esse caso ilustra os erros cometidos quando publicações expressas como piadas não são levadas tão a sério e são mantidas na plataforma indevidamente. Conforme a Meta concordou agora, essa publicação, que se baseia em uma premissa homofóbica e ridiculariza uma agressão sexual violenta, claramente viola a Política sobre Exploração Sexual de Adultos. Diante da grande probabilidade de erros nesses tipos de casos, o Comitê recomendou que a Meta garanta que seus processos incluam de forma adequada oportunidades suficientes para “investigar ou escalonar quando o moderador de um conteúdo não tiver certeza se um meme é satírico ou não” (decisão do caso Meme dos dois botões, recomendação n.º 3). A Meta comunicou a implementação dessa recomendação, mas não publicou informações para demonstrá-la.
O Comitê emitiu recomendações destinadas a reduzir o número de erros de monitoramento por parte da Meta. Também instou a empresa a “implementar um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa das decisões de remoção de conteúdo automatizadas que foram revertidas e aprender com os erros de monitoramento”, (decisão do caso Sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta reformulou a recomendação na sua resposta e implementação e não abordou o objetivo da recomendação do Comitê. Ademais, o Comitê enfatizou diversas vezes a importância de que a Meta dedique recursos extras para aprimorar sua capacidade de analisar com precisão conteúdos potencialmente prejudiciais que criticam ou legitimam problemas sistêmicos, incluindo violência sexual e de gênero em casos como os que foram abordados nas decisões sobre Assédio sexual na Índia e Imagem retratando violência de gênero.
Decisão
O Comitê revoga a decisão original da Meta de manter o conteúdo Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas