Anulado
Sátira de Elon Musk
Um usuário apelou da decisão da Meta de remover uma publicação do Instagram contendo uma sequência fictícia do site “X” que retrata satiricamente Elon Musk reagindo a uma publicação com conteúdo ofensivo. O caso destaca as deficiências da Meta na identificação precisa de conteúdo satírico em suas plataformas.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário apelou da decisão da Meta de remover uma publicação do Instagram contendo uma sequência fictícia do site “X” (anteriormente Twitter) que retrata satiricamente Elon Musk reagindo a uma publicação com conteúdo ofensivo. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em julho de 2023, um usuário publicou uma imagem no Instagram contendo uma sequência fictícia do site X que não parece ter o mesmo layout do site em questão. Na sequência, um usuário fictício publicou diversas declarações inflamadas, como: “KKK never did anything wrong to black people,” “Hitler didn’t hate Jews,” e “LGBT are all pedophiles.” (a KKK nunca fez nada de errado com os negros, Hitler não odiava os judeus e os LGBTs são todos pedófilos). A sequência mostrava Elon Musk respondendo à publicação do usuário afirmando “Looking into this.…” (Analisando isso...). Essa publicação do Instagram teve menos de 500 visualizações.
A publicação foi removida por não seguir a Política sobre Organizações e Indivíduos Perigosos da Meta, que proíbe a representação e o discurso específico sobre grupos e pessoas que a empresa julga estarem ligadas a danos significativos no mundo real. A Meta designa tanto a Ku Klux Klan (KKK) como Hitler como entidades perigosas de acordo com essa política. Em certos casos, a empresa permitirá “conteúdo que possa não seguir os Padrões da Comunidade de outra forma, quando for determinado que ele é uma sátira. O conteúdo só será permitido se os elementos violadores dele forem sátiras ou atribuídos a algo ou alguém com o objetivo de zombar ou criticar.”
Na sua apelação ao Comitê, o usuário enfatizou que a publicação não tinha a intenção de apoiar Hitler ou a KKK, mas sim “call out and criticize one of the most influential men on the planet for engaging with extremists on his platform." (chamar atenção e criticar um dos homens mais influentes do planeta por se envolver com extremistas na sua plataforma).
Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo seguia a Política sobre Organizações e Indivíduos Perigosos e que a remoção da publicação estava incorreta. A empresa então restaurou o conteúdo no Instagram.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca as deficiências da Meta na identificação precisa de conteúdo satírico em suas plataformas. O Comitê já emitiu recomendações sobre o monitoramento de conteúdo satírico pela Meta. O Comitê instou a empresa a “confirmar que há procedimentos adequados em vigor para avaliar o conteúdo satírico e o contexto relevante de forma adequada. Isso inclui fornecer aos moderadores de conteúdo: (i) acesso às equipes de operação local do Facebook para coletar informações culturais e históricas relevantes e (ii) tempo suficiente para consultar as equipes de operação local do Facebook e fazer a avaliação. O Facebook deve garantir que suas políticas para moderadores de conteúdo incentivem mais investigação ou encaminhamento quando um moderador de conteúdo não tiver certeza se um meme é satírico ou não ,” (Decisão do caso Meme dois botões, recomendação n.º 3). A Meta relatou a implementação dessa recomendação sem publicar mais informações e, portanto, sua implementação não pode ser verificada.
Além disso, esse caso ilustra os desafios da Meta na interpretação da intenção do usuário. Anteriormente, o Comitê pediu à empresa que comunicasse aos usuários como eles podem esclarecer a intenção por trás de sua publicação, especialmente em relação à Política sobre Organizações e Indivíduos Perigosos. A Meta implementou parcialmente a recomendação do Comitê de “explicar nos Padrões da Comunidade como os usuários podem deixar clara a intenção por trás de suas publicações para o Facebook… O Facebook deve fornecer exemplos ilustrativos para demonstrar a linha entre conteúdo permitido e proibido, inclusive em relação à aplicação da regra esclarecendo a exceção sobre 'apoio' ,” (Decisão do caso Isolamento de Ocalan, recomendação n.º 6).
O Comitê enfatiza que a adoção total dessas recomendações, juntamente com a publicação de informações pela Meta para demonstrar que foram implementadas com sucesso, poderia reduzir o número de erros de monitoramento de conteúdo satírico nas plataformas da empresa.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas