Anulado
Artigo do Washington Post sobre Israel e Palestina
Um usuário apelou da decisão da Meta de remover uma publicação do Facebook com um link para um artigo do Washington Post que abordava a cronologia do conflito entre Israel e Palestina. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Esta é uma decisão sumária. As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.
Resumo do caso
Um usuário apelou da decisão da Meta de remover uma publicação do Facebook com um link para um artigo do Washington Post que abordava a cronologia do conflito entre Israel e Palestina. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em outubro de 2023, um usuário do Facebook publicou um link para um artigo do Washington Post que cobria a cronologia do conflito entre Israel e Palestina. A prévia do artigo, que foi automaticamente incluída no link, menciona o Hamas. O usuário não adicionou uma legenda na publicação nem forneceu qualquer contexto adicional.
Essa publicação do Facebook foi removida de acordo com a Política sobre Organizações e Indivíduos Perigosos da Meta, que proíbe a representação e o discurso específico sobre grupos e pessoas que a empresa julga estarem ligadas a danos significativos no mundo real.
Em sua apelação ao Comitê, o usuário enfatizou que a publicação se destinava a informar sobre o conflito atual entre e Israel e Hamas e não apoiar o Hamas ou qualquer outra organização perigosa.
Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo não violava a Política sobre Organizações e Indivíduos Perigosos, já que a publicação faz referência ao Hamas em um contexto de reportagem, o que é permitido pela política. A empresa então restaurou o conteúdo no Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca um exemplo de over-enforcement da Meta de sua Política sobre Organizações e Indivíduos Perigosos, especificamente reportagens sobre entidades que a empresa designa como perigosas. Esse é um problema recorrente, que tem sido particularmente frequente durante o atual conflito entre Israel e Hamas, em que uma das partes é uma organização designada. O Comitê emitiu inúmeras recomendações relativas à permissão para reportagens no âmbito da Política sobre Organizações e Indivíduos Perigosos. Erros contínuos na aplicação dessa importante permissão podem limitar significativamente a liberdade de expressão dos usuários, o acesso do público à informação e prejudicar o discurso público.
Em uma decisão anterior, o Comitê recomendou que a Meta “avaliasse a precisão dos analistas que aplicam a permissão de denúncia de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação” ( Menção ao Talibã em reportagem, recomendação n.º 5). A Meta relatou que já realizou essa implementação, sem publicar informações comprobatórias. O Comitê também recomendou que ela “adicionasse critérios e exemplos ilustrativos à sua Política sobre Organizações e Indivíduos Perigosos para aumentar a compreensão das exceções para discussões neutras, condenações e reportagens” ( Publicação compartilhada da AI Jazeera, recomendação n.º 1). A implementação dessa recomendação foi demonstrada por meio de informações publicadas. Além disso, o Comitê recomendou que a Meta “incluísse informações mais abrangentes sobre as taxas de erro para aplicar as regras sobre ‘elogio’ e ‘apoio’ a indivíduos e organizações perigosas” nos relatórios de transparência ( Isolamento de Ocalan, recomendação n.º 12). A Meta se recusou a implementar essa recomendação após realizar uma avaliação de viabilidade. Em uma atualização à sua política datada de 29 de dezembro de 2023, a Meta agora usa o termo “glorificação” em vez de “elogio” no seu Padrão da Comunidade.
O Comitê acredita que a implementação completa dessas recomendações poderia reduzir o número de erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas