Anulado
Hotel na Etiópia
Um usuário recorreu da decisão da Meta de manter ativa uma publicação do Facebook que incitava o incêndio de um hotel na região de Amara, na Etiópia. Esse caso destaca o erro da Meta em aplicar suas políticas contra uma incitação à violência em um país onde estejam ocorrendo conflitos armados e agitação civil. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.
Esta é uma decisão sumária.As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê completo. Elas não consideram comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário recorreu da decisão da Meta de manter ativa uma publicação do Facebook que incitava o incêndio de um hotel na região de Amara, na Etiópia. Esse caso destaca o erro da Meta em aplicar suas políticas contra uma incitação à violência em um país onde estejam ocorrendo conflitos armados e agitação civil. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu a publicação.
Descrição do caso e histórico
Em 6 de abril de 2023, um usuário do Facebook publicou uma imagem e uma legenda que incitava o incêndio de um hotel na região de Amara, na Etiópia. Ele alegava que o hotel pertencia a um general das Forças de Defesa Nacional do país. A publicação também continha uma foto do hotel, seu endereço e o nome do general.
O usuário publicou esse conteúdo durante um período de grande tensão política na região de Amara, quando ocorreram protestos durante vários dias contra o plano do governo de dissolver uma força paramilitar regional.
De acordo com a política sobre Violência e incitação da Meta, a empresa remove conteúdo que incita violência de alta gravidade. Em sua apelação ao Comitê, o usuário que denunciou o conteúdo afirmou que a publicação incita violência e viola os Padrões da Comunidade da Meta.
Inicialmente, a empresa manteve o conteúdo no Facebook. Quando o Comitê levou esse caso à atenção da Meta, a empresa determinou que a publicação violava sua política sobre Violência e incitação e que sua decisão original de manter o conteúdo ativo foi um erro. A empresa então removeu o conteúdo do Facebook.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, o Comitê pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para as pessoas que usam o Facebook e o Instagram.
Significância do caso
Esse caso destaca o erro da Meta em aplicar suas políticas contra uma incitação à violência em um país onde estejam ocorrendo conflitos armados e agitação civil. Essas incitações à violência representam um risco maior de violência a curto prazo e podem agravar a situação no local. É por isso que o Comitê recomendou que a Meta “avaliasse a viabilidade de estabelecer um mecanismo interno sustentável que forneça o conhecimento técnico, a capacidade e a coordenação necessários para analisar e responder a conteúdos de maneira eficaz por toda a duração de um conflito,” ( Gabinete de Assuntos de Comunicação de Tigray, recomendação n.º 2). A Meta está em processo de integrar uma equipe de coordenação de crises para fornecer supervisão de operações dedicada durante crises iminentes e emergentes. O Comitê continuará a acompanhar a implementação do novo mecanismo juntamente com as políticas existentes, para garantir que a Meta lide com os usuários de forma mais justa nas regiões afetadas.
Ele também recomendou que a empresa encomendasse uma auditoria independente de direitos humanos em relação à forma como o Facebook e o Instagram foram usados para disseminar discursos de ódio e boatos não verificados que aumentam o risco de violência na Etiópia, além de solicitar que ela publique o relatório na íntegra (Supostos crimes em Raya Kobo, recomendação n.º 3). A Meta descreveu essa recomendação como um processo que já realiza, mas não publicou informações para demonstrar a implementação.
Decisão
O Comitê anula a decisão original da Meta de manter o conteúdo ativo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas