Anulado
Comentário sobre a eleição para prefeito de Karachi
Um usuário do Facebook apelou da decisão da Meta de remover seu comentário mostrando os resultados da eleição para prefeito de Karachi em 2023 e mencionando o Tehreek-e-Labbaik Pakistan (TLP), um partido designado pela Política sobre Organizações e Indivíduos Perigosos da Meta.
Esta é uma decisão sumária.As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário do Facebook apelou da decisão da Meta de remover seu comentário mostrando os resultados da eleição para prefeito de Karachi em 2023 e mencionando o Tehreek-e-Labbaik Pakistan (TLP), um partido político islâmico de extrema direita designado pela Política sobre Organizações e Indivíduos Perigosos da Meta. Esse caso destaca a over-enforcement (aplicação excessiva) dessa política e seu impacto na capacidade dos usuários de compartilhar comentários e reportagens políticas. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou o comentário.
Descrição do caso e histórico
Em junho de 2023, um usuário do Facebook fez um comentário em uma publicação de uma foto do político de Karachi, Hafiz Naeem ur Rehman, com o ex-primeiro-ministro paquistanês Imran Khan e o secretário-geral do partido político Jamaat-e-Islami, Liaqat Baloch. O comentário é a imagem de um gráfico retirado de um programa de televisão, que mostra o número de assentos conquistados pelos vários partidos nas eleições para prefeito de Karachi. Um dos partidos incluídos na lista é o Tehreek-e-Labbaik Pakistan (TLP), um partido político islâmico de extrema direita no Paquistão. A eleição para prefeito de Karachi em 2023 foi uma disputa acirrada, com um partido perdedor alegando que a votação foi fraudada injustamente e ocorrendo protestos violentos subsequentes entre apoiadores de diferentes partidos.
Originalmente, a Meta removeu o comentário do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual se baseia para remover conteúdo que “elogia, apoia substancialmente ou representa” indivíduos e organizações que a empresa designa como perigosos. Entretanto, a política reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados no contexto do discurso social e político. Isso inclui denunciar conteúdo, discutir de forma neutra ou condenar organizações e indivíduos perigosos ou suas atividades”.
Na apelação ao Comitê, o usuário se identificou como jornalista e afirmou que o comentário se referia ao resultado da eleição para prefeito de Karachi, e esclareceu que a intenção era informar o público e discutir o processo democrático.
Depois que o Comitê levou esse caso à atenção da Meta, a empresa determinou que o conteúdo seguia suas políticas. A política da Meta permite a discussão neutra de uma entidade designada no contexto do discurso social e político, nesse caso, relatando o resultado de uma eleição.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca a over-enforcement (aplicação excessiva) da Política sobre Organizações e Indivíduos Perigosos da Meta. Os casos do Comitê sugerem que erros desse tipo são muito frequentes. Eles impedem a capacidade dos usuários, principalmente dos jornalistas, de noticiar informações fatuais sobre organizações designadas como perigosas. A empresa deve priorizar a redução desses erros.
O Comitê emitiu várias recomendações em relação à Política sobre Organizações e Indivíduos Perigosos da Meta. Elas incluíam uma recomendação para “avaliar processos automatizados de moderação para aplicação da Política sobre Organizações e Indivíduos Perigosos”, que a Meta se recusou a implementar (Decisão do caso Isolamento de Öcalan, recomendação n.º 2). O Comitê também recomendou que a Meta “avalie a precisão dos analistas que aplicam a permissão para reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos a fim de identificar problemas sistêmicos que causam erros de aplicação” (Decisão do caso Menção ao Talibã em reportagens, recomendação n.º 5 ). A Meta está em processo de implementação de uma atualização em sua Política sobre Organizações e Indivíduos Perigosos, que incluirá detalhes sobre como a empresa aborda as reportagens, inclusive discussões neutras e condenatórias. Além disso, o Comitê recomendou que a Meta “forneça uma lista pública das organizações e indivíduos designados como 'perigosos' conforme o Padrão da Comunidade sobre Organizações e Indivíduos Perigosos”, que a empresa se recusou a implementar após uma avaliação de viabilidade, (Decisão do caso Citação nazista, recomendação n.º 3).
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas