Decisão de múltiplos casos

Reportagens sobre a guerra em Gaza

Nessas duas decisões sumárias, o Comitê analisou duas publicações que falavam sobre a guerra em Gaza.

2 casos incluídos neste pacote

Anulado

FB-VXKB1TZ5

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Jornalismo,Guerra e conflitos
Padrão
Indivíduos e organizações perigosos
Localização
Israel,Territórios Palestinos
Date
Publicado em 4 de Junho de 2024
Anulado

IG-50OFM0LV

Caso sobre organizações e indivíduos perigosos no Instagram

Plataforma
Instagram
विषय
Liberdade de expressão,Jornalismo,Guerra e conflitos
Padrão
Indivíduos e organizações perigosos
Localização
Israel,Territórios Palestinos
Date
Publicado em 4 de Junho de 2024

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Nessas duas decisões sumárias, o Comitê analisou duas publicações que falavam sobre a guerra em Gaza. Após o Comitê levar essas duas apelações à atenção da Meta, a empresa reverteu suas decisões originais e restaurou ambas as publicações.

Sobre os casos

No primeiro caso, um usuário do Instagram publicou, em fevereiro de 2024, um vídeo curto de uma reportagem do Channel 4 News (Reino Unido) sobre o assassinato de uma criança palestina. O vídeo tem uma legenda que indica expressamente que não promove organizações e indivíduos perigosos e que é uma história sobre uma família palestina e trabalhadores humanitários.

No segundo caso, um usuário do Facebook publicou um vídeo em janeiro de 2024 da Al-Jazeera falando sobre a guerra em Gaza. O clipe contém reportagens e análises sobre as negociações de libertação de reféns entre Israel e o Hamas.

A Meta originalmente removeu as publicações do Instagram e do Facebook, respectivamente, citando sua Política sobre Organizações e Indivíduos Perigosos. De acordo com essa política, a empresa remove “glorificação”, “apoio” e “representação” de entidades designadas, seus líderes, fundadores ou membros notáveis, e referências pouco claras a eles.

Em suas apelações ao Comitê, ambos os usuários afirmaram que os vídeos eram reportagens de meios de comunicação e seguiam os Padrões da Comunidade da Meta. Depois que o Comitê levou esses dois casos à atenção da Meta, a empresa determinou que as publicações não violavam suas políticas e restaurou ambos os itens de conteúdo em suas plataformas.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar as decisões da Meta após apelações dos usuários cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância dos casos

Esses casos destacam erros na aplicação de uma exceção à Política sobre Organizações e Indivíduos Perigosos que permite conteúdo que “relate, discuta de forma neutra ou condene organizações e indivíduos perigosos e suas atividades”, a fim de salvaguardar um espaço para “discurso social e político”. Esse tipo de erro mina os esforços genuínos para informar e conscientizar sobre o conflito em curso em Gaza e em outras regiões afetadas por conflitos.

O Comitê emitiu várias recomendações para melhorar a aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta. Em um parecer consultivo sobre política, o Comitê pediu à Meta que “explicasse os métodos que usa para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Organizações e Indivíduos Perigosos” (referindo-se a Indivíduos Perigosos Designados como “Shaheed”, recomendação n.º 6). O Comitê também pediu para a Meta “avaliar a precisão dos analistas que aplicam a permissão para reportagens de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar problemas sistêmicos que causam erros de aplicação”, uma recomendação cuja implementação a Meta relatou, mas não publicou informações para demonstrá-la ( Menção ao Talibã em reportagens, recomendação n.º 5). Além disso, o Comitê recomendou que a Meta “adicione critérios e exemplos ilustrativos à Política sobre Organizações e Indivíduos Perigosos da Meta para aumentar a compreensão das exceções, especificamente em torno de discussões neutras e reportagens”, uma recomendação para a qual a Meta demonstrou implementação por meio de informações publicadas ( Publicação compartilhada da Al Jazeera, recomendação n.º 1).

Decisão

O Comitê revoga as decisões originais da Meta de remover os dois itens de conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas