Anulado

Tortura pelas forças equatorianas

Um usuário apelou da decisão da Meta de remover um vídeo do Facebook do Equador que mostrava pessoas sendo amarradas, pisoteadas e espancadas com cassetetes por indivíduos vestidos com o que pareciam ser uniformes militares.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Governos, Liberdade de expressão, Política
Padrão da comunidade
Conteúdo violento e explícito, Discurso de ódio, Violência e incitação

Regiões/países

Localização
Equador

Plataforma

Plataforma
Facebook

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar sua aplicação.

Resumo

Um usuário apelou da decisão da Meta de remover um vídeo do Facebook do Equador que mostrava pessoas sendo amarradas, pisoteadas e espancadas com cassetetes por indivíduos vestidos com o que pareciam ser uniformes militares. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação, também aplicando uma tela de aviso “Marcar como sensível”.

Sobre o caso

Em janeiro de 2024, um usuário do Facebook publicou um vídeo mostrando um grupo de pessoas amarradas e deitadas de bruços no chão, enquanto várias outras pessoas com roupas camufladas pisavam repetidamente no pescoço e nas costas delas, mantendo-as na posição e espancando-as com um cassetete. O rosto de nenhuma pessoa está visível no vídeo. O áudio inclui alguém dizendo “maricón”, que o Comitê, em sua decisão sobre o caso Protestos na Colômbia, observou ter sido um termo designado como calúnia pela Meta. A publicação também contém texto em espanhol condenando o espancamento de prisioneiros “indefesos” e “desarmados”.

Na época em que o conteúdo foi publicado, os presos se revoltaram nas prisões do Equador, fazendo os agentes penitenciários e funcionários administrativos de reféns. O governo do Equador declarou estado de emergência e impôs toque de recolher. A polícia e os militares recuperaram então o controle de algumas das prisões, com o exército compartilhando imagens de centenas de detentos, sem camisa e descalços, caídos no chão.

A Meta inicialmente removeu a publicação do usuário do Facebook de acordo com seu Padrão da Comunidade sobre Violência e Incitação, que proíbe ameaças de violência, definidas como “declarações ou imagens que representam uma intenção, aspiração ou apelo à violência contra um alvo”.

Quando o Comitê levou esse caso à atenção da Meta, a empresa não deu razões pelas quais havia removido o conteúdo de acordo com o Padrão da Comunidade sobre Violência e Incitação. A empresa também avaliou o conteúdo de acordo com o Padrão da Comunidade sobre Discurso de Ódio. A Meta explicou que, embora o conteúdo contivesse calúnias, isso era permitido pelo Padrão da Comunidade sobre Discurso de Ódio, pois o conteúdo incluía “calúnias ou discurso de ódio de outra pessoa para condenar o discurso ou denunciá-lo”.

A empresa também explicou que, de acordo com o Padrão da Comunidade sobre Conteúdo Violento e Explícito, a empresa aplica uma tela de aviso “Marcar como sensível” a “imagens que retratam uma ou mais pessoas sujeitas a violência e/ou atos humilhantes por uma ou mais pessoas uniformizadas desempenhando função policial”. Ela restaurou o conteúdo no Facebook e aplicou o rótulo “Marcar como sensível” nele.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância do caso

Esse caso ilustra os desafios enfrentados pela Meta na aplicação das suas Políticas sobre Violência e Incitação, sobre Conteúdo Violento e Explícito e sobre Discurso de Ódio. Esses desafios são particularmente difíceis quando se trata de documentação de violência ou abusos durante situações de crise para efeitos de conscientização.

Para o Padrão da Comunidade sobre Violência e Incitação, o Comitê recomendou que a Meta deveria “adicionar à linguagem voltada ao público... que a empresa interprete a política para permitir conteúdo contendo declarações com ‘referência neutra a um resultado potencial de uma ação ou aviso de advertência’ e conteúdo que ‘condena ou conscientiza sobre ameaças violentas’” ( Poema russo, recomendação n.º 1). Essa recomendação foi implementada. Em fevereiro de 2024, a Meta atualizou essa política, incluindo o esclarecimento de que ela não proíbe ameaças quando compartilhadas em contextos de conscientização ou condenação.

Em termos do Padrão da Comunidade sobre Conteúdo Violento e Explícito, o Comitê recomendou que a Meta deveria “notificar os usuários do Instagram quando uma tela de aviso for aplicada ao conteúdo deles e fornecer a justificativa política específica para fazê-lo” (Vídeo após ataque à igreja na Nigéria, recomendação n.º 2). A Meta relatou progresso na implementação dessa recomendação. Em sua atualização do quarto trimestre de 2023 no Comitê, a Meta declarou o seguinte: “Os indivíduos que utilizam nossas plataformas podem antecipar o recebimento de detalhes mais abrangentes sobre as determinações de monitoramento e medidas de segurança tomadas em relação ao conteúdo deles, incluindo a implementação de telas de aviso. Dado que esse é um componente integral da nossa iniciativa de conformidade mais ampla, prevemos entregar uma atualização mais abrangente ainda em 2024”.

Relativamente ao discurso de ódio, o Comitê recomendou que a Meta “revise o Padrão da Comunidade sobre Discurso de Ódio para proteger explicitamente as reportagens jornalísticas sobre calúnias, quando elas, em particular em contextos eleitorais, não criam um ambiente de exclusão e/ou intimidação. Essa exceção deve ser tornada pública e separada das exceções de ‘conscientização’ e ‘condenação’” ( Disputa política antes das eleições turcas, recomendação n.º 1). Foram relatados progressos na implementação dessa recomendação. Também foi recomendado que a Meta deveria “desenvolver e divulgar critérios claros a analistas de conteúdo a fim de escalar para análise adicional conteúdo de interesse público que potencialmente não siga os Padrões da Comunidade” (Protestos na Colômbia, recomendação n.º 3). A Meta descreveu essa recomendação como um processo que já realiza, mas não publicou informações para demonstrar a implementação.

O Comitê acredita que a implementação integral dessas recomendações poderia contribuir para diminuir o número de erros de aplicação nas Políticas sobre Violência e Incitação, sobre Conteúdo Violento e Explícito e sobre Discurso de Ódio.

Decisão

O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas