Comitê de Supervisão revoga decisão original da Meta: Caso 2021-012-FB-UA
9 de Dezembro de 2021
Em 28 de outubro de 2021, o Facebook anunciou que mudaria o nome da empresa para Meta. Neste texto, Meta refere-se à empresa, e Facebook continua a se referir ao produto e às políticas associadas ao aplicativo específico.
O Comitê de Supervisão reverteu a decisão original da Meta de remover uma publicação do Facebook de um artista indígena norte-americano de acordo com os Padrões da Comunidade do Facebook sobre discurso de ódio. O Comitê considerou que o conteúdo se enquadra em exceções à política sobre discurso de ódio, uma vez que se destina a aumentar a divulgação dos crimes históricos contra indígenas na América do Norte.
Sobre o caso
Em agosto de 2021, um usuário do Facebook publicou uma foto de um cinto wampum, acompanhada de um texto descritivo em inglês. O cinto wampum é uma forma de arte indígena norte-americana em que as conchas trançadas formam imagens e registram histórias e acordos. O cinto traz uma série de representações que, segundo o usuário, foram inspiradas na “história de Kamloops”, uma referência à descoberta de sepulturas não identificadas em maio de 2021 em uma antiga escola residencial para crianças indígenas na Colúmbia Britânica, Canadá.
O texto apresenta o título da obra "Kill the Indian/ Save the Man" (“Mate o índio, salve o homem”) e identifica o usuário como seu criador. O usuário descreve uma série de imagens retratadas no cinto: “Theft of the Innocent, Evil Posing as Saviours, Residential School / Concentration Camp, Waiting for Discovery, Bring Our Children Home.” (“Roubo do inocente, Mal posando como Salvador, Escola residencial/Campo de concentração, À espera da descoberta, Traga nossos filhos para casa”). Na publicação, o usuário descreve o significado da obra, bem como a história dos cintos wampum e o propósito deles como meio de educação. O usuário afirma que não foi fácil criar o cinto e que foi emocionante contar a história do que aconteceu em Kamloops. Ele se desculpou por qualquer constrangimento que a obra tenha causado aos sobreviventes de Kamloops e destacou que o "único objetivo é a conscientização em relação a essa história horrível".
Os sistemas automatizados da Meta identificaram o conteúdo como possível violação aos Padrões da Comunidade do Facebook sobre discurso de ódio no dia seguinte à publicação. Um analista humano avaliou o conteúdo como violação e o removeu no mesmo dia. O usuário apelou dessa decisão da Meta solicitando uma segunda análise humana que também avaliou o conteúdo como violação. Quando foi removido, o conteúdo tinha sido visto mais de quatro mil vezes e compartilhado mais de 50 vezes. Nenhum usuário denunciou o conteúdo.
Como resultado da escolha do caso pelo Comitê, a Meta identificou a remoção como um “erro de monitoramento” e restaurou o conteúdo em 27 de agosto. No entanto, a Meta não notificou o usuário sobre a restauração até 30 de setembro, dois dias depois que o Comitê solicitou à Meta os conteúdos de suas mensagens ao usuário. A Meta explicou que as mensagens atrasadas foram resultado de erro humano.
Principais constatações
A Meta concorda que sua decisão original de remover esse conteúdo foi contra os Padrões da Comunidade do Facebook e um "erro de monitoramento". O Comitê acredita que esse conteúdo é um exemplo claro de "contradiscurso", em que o discurso de ódio é mencionado para resistir à opressão e à discriminação.
A introdução à política do Facebook sobre discurso de ódio explica que o contradiscurso é permitido quando a intenção do usuário é claramente indicada. Fica evidente, no conteúdo da publicação, que não há discurso de ódio. A obra conta a história do que aconteceu em Kamloops, e o relato que a acompanha explica seu significado. Embora as palavras "Mate o índio" possam, isoladamente, constituir discurso de ódio, em contexto, essa frase chama a atenção para atos específicos de ódio e discriminação e os condena.
O Comitê reitera sua decisão 2020-005-FB-UA em um caso que envolvia uma citação de um oficial nazista. Esse caso apresenta lições semelhantes de como a intenção pode ser avaliada por meio de indicadores diferentes de declarações diretas, como o conteúdo e o significado de uma citação, o momento e o país da publicação e o teor das reações e dos comentários na publicação.
Nesse caso, o Comitê entendeu que não era necessário o usuário declarar expressamente que estava promovendo a conscientização para que a publicação fosse reconhecida como contradiscurso. O Comitê identificou “Perguntas conhecidas” internas aos moderadores que indicam que uma declaração de intenção clara nem sempre será suficiente para mudar o significado de uma publicação que constitui discurso de ódio. Espera-se que os moderadores façam inferências sobre o conteúdo para avaliar a intenção e não se baseiem apenas em declarações explícitas.
Dois moderadores concluíram que essa publicação constitui discurso de ódio. A Meta não conseguiu fornecer razões específicas pelas quais esse erro ocorreu duas vezes.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
Em uma declaração de orientação sobre políticas, o Comitê recomenda que a Meta:
- Forneça aos usuários um aviso preciso e oportuno sobre qualquer ação da empresa em relação ao conteúdo ao qual a apelação deles está relacionada. Quando aplicável, incluindo em casos de erro de monitoramento como este, o aviso ao usuário deve confirmar que a ação foi resultado do processo de análise do Comitê de Supervisão.
- Estude os impactos na precisão do analista quando os moderadores de conteúdo forem informados de que estão envolvidos na análise secundária, para que saibam que a determinação inicial foi contestada.
- Realize uma avaliação da precisão do analista com foco nas exceções da política sobre discurso de ódio que incluem a expressão artística e a expressão sobre violações dos direitos humanos (por exemplo, condenação, conscientização, uso autorreferencial e uso de empoderamento). Essa avaliação também deve investigar especificamente como a localização de um analista afeta a capacidade dos moderadores de avaliar com precisão o discurso de ódio e o contradiscurso na mesma região ou em regiões diferentes. A Meta deve compartilhar os resultados dessa avaliação com o Comitê, incluindo como os resultados vão gerar melhorias nas operações de monitoramento e no desenvolvimento de políticas e se a empresa planeja realizar regularmente avaliações de precisão do analista sobre essas exceções. O Comitê também solicita que a Meta compartilhe publicamente os resumos dos resultados dessas avaliações nas atualizações de transparência trimestrais da empresa sobre o Comitê para confirmar que esta recomendação foi cumprida.
Para obter mais informações:
Para ler a decisão sobre o caso na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre esse caso, clique no anexo abaixo.