Comitê de Supervisão revoga a decisão original da Meta no caso “Ilustração sobre a polícia da Colômbia” (2022-004-FB-UA)
15 de Setembro de 2022
O Comitê de Supervisão revogou a decisão original da Meta de remover uma publicação no Facebook de uma ilustração que retratava violência policial na Colômbia. O Comitê está preocupado que os bancos de dados do Serviço de Correspondência de Mídia, que pode remover automaticamente imagens que violem as regras da Meta, possam aumentar o impacto de decisões incorretas no conteúdo dos bancos de dados. Como resposta, a empresa deve melhorar com urgência os próprios procedimentos para remover, de forma rápida, todo conteúdo desses bancos de dados que não viole as regras.
Sobre o caso
Em setembro de 2020, um usuário do Facebook na Colômbia publicou uma ilustração parecida com o brasão oficial da Polícia Nacional da Colômbia, retratando três pessoas com uniforme policial e um cassetete acima da cabeça. Elas parecem chutar e agredir outra pessoa que está deitada no chão com sangue debaixo da cabeça. O texto do brasão diz o seguinte em espanhol: “República de Colombia - Policía Nacional - Bolillo y Pata” (Polícia Nacional – República da Colômbia – Cassetete e Chute).
Segundo a Meta, em janeiro de 2022, 16 meses após o usuário publicar a ilustração, a empresa removeu o conteúdo porque ele coincidia com uma imagem de um banco de dados do Serviço de Correspondência de Mídia. Esses bancos de dados podem identificar e remover automaticamente imagens que analistas humanos tenham identificado que violam as regras da empresa. Como resultado da seleção do caso pelo Comitê, a Meta determinou que a publicação não violava essas regras e a restaurou. A empresa também restaurou outros conteúdos que incluíam essa ilustração e que os bancos de dados do Serviço de Correspondência de Mídia tinham removido incorretamente.
Principais constatações
Conforme a Meta reconhece agora, a publicação não violou as políticas da empresa, a qual errou ao adicionar a ilustração ao banco de dados do Serviço de Correspondência de Mídia. Isso levou a uma remoção em massa e desproporcional da imagem na plataforma, incluindo o conteúdo que o usuário publicou no caso em questão. Embora 215 usuários tenham feito apelações dessas remoções e 98% delas tenham tido sucesso, a Meta ainda não tinha removido a ilustração do banco de dados até o caso chegar ao Comitê.
O caso mostra como os bancos de dados do Serviço de Correspondência de Mídia podem, com o uso de sistemas automatizados para remover conteúdo, aumentar o impacto de decisões incorretas de analistas humanos. As consequências de adicionar conteúdo por engano a esses bancos de dados são especialmente graves quando, como no caso em questão, o conteúdo consiste em discurso político que critica agentes estatais.
Como resposta, a Meta deve desenvolver mecanismos para remover, de forma rápida, todo conteúdo não violador que seja incorretamente adicionado aos bancos de dados do Serviço de Correspondência de Mídia. Quando decisões de remover conteúdo incluído nesses bancos de dados são frequentemente revogadas após apelação, isso deve desencadear imediatamente análises que possam remover o conteúdo em questão do banco de dados.
O Comitê está particularmente preocupado que a Meta não mensure a precisão dos bancos de dados do Serviço de Correspondência de Mídia para políticas de conteúdo específicas. Sem esses dados, que são cruciais para melhorar a forma como esses bancos de dados funcionam, a empresa não consegue saber se essa tecnologia funciona com maior eficácia para algumas políticas dos Padrões da Comunidade do que para outras.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
O Comitê recomenda que a Meta faça o seguinte:
- garanta que o conteúdo com altas taxas de apelações e altas taxas de apelações bem-sucedidas seja reavaliado para uma possível remoção dos bancos de dados do Serviço de Correspondência de Mídia;
- limite o tempo entre o momento em que o conteúdo inserido no banco de dados é identificado para análise adicional e o momento em que, se considerado como não violador, ele é removido do banco de dados. Isso asseguraria que o conteúdo não violador fosse removido rapidamente dos bancos de dados do Serviço de Correspondência de Mídia; e
- publique as taxas de erro relacionadas a conteúdo incluído erroneamente nos bancos de dados de conteúdos violadores do Serviço de Correspondência de Mídia, divididas por política de conteúdo, nos relatórios de transparência.
Mais informações:
Para ler a decisão na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre o caso, clique no anexo abaixo.