Anulado
Herança do orgulho
Um usuário apelou da decisão da Meta de remover uma publicação do Instagram que comemorava o Mês do Orgulho, ressignificando uma calúnia que é tradicionalmente usada contra gays.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos pela Meta, informam o público sobre o impacto do trabalho do Comitê e são aprovadas por um painel de Membros dele, não por ele inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário apelou da decisão da Meta de remover uma publicação do Instagram que comemorava o Mês do Orgulho, ressignificando uma calúnia que é tradicionalmente usada contra gays. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em janeiro de 2022, um usuário do Instagram publicou uma imagem com uma legenda que inclui uma citação do escritor e ativista dos direitos civis James Baldwin, que fala sobre o poder do amor para unir a humanidade. A legenda também expressa a esperança do usuário por um ano de descanso, comunhão e revolução, e faz um apelo à afirmação contínua da beleza queer. A imagem da publicação mostra um homem segurando uma placa que diz: “That’s Mr Faggot to you” (Prefiro que me chame de Sr. Viadinho) com o fotógrafo original creditado na legenda. A publicação foi visualizada cerca de 37 mil vezes.
De acordo com a Política sobre Discurso de Ódio da Meta, a empresa proíbe o uso de palavras específicas que considera calúnias. Ela reconhece, no entanto, que “o discurso, incluindo calúnias, que de outra forma poderia violar nossos padrões pode ser usado de forma autorreferencial ou empoderadora”. A Meta explica que suas “políticas são criadas para dar espaço a esse tipo de discurso”, mas a empresa exige que as pessoas “indiquem claramente sua intenção”. Se a intenção não for clara, a Meta pode remover o conteúdo.
Ela inicialmente removeu o conteúdo do Instagram. O usuário, que tem uma conta verificada do Instagram com sede nos Estados Unidos, apelou da decisão da Meta de remover a publicação ao Comitê. Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que o conteúdo seguia o Padrão da Comunidade sobre Discurso de Ódio e que sua decisão original estava incorreta. A empresa então restaurou o conteúdo no Instagram.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca os desafios na capacidade da Meta de aplicar exceções à sua Política sobre Discurso de Ódio, inclusive as deficiências do programa de verificação cruzada da empresa. O conteúdo, nesse caso, foi publicado por uma conta verificada do Instagram, qualificada para análise de acordo com o sistema de verificação cruzada. Portanto, a conta, que se dedica a educar os usuários sobre o movimento LGBTQIA+, deveria ter tido níveis adicionais de análise. Como a legenda menciona “infinite queer beauty” (beleza queer infinita) e faz referências à comunidade e à solidariedade com as pessoas LGBTQIA+, os sistemas de moderação da Meta deveriam ter reconhecido que a calúnia foi usada de uma forma empoderadora, e não de maneira condenatória ou com menosprezo à comunidade LGBTQIA+.
Anteriormente, o Comitê emitiu várias recomendações relevantes para esse caso. O Comitê recomendou que “a Meta deve ajudar os moderadores a avaliar melhor quando as exceções para conteúdo contendo calúnias são justificadas” (Decisão do caso Ressignificação de palavras em árabe, recomendação n.º 1) e que a empresa deve “permitir que os usuários indiquem em sua apelação que seu conteúdo se enquadra em uma das exceções à Política sobre Discurso de Ódio. Isso inclui quando os usuários compartilham conteúdo de ódio para condenar ou conscientizar” (Decisão do caso Meme dos dois botões, recomendação n.º 4). A Meta não tomou nenhuma medida adicional em relação à primeira recomendação e implementou parcialmente a segunda. Além disso, o Comitê recomendou que a Meta “conduza avaliações de precisão focadas nas permissões da Política sobre Discurso de Ódio que incluem a expressão sobre violações dos direitos humanos (por exemplo, condenação, conscientização)” (Decisão do caso Cinto Wampum, recomendação n.º 3). A Meta implementou parcialmente essa recomendação. Por fim, como o conteúdo foi publicado por uma conta que faz parte do programa de verificação cruzada da Meta, as recomendações relevantes incluem incentivar a empresa a identificar “‘entidades que historicamente sofrem over-enforcement (aplicação excessiva)’ para informar como melhorar suas práticas de aplicação em grande escala” ( parecer consultivo sobre política em relação ao programa de verificação cruzada, recomendação n.º 26) e estabelecer “um processo para os usuários solicitarem proteções de prevenção de erros de over-enforcement” ( parecer consultivo sobre política em relação ao programa de verificação cruzada , recomendação n.º 5). A Meta está atualmente implementando integralmente a primeira recomendação e recusou-se a tomar outras medidas em relação à segunda. O Comitê destaca a necessidade de a Meta abordar essas preocupações para reduzir a taxa de erro na moderação de conteúdos com discurso de ódio.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas