Anulado

Comentário direcionado a pessoas com síndrome de Down

Um usuário apelou da decisão da Meta de manter um comentário no Facebook direcionado a pessoas com síndrome de Down e outras deficiências.

Tipo de decisão

Resumo

Políticas e tópicos

विषय
Comunidades marginalizadas, Discriminação
Padrão da comunidade
Bullying e assédio, Discurso de ódio

Regiões/países

Localização
Estados Unidos

Plataforma

Plataforma
Facebook

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.

Resumo

Um usuário apelou da decisão da Meta de manter um comentário no Facebook direcionado a pessoas com síndrome de Down e outras deficiências. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e removeu o comentário.

Sobre o caso

Em fevereiro, um usuário do Facebook comentou em um post que promovia o documentário “Amor no Espectro”, da Netflix. O comentário incluía declarações nas quais o usuário dizia que via as pessoas do espectro como “a different species of human” (uma espécie diferente de ser humano). No mesmo comentário, o usuário também menciona, pelo nome, uma pessoa específica que conhece e afirma: “this girl … was also the only fat kid in class” (essa garota... também era a única criança gorda da sala). O usuário acrescenta que é “difficult to interact with ... they are a different kind. A different form of human” (difícil interagir com pessoas assim... elas são de um tipo diferente. Uma forma diferente de ser humano).

O usuário que apelou da decisão original da Meta de manter esse comentário caracterizou-o para o Comitê como um “literal tirade against individuals with Down syndrome” (ataque literal contra indivíduos com síndrome de Down) e afirmou que “this should not require an entire essay to explain why this comment should have been flagged by the Facebook system” (não deveria ser necessário um texto inteiro para explicar por que esse comentário deveria ter sido sinalizado pelo sistema do Facebook), pedindo que a Meta “do better” (melhore sua sinalização).

De acordo com a Política sobre Conduta de Ódio da Meta, a empresa remove discurso desumanizante direcionado a pessoas com base em uma característica protegida, incluindo deficiência. Isso inclui comparações ou generalizações sobre: “Sub-humanidade (incluindo, entre outros: selvagens, demônios e monstros).” No comentário, o usuário faz uma generalização, rotulando as pessoas com síndrome de Down como “a different species of human” (uma espécie diferente de ser humano).

Além disso, a Política sobre Bullying e Assédio da Meta proíbe conteúdo que vise uma pessoa específica com “declarações de inferioridade sobre a aparência física .” A descrição do usuário de uma pessoa como “the only fat kid” (a única criança gorda) é qualificada como uma declaração de inferioridade em relação à aparência física. Isso configura uma violação do Nível 1 da política, que garante “proteções universais para todos”. A pessoa afetada não precisa denunciar o conteúdo para que ele constitua uma violação e seja removido.

Depois que o Comitê levou o caso à atenção da Meta, a empresa determinou que o conteúdo violava as Políticas sobre Conduta de Ódio e Bullying e Assédio e que sua decisão original de deixar o comentário ativo estava incorreta. A Meta considerou que o usuário violou a Política sobre Conduta de Ódio porque rotulou as pessoas com síndrome de Down como “a different species of human” (uma espécie diferente de ser humano) e a Política sobre Bullying e Assédio porque o usuário descreveu uma pessoa específica como “the only fat kid” (a única criança gorda). A empresa então removeu o conteúdo do Facebook.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância do caso

O caso em questão é um exemplo claro de discurso desumanizante direcionado a pessoas com deficiência. A afirmação de que a síndrome de Down torna alguém “a different species of human” (uma espécie diferente de ser humano) não é sutil nem velada. O fato de esse conteúdo não ter sido removido sugere um problema sério com os sistemas de aplicação da Meta e

evidencia a falha da empresa em aplicar, de forma eficaz, suas Políticas sobre Conduta de Ódio. Relatórios recentes indicam que o assédio online direcionado a pessoas com deficiências, como aquelas com síndrome de Down, continua aumentando significativamente. De acordo com o relatório Countering Cyberbullying Against Persons with Disabilities do Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos (OHCHR, na sigla em inglês), as pessoas com deficiência têm “uma probabilidade significativamente maior de sofrer cyberbullying” e “podem até mesmo se afastar completamente dos espaços digitais como resultado do abuso online”. O tema da campanha do Dia Mundial da Síndrome de Down de 2024 foi “Um apelo às pessoas em todo o mundo: chega de estereótipos! #AcabeComOsEstereótipos”. A campanha destacou que, para pessoas com síndrome de Down e deficiências intelectuais, os estereótipos muitas vezes as impedem de serem tratadas com respeito.

O Comitê emitiu recomendações com o objetivo de melhorar a aplicação das políticas da Meta para reduzir os erros. O Comitê pediu que a empresa continue aprimorando sua capacidade de detectar conteúdo que viole seu Padrão da Comunidade sobre Conduta de Ódio (anteriormente conhecido como Discurso de Ódio).

Por exemplo, o Comitê recomendou que a Meta deveria “compartilhar [com o público] os resultados das auditorias internas que conduz para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Conduta de Ódio [anteriormente conhecida como Discurso de Ódio]” (Alegações criminais com base em nacionalidade, recomendação n.º 2). Em sua resposta inicial ao Comitê, a Meta informou que implementará parcialmente essa recomendação. A empresa declarou que, embora “continue a compartilhar dados sobre a quantidade de conteúdo de discurso de ódio abordado por [seus] mecanismos de detecção e monitoramento no Relatório de Aplicação de Padrões da Comunidade (CSER, na sigla em inglês)”, os dados sobre a precisão do seu monitoramento em escala global serão compartilhados confidencialmente com o Comitê. Essa recomendação foi emitida em setembro de 2024. A implementação está em andamento, e os dados ainda não foram compartilhados com o Comitê.

O Comitê está preocupado com o fato de a Meta não ter compartilhado publicamente qual foi, se é que houve, a devida diligência de recursos humanos realizada antes das alterações na política e na aplicação anunciadas em 7 de janeiro de 2025. Essa preocupação já havia sido destacada pelo Comitê em decisões anteriores, como Críticas às políticas migratórias da União Europeia e aos imigrantes, Posts exibindo a bandeira da época do Apartheid da África do Sul, Vídeos de debate sobre identidade de gênero e Posts em apoio aos motins no Reino Unido. Uma abordagem menos proativa na aplicação das políticas pode levar a uma maior prevalência de conteúdo direcionado a membros de grupos vulneráveis, como o post analisado nesta decisão. Nas decisões mencionadas, o Comitê enfatizou que “no que diz respeito a alterações na aplicação, a devida diligência deve considerar tanto os riscos de overenforcement (aplicação excessiva) (Convocação das mulheres para protesto em Cuba, Ressignificação de palavras árabes) quanto de underenforcement (aplicação insuficiente) (Negação do Holocausto, Violência homofóbica na África Ocidental, Post em polonês contra pessoas trans). ” Além disso, o Comitê destacou a importância de a Meta garantir que “os impactos adversos dessas alterações sobre os direitos humanos sejam identificados, mitigados, prevenidos e divulgados publicamente”.

Decisão

O Comitê revoga a decisão original da Meta de manter o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, reconhece que ela corrigiu o erro inicial.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas