Novos casos para considerar alegações criminais com base na nacionalidade

Hoje, o Comitê anunciou três novos casos a serem levados em consideração. Como parte disso tudo, estamos convidando pessoas e organizações a enviarem comentários públicos usando o botão abaixo.

Seleção de casos

Como não podemos ouvir todas as apelações, o Comitê coloca como prioridade casos que possam afetar muitos usuários no mundo todo, que sejam de importância fundamental para o discurso público ou que levantem questões importantes sobre as políticas da Meta.

Hoje, os casos que estamos anunciando são:

Alegações criminais com base na nacionalidade

2024-028-IG-MR, 2024-029-TH-MR, 2024-030-FB-MR

Casos mencionados pela Meta

Envie um comentário público usando o botão abaixo

O Comitê de Supervisão pretende resolver juntos esses três casos sobre decisões de conteúdo tomadas pela Meta, um no Instagram, um no Threads e um no Facebook. Para cada caso, o Comitê decidirá se o conteúdo deve ser permitido na plataforma relevante.

O primeiro caso envolve a resposta de um usuário a um comentário em uma publicação do Threads de janeiro de 2024. A publicação tratava-se de um vídeo que abordava a questão do conflito entre Israel e o Hamas. A resposta contém a palavra “genocídio” e afirma que “todos os israelenses são criminosos”. Como resultado, uma das ferramentas automatizadas da Meta, mais precisamente um classificador de discurso hostil, reconheceu esse conteúdo como possivelmente violador. Após revisão humana, a Meta determinou que o conteúdo violava o Padrão da Comunidade contra Discurso de Ódio e o removeu. Os especialistas em política da Meta também confirmaram que a decisão inicial de remover o conteúdo estava correta. Posteriormente, a empresa identificou esse caso como um a ser encaminhado ao Comitê. 

O segundo caso trata-se de uma publicação em árabe no Facebook datada de dezembro de 2023, que declara que tanto os russos quanto os estadunidenses são “criminosos”. Além disso, o conteúdo sugere que “os estadunidenses são mais respeitáveis” porque “reconhecem seus crimes”, enquanto os russos “buscam se beneficiar dos crimes dos estadunidenses”. Após uma das ferramentas automatizadas da Meta, um classificador de discurso hostil, identificar o conteúdo como possivelmente violador, a publicação foi encaminhada para revisão. No entanto, ela foi automaticamente mantida e permaneceu no Facebook. Em março de 2024, a Meta optou por encaminhar esse conteúdo ao Comitê, e os especialistas em política da empresa concluíram que a publicação violava o Padrão da Comunidade sobre Discurso de Ódio. Em seguida, foi removido do Facebook. O usuário que postou o conteúdo apelou da decisão. Após outra etapa de revisão humana, a empresa decidiu que a remoção do conteúdo neste caso estava correta.

O terceiro caso envolve o comentário de um usuário em uma publicação do Instagram de março de 2024, que afirma que “todos os indianos são estupradores”. A Meta removeu o conteúdo depois que uma das ferramentas automatizadas da plataforma, um classificador de discurso hostil, o identificou como potencialmente violador do Padrão da comunidade sobre Discurso de Ódio. O usuário não recorreu da decisão da Meta. Após a Meta selecionar esse conteúdo para encaminhar ao Comitê, os especialistas em política da empresa reafirmaram que a decisão inicial de remover o conteúdo estava correta.

A Meta removeu o conteúdo em todos os três casos. No primeiro caso, a Meta não aplicou um aviso padrão à conta do usuário, pois este último teve outro conteúdo removido na mesma época. A Meta explicou que, quando a empresa remove vários conteúdos de uma vez, ela pode contá-los como um único aviso. No segundo caso, a Meta não emitiu um aviso padrão à conta do usuário, uma vez que o conteúdo havia sido postado há mais de 90 dias antes de qualquer medida de fiscalização ser tomada, conforme estabelecido na política de avisos da Meta. No terceiro caso, a empresa aplicou um aviso padrão à conta do usuário, juntamente com um limite de recurso de 24 horas, o que impediu o usuário de utilizar o recurso de vídeo ao vivo.

O Padrão da comunidade contra Discurso de Ódio da Meta faz uma distinção entre ataques diretos contra pessoas com base em características protegidas, como raça, etnia, origem e afiliação religiosa, e ataques contra conceitos ou instituições, que geralmente são permitidos. O conteúdo que ataca conceitos ou instituições poderá ser removido se for considerado “suscetível em contribuir para danos físicos iminentes, intimidação ou discriminação” contra pessoas associadas à característica protegida relevante. Os ataques proibidos sob a política Discurso de Ódio incluem “discurso desumano sob a forma de comparações ou generalizações sobre” criminosos, tais como predadores sexuais, terroristas, assassinos, membros de organizações criminosas ou de ódio, ladrões e assaltantes de bancos. Nos casos em análise, a Meta removeu todas as três postagens por “direcionar pessoas com acusações criminais com base na nacionalidade”.

Quando a Meta encaminhou esses casos ao Comitê, afirmou que eles representavam um desafio específico sobre como lidar com alegações criminais direcionadas a pessoas com base em sua nacionalidade, dentro do escopo da política de discurso de ódio. A Meta comunicou ao Comitê que, embora a empresa considere que essa linha política alcança o equilíbrio adequado entre liberdade de expressão e segurança na maioria dos casos, existem situações, especialmente em tempos de crise e conflito, “em que alegações criminais direcionadas a pessoas de uma determinada nacionalidade podem ser interpretadas como ataques às políticas de uma nação, seu governo ou suas forças armadas, e não ao seu povo”.

O Comitê selecionou estes casos para considerar como a Meta deveria moderar as alegações de criminalidade com base na nacionalidade. Estes casos enquadram-se nas prioridades estratégicas do Comitê de Situações de Crise e Conflito e Discurso de Ódio contra grupos marginalizados.

O Comitê gostaria de comentários públicos que abordassem:

  • O impacto das políticas de discurso de ódio das plataformas de redes sociais, especialmente da Meta, na capacidade dos usuários de se manifestarem contra as ações dos Estados, particularmente em situações de crise e conflito.
  • O impacto de conteúdos que alegam criminalidade com base na nacionalidade de uma pessoa, incluindo membros de grupos marginalizados, como minorias nacionais, étnicas e/ou religiosas, migrantes, é particularmente significativo em situações de crise e conflito.
  • As responsabilidades da Meta em matéria de direitos humanos em relação ao conteúdo, incluindo alegações de criminalidade com base na nacionalidade, dada a abordagem da empresa de distinguir entre ataques contra conceitos, geralmente aceitáveis, e ataques contra pessoas com base em características protegidas, não permitidos.
  • Insights sobre os possíveis critérios para determinar se um usuário está direcionando um conceito ou instituição (como um estado ou exército) ou um grupo de pessoas com base em sua nacionalidade.

Como parte de suas decisões, o Comitê pode emitir recomendações de políticas para a Meta. Enquanto as recomendações não forem obrigatórias, a Meta deverá respondê-las em 60 dias. Como tal, o Comitê está aberto a comentários públicos que proponham recomendações que sejam relevantes para os casos mencionados.

Comentários públicos

Se você ou sua organização acharem que podem contribuir com pontos de vista pertinentes que possam auxiliar na tomada de decisão em relação aos casos mencionados hoje, use o botão abaixo para enviar a sua contribuição. Lembre-se de que comentários públicos podem ser fornecidos de maneira anônima. O envio de comentários públicos ficará disponível por 14 dias, encerrando às 23h59, horário local, em 4 de junho, terça-feira.

Próximos passos

Nas próximas semanas, os Membros do Comitê deliberarão sobre esses casos. Assim que chegarem a uma decisão, faremos a publicação na página Decisões.

Voltar às Notícias