Decisão de múltiplos casos

Charges sobre protestos em faculdades

Nessas duas decisões sumárias, o Comitê analisou duas publicações que continham charges sobre protestos em faculdades.

2 casos incluídos neste pacote

Anulado

FB-TO38JZ4O

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Política,Protestos
Padrão
Indivíduos e organizações perigosos
Localização
Estados Unidos
Date
Publicado em 12 de Setembro de 2024
Anulado

FB-0F4BU4NY

Caso sobre organizações e indivíduos perigosos no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Política,Protestos
Padrão
Indivíduos e organizações perigosos
Localização
Estados Unidos
Date
Publicado em 12 de Setembro de 2024

As decisões sumárias examinam casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa e incluem informações sobre os erros reconhecidos por ela. Elas são aprovadas por um painel de membros do Comitê, e não por ele inteiro, não envolvem comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias geram mudanças diretas nas decisões da Meta, proporcionando transparência nessas correções e identificando em que área a empresa poderia melhorar seu monitoramento.

Resumo

Nessas duas decisões sumárias, o Comitê analisou duas publicações que continham charges sobre protestos em faculdades. A Meta removeu as duas publicações na análise inicial. No entanto, após o Comitê levar esses casos à atenção da Meta para uma análise adicional, a empresa reverteu suas decisões originais e restaurou ambas as publicações.

Sobre os casos

No primeiro caso, em maio de 2024, um usuário do Facebook publicou uma charge retratando duas pessoas. A primeira está usando uma faixa na cabeça com a palavra “Hamas” escrita e segurando uma arma. Ela está dizendo que matará judeus até que Israel seja “wiped off the map” (varrido do mapa). A segunda pessoa está vestida com uma camiseta com a palavra “college” (faculdade). Essa pessoa está segurando um livro e dizendo: “It’s obvious they just want to live in peace.” (É óbvio que eles só querem viver em paz). No segundo caso, em abril de 2024, um usuário do Facebook publicou uma charge que mostrava uma refeição em família. A figura do filho se parece com Adolf Hitler e usa uma camiseta com a frase “I [heart] Hamas.” (Eu [coração] Hamas). A figura paterna demonstra preocupação com o fato de a faculdade ter mudado seu filho. Ambos os usuários publicaram o conteúdo no contexto dos protestos relacionados ao conflito entre Israel e Gaza, que estão ocorrendo em universidades dos Estados Unidos.

A Meta originalmente removeu as duas publicações do Facebook de acordo com sua Política sobre Organizações e Indivíduos Perigosos. De acordo com essa política, a empresa remove “Glorificação”, “Apoio” e “Representação” de entidades designadas, seus líderes, fundadores ou membros notáveis, e referências pouco claras a eles.

Em suas apelações ao Comitê, ambos os usuários afirmaram que publicaram uma charge política que seguia os Padrões da Comunidade da Meta. Depois que o Comitê levou esses dois casos à atenção da Meta, a empresa determinou que as publicações não violavam suas políticas e restaurou ambos os itens de conteúdo na sua plataforma.

Autoridade e escopo do Comitê

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo, reduzir erros e aumentar a justiça para os usuários do Facebook, do Instagram e do Threads.

Significância dos casos

Esses casos destacam erros na aplicação de uma exceção à Política sobre Organizações e Indivíduos Perigosos da Meta que permite conteúdo que “relate, discuta de forma neutra ou condene organizações e indivíduos perigosos e suas atividades”, a fim de salvaguardar um espaço para “discurso social e político”.

O Comitê emitiu várias recomendações para aumentar a transparência em relação à aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta e suas exceções. Ele também emitiu recomendações para abordar os desafios de monitoramento associados a essa política. Isso inclui uma recomendação para “avaliar a precisão dos analistas que aplicam a permissão para ‘divulgação de informações’ de acordo com a Política sobre Organizações e Indivíduos Perigosos, a fim de identificar questões sistêmicas que causam erros de aplicação”. Embora a Meta tenha relatado a implementação dessa recomendação, ela não publicou informações para demonstrar isso ( Menção ao Talibã em reportagens, recomendação n.º 5).

O Comitê também recomendou que a Meta “adicione critérios e exemplos ilustrativos à Política sobre Organizações e Indivíduos Perigosos da Meta para aumentar a compreensão das exceções, especificamente em torno de discussões neutras e reportagens”, uma recomendação para a qual a Meta demonstrou implementação por meio de informações publicadas ( Publicação compartilhada da Al Jazeera, recomendação n.º 1). Além disso, em um parecer consultivo sobre política, o Comitê pediu à Meta que “explicasse os métodos que usa para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Organizações e Indivíduos Perigosos” (referindo-se a Indivíduos Perigosos Designados como “Shaheed”, recomendação n.º 6). A Meta reformulou essa recomendação. A empresa compartilhou informações sobre as auditorias que realiza para avaliar a precisão de suas decisões de moderação de conteúdo e como essas auditorias orientam as áreas para melhoria. A Meta, no entanto, não explicou os métodos que utiliza para realizar essas avaliações, nem se comprometeu a compartilhar os resultados delas.

Além disso, o Comitê emitiu uma recomendação sobre o monitoramento de conteúdo satírico pela Meta. Isso inclui uma recomendação para que a empresa “confirme se possui procedimentos adequados em vigor para avaliar o conteúdo satírico e o contexto relevante de forma adequada”. Isso inclui fornecer aos moderadores de conteúdo: (i) acesso às equipes de operação local do Facebook para coletar informações culturais e históricas relevantes e (ii) tempo suficiente para consultar as equipes de operação local do Facebook e fazer a avaliação. A [Meta] deve garantir que suas políticas para moderadores de conteúdo incentivem mais investigação ou encaminhamento quando um moderador de conteúdo não tiver certeza se um meme é satírico ou não”, uma recomendação cuja implementação a Meta relatou, mas não publicou informações para demonstrá-la ( Decisão do caso Meme dos dois botões, recomendação n.º 3). O Comitê também recomendou que a empresa incluísse a exceção de sátira em linguagem acessível dos Padrões da Comunidade sobre Discurso de Ódio, uma recomendação para a qual a Meta demonstrou a implementação por meio de informações publicadas, ( Decisão do caso Meme dos dois botões, recomendação n.º 2).

Decisão

O Comitê revoga as decisões originais da Meta de remover os dois itens de conteúdo. Além disso, após levar esses casos ao conhecimento da empresa, reconhece que ela corrigiu os erros iniciais.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas