Decisão de múltiplos casos

Alegações criminais com base em nacionalidade

O Comitê analisou três casos em conjunto, todos contendo alegações criminais feitas contra pessoas com base em nacionalidade. Ao anular uma das decisões da Meta de remover uma publicação do Facebook, o Comitê considerou como esses casos levantam a questão mais ampla sobre como distinguir conteúdo que critica ações e políticas estatais de ataques contra pessoas com base em sua nacionalidade.

3 casos incluídos neste pacote

Anulado

FB-25DJFZ74

Caso sobre discurso de ódio no Facebook

Plataforma
Facebook
विषय
Liberdade de expressão,Guerra e conflitos
Padrão
Discurso de ódio
Localização
Rússia,Estados Unidos
Date
Publicado em 25 de Setembro de 2024
Mantido

IG-GNKFXL0Q

Caso sobre discurso de ódio no Instagram

Plataforma
Instagram
विषय
Liberdade de expressão,Guerra e conflitos
Padrão
Discurso de ódio
Localização
Índia,Paquistão
Date
Publicado em 25 de Setembro de 2024
Mantido

TH-ZP4W1QA6

Case about hate speech on Threads

Plataforma
Threads
विषय
Liberdade de expressão,Guerra e conflitos
Padrão
Discurso de ódio
Localização
Israel
Date
Publicado em 25 de Setembro de 2024

Resumo

O Comitê analisou três casos em conjunto, todos contendo alegações criminais feitas contra pessoas com base em nacionalidade. Ao anular uma das decisões da Meta de remover uma publicação do Facebook, o Comitê considerou como esses casos levantam a questão mais ampla sobre como distinguir conteúdo que critica ações e políticas estatais de ataques contra pessoas com base em sua nacionalidade. Ao fazer recomendações para alterar a Política sobre Discurso de Ódio da Meta e abordar os desafios de aplicação, o Comitê optou por uma abordagem diversificada, que se aplica à moderação em escala, com proteções para evitar consequências negativas. Como parte da regra relevante sobre discurso de ódio, a Meta deve desenvolver uma exceção para subcategorias mais restritas que usam sinais objetivos, a fim de determinar se o alvo desse conteúdo é um Estado ou suas políticas, ou um grupo de pessoas.

Sobre os casos

No primeiro caso, uma publicação do Facebook descreveu russos e americanos como “criminals” (criminosos). O usuário chama os americanos de mais “honorable” (honrados) porque admitem seus crimes em comparação aos russos, que “want to benefit from the crimes” (querem se beneficiar dos crimes) dos americanos. Essa publicação foi enviada para análise humana pelos sistemas automatizados da Meta, mas a denúncia foi encerrada automaticamente. Sendo assim, o conteúdo permaneceu no Facebook. Três meses depois, quando a Meta selecionou esse caso para ser encaminhado ao Comitê, os especialistas em política da Meta decidiram que a publicação violava os Padrões da Comunidade sobre Discurso de Ódio e a removeram. Embora o usuário tenha feito uma apelação, a Meta decidiu que a remoção do conteúdo foi correta após uma análise humana mais aprofundada.

No segundo caso, um usuário respondeu a um comentário feito em uma publicação do Threads. A publicação era um vídeo sobre o conflito entre Israel e Gaza e incluía o seguinte comentário: “genocide of terror tunnels?” (genocídio de túneis terroristas?). A resposta do usuário declarou: “Genocide … all Israelis are criminals.” (Genocídio… todos os israelenses são criminosos.). Esse conteúdo foi enviado para análise humana pelos sistemas automatizados da Meta e depois removido por infringir as regras de discurso de ódio.

O terceiro caso diz respeito ao comentário de um usuário em uma publicação do Instagram na qual ele descreveu “all Indians” (todos os indianos) como “rapists” (estupradores). A publicação original do Instagram mostra um vídeo em que uma mulher está cercada por homens que parecem estar olhando para ela. A Meta removeu o comentário de acordo com suas regras sobre discurso de ódio.

Todos os três casos foram encaminhados ao Comitê por ela. Os desafios de lidar com alegações criminais direcionadas a pessoas com base em nacionalidade são particularmente relevantes durante crises e conflitos, quando elas “podem ser interpretadas como um ataque às políticas de uma nação, ao seu governo ou às suas forças armadas, em vez de ao seu povo”, de acordo com a empresa.

Principais conclusões

O Comitê conclui que a Meta errou ao remover a publicação do Facebook no primeiro caso, que menciona russos e americanos, porque há sinais indicando que o conteúdo tem como alvo países, e não cidadãos. A empresa não permite “discurso desumanizante direcionado a uma pessoa ou um grupo de pessoas” com base em nacionalidade, comparando-os a “criminosos”, de acordo com suas regras sobre discurso de ódio. No entanto, as referências dessa publicação a crimes cometidos por russos e americanos provavelmente têm como alvo os respectivos Estados ou suas políticas, uma conclusão confirmada por um relatório especializado encomendado pelo Comitê.

No segundo e terceiro casos, a maioria do Comitê concorda com a análise da Meta de que o conteúdo violou as regras, pois direcionou o discurso a pessoas com base em nacionalidade, com as referências a “all Israelis” (todos os israelenses) e “all Indians” (todos os indianos), indicando que as pessoas são o alvo. Não há indícios contextuais de que as ações do Estado israelense ou as políticas do governo indiano, respectivamente, estivessem sendo criticadas no conteúdo. Portanto, o conteúdo deveria ter sido removido em ambos os casos. No entanto, uma minoria do Comitê discorda, observando que a remoção de conteúdo nesses casos não foi o meio menos intrusivo disponível para a Meta lidar com os danos potenciais. Esses membros do Comitê observam que a Meta não satisfez os princípios de necessidade e proporcionalidade ao remover o conteúdo.

Sobre a questão mais ampla das alterações nas políticas, o Comitê acredita que uma abordagem diversificada e escalável é necessária para proteger o discurso político relevante sem aumentar o risco de danos contra grupos-alvo. Primeiro, a Meta deve encontrar sinais específicos e objetivos que reduzam tanto as remoções indevidas quanto o conteúdo prejudicial deixado ativo.

Sem fornecer uma lista exaustiva de sinais, o Comitê determina que a Meta deve permitir alegações criminais quando direcionadas a um grupo específico que provavelmente servirá como um representante do Estado, como policiais, militares, forças armadas, soldados, governo e outros servidores públicos. Outro sinal objetivo estaria relacionado à natureza do crime alegado, como crimes de atrocidade ou graves violações de direitos humanos, que podem ser mais tipicamente associados a Estados. Isso significaria que publicações em que determinados tipos de crimes são vinculados à nacionalidade seriam tratadas como discurso político que critica ações estatais e permaneceriam na plataforma.

Além disso, a Meta poderia considerar sinais linguísticos que pudessem distinguir declarações políticas de ataques contra pessoas com base em nacionalidade. Embora essas distinções variem entre os idiomas, tornando o contexto das publicações ainda mais crítico, o Comitê sugere que a presença ou ausência do artigo definido pode ser um sinal disso. Por exemplo, palavras como “all” (todos), “all Americans commit crimes” (todos os americanos cometem crimes) ou “the” ([os] americanos cometem crimes) podem indicar que o usuário faz uma generalização sobre um grupo inteiro de pessoas, em vez de se referir a seu Estado-nação.

Ter uma abordagem política diversificada apresentará desafios de aplicação, como a Meta destacou e o Comitê reconhece. Ele observa que a Meta poderia criar listas de indivíduos e crimes com grande probabilidade de fazer referência a políticas ou agentes estatais. Uma dessas listas poderia incluir policiais, militares, forças armadas, soldados, governo e outros servidores públicos. No caso de fotos e vídeos, os analistas podem procurar indícios visuais no conteúdo, como pessoas vestindo uniforme militar. Quando esse indício é combinado com uma generalização sobre criminalidade, isso pode indicar que o usuário se refere a ações ou agentes estatais, em vez de comparar pessoas a criminosos.

O Comitê pede que a Meta busque medidas de monitoramento voltadas à conscientização e ao empoderamento dos usuários ao limitar a liberdade de expressão. Em resposta a uma das recomendações anteriores do Comitê, a Meta já se comprometeu a enviar notificações aos usuários sobre possíveis violações dos Padrões da Comunidade. O Comitê considera essa implementação um passo importante para a conscientização e o empoderamento dos usuários nas plataformas da Meta.

Decisão do Comitê de Supervisão

O Comitê de Supervisão anula a decisão da Meta de remover o conteúdo no primeiro caso, exigindo que a publicação seja restaurada. Em relação ao segundo e terceiro casos, o Comitê mantém as decisões da Meta de remover o conteúdo.

Ele recomenda que a Meta:

  • Altere os Padrões da Comunidade sobre Discurso de Ódio, especificamente a regra que não permite “discurso desumanizante na forma de comparações ou generalizações sobre criminosos” direcionado a pessoas com base em nacionalidade, para incluir uma exceção nos seguintes termos: “Exceto quando os indivíduos (por exemplo, policiais, militares, forças armadas, soldados, governo, servidores públicos) e/ou crimes (por exemplo, crimes de atrocidade ou graves violações de direitos humanos, como aqueles especificados no Estatuto de Roma do Tribunal Penal Internacional) implicam uma referência a um Estado, e não a pessoas com base em nacionalidade.”
  • Publique os resultados das auditorias internas que realiza para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Discurso de Ódio. Os resultados devem ser fornecidos de uma forma que permita que essas avaliações sejam comparadas entre idiomas e/ou regiões.

*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.

Decisão completa sobre o caso

1. Descrição do caso e histórico

Esses casos dizem respeito a três decisões de conteúdo tomadas pela Meta, uma no Facebook, uma no Threads e uma no Instagram. A Meta encaminhou os três casos ao Comitê.

O primeiro caso envolve uma publicação do Facebook em árabe, de dezembro de 2023, que afirma que tanto russos quanto americanos são “criminals” (criminosos). O conteúdo também afirma que “Americans are more honorable” (os americanos são mais honrados) porque “admit their crimes” (admitem seus crimes), enquanto os russos “want to benefit from the crimes” (querem se beneficiar dos crimes) dos americanos. Depois que uma das ferramentas de classificação automática da Meta (um classificador de discurso hostil) identificou o conteúdo como potencialmente violador, a publicação foi enviada para análise humana. No entanto, ela foi encerrada automaticamente. Desse modo, o conteúdo não foi analisado e permaneceu no Facebook. Em março de 2024, quando a Meta selecionou esse conteúdo para encaminhamento ao Comitê, os especialistas em política da empresa determinaram que a publicação violava os Padrões da Comunidade sobre Discurso de Ódio. Em seguida, ela foi removida do Facebook. O usuário que publicou o conteúdo fez uma apelação dessa decisão à Meta. Após outra etapa de análise humana, a empresa decidiu que a remoção do conteúdo nesse caso estava correta.

O segundo caso é sobre a resposta de um usuário em inglês a um comentário feito em uma publicação do Threads de janeiro de 2024. A publicação era um vídeo que discutia o conflito entre Israel e Gaza, com um comentário que indicava o “genocide of terror tunnels” (genocídio de túneis de terror) com um ponto de interrogação. A resposta dizia “genocide” (genocídio) e afirmava que “all Israelis are criminals” (todos os israelenses são criminosos). As ferramentas de classificação automática da Meta (um classificador de discurso hostil) identificaram o conteúdo como potencialmente violador. Após análise humana, a Meta removeu a resposta ao comentário por infringir seus Padrões da Comunidade sobre Discurso de Ódio. Os especialistas em política da Meta também determinaram que a decisão original de remover o conteúdo estava correta, depois que a empresa identificou esse caso como um caso a ser encaminhado ao Comitê.

O terceiro caso diz respeito ao comentário de um usuário em inglês em uma publicação do Instagram de março de 2024, afirmando que “as a Pakistani” (como um paquistanês) “all Indians are rapists” (todos os indianos são estupradores). O comentário foi em resposta a um vídeo de uma mulher cercada por um grupo de homens que parecem estar olhando para ela. A Meta removeu o comentário depois que uma de suas ferramentas de classificação automática (um classificador de discurso hostil) identificou o comentário como potencialmente violador dos Padrões da Comunidade sobre Discurso de Ódio. Depois que a Meta selecionou esse conteúdo para encaminhar ao Comitê, os especialistas em política da empresa determinaram que a decisão original de remover o conteúdo estava correta.

Em nenhum dos três casos os usuários fizeram apelações das decisões da Meta ao Comitê, mas a Meta encaminhou todos os três.

De acordo com relatórios de especialistas encomendados pelo Comitê, “acusações de comportamento criminoso contra nações, entidades estatais e indivíduos são predominantes nas plataformas da Meta e no discurso público em geral”. Atitudes negativas em relação à Rússia nas redes sociais aumentaram desde a invasão russa na Ucrânia em fevereiro de 2022. De acordo com especialistas, cidadãos russos são frequentemente acusados ​​nas redes sociais de apoiar as políticas das autoridades do país, incluindo os atos de agressão da Rússia à Ucrânia. Os cidadãos russos, no entanto, são acusados com menos frequência ​​de serem “criminosos”, uma palavra usada com mais frequência em referência à liderança política da Rússia e aos soldados do exército do país. De acordo com especialistas linguísticos consultados pelo Comitê, a tradução em árabe de “Americans” (americanos) e “Russians” (russos) no primeiro caso poderia ser usada para expressar ressentimento em relação às políticas, aos governos e aos políticos americanos e russos, respectivamente, e não contra o próprio povo.

Especialistas também relatam que as menções a Israel e aos israelenses em relação ao genocídio aumentaram nas plataformas da Meta desde o início das operações militares do país em Gaza, que se seguiram ao ataque terrorista do Hamas a Israel em outubro de 2023. O discurso em relação às acusações de ações genocidas se intensificou, principalmente após a ordem de 26 de janeiro de 2024 do Tribunal Internacional de Justiça (CIJ), na qual o CIJ ordenou medidas provisórias contra Israel conforme a Convenção para a Prevenção e a Repressão do Crime de Genocídio no caso África do Sul vs. Israel. Desde sua adoção, essa ordem tem sido alvo de críticas e apoio. Especialistas também argumentam que acusações contra o governo israelense “muitas vezes se tornam a base para discurso de ódio e incitação antissemita”, já que todos os judeus, independentemente da cidadania, são frequentemente “associados a Israel na opinião pública”.

Por fim, os especialistas também explicaram que generalizações sobre os indianos relacionadas a estupro são raras nas redes sociais. Embora a caracterização de “Indians as rapists” (indianos são estupradores) tenha surgido ocasionalmente no contexto de alegada violência sexual por parte das forças de segurança indianas em áreas de conflito, isso raramente se refere a “all Indians” (todos os indianos). A maior parte da documentação acadêmica, jornalística e relacionada aos direitos humanos sobre esses incidentes denuncia claramente os abusos cometidos pelo exército e não se refere a um conjunto maior da população.

2. Envios de usuários

Os autores das publicações foram notificados da análise do Comitê e tiveram a oportunidade de enviar uma declaração. Nenhum dos usuários enviou uma declaração.

3. Políticas de conteúdo e envios da Meta

I. Políticas de conteúdo da Meta

O fundamento da Política sobre Discurso de Ódio da Meta define o discurso de ódio como um ataque direto contra pessoas, em vez de conceitos ou instituições, com base em características protegidas, incluindo nacionalidade, raça e etnia. A Meta não permite discurso de ódio em sua plataforma por “criar um ambiente de intimidação e de exclusão que, em alguns casos, pode promover violência no meio físico”.

O Nível 1 da Política sobre Discurso de Ódio proíbe “discurso ou imagens desumanizantes na forma de comparações, generalizações ou declarações comportamentais sem ressalvas (em formato escrito ou visual)” sobre “criminosos”.

As diretrizes internas da Meta para analistas de conteúdo sobre como aplicar a política definem generalizações como “afirmações sobre as qualidades inerentes das pessoas”. Além disso, as diretrizes internas da empresa definem afirmações comportamentais “com ressalvas” e “sem ressalvas” e fornecem exemplos. De acordo com elas, as “afirmações com ressalvas” não violam a política, enquanto as “afirmações sem ressalvas” a violam e são removidas. A empresa permite que as pessoas publiquem conteúdo com declarações comportamentais com ressalvas que podem incluir eventos históricos, criminais ou de conflito específicos. De acordo com a empresa, as afirmações comportamentais sem ressalvas “atribuem explicitamente um comportamento a todas ou à maioria das pessoas definidas por uma característica protegida”.

II. Envios da Meta

A Meta removeu todas as três publicações por “direcionarem a pessoas alegações criminais com base em nacionalidade”, visto que continham generalizações sobre as qualidades inerentes de um grupo, em vez de se referirem a suas ações. Ela observou que as declarações não se limitam explicitamente aos envolvidos na suposta atividade criminosa e não contêm contexto adicional para indicar que as declarações estão vinculadas a um conflito ou evento criminoso específico.

Quando a Meta encaminhou esses casos ao Comitê, ele declarou que eles representam um desafio sobre como lidar com alegações criminais direcionadas a pessoas com base em sua nacionalidade, de acordo com a Política sobre Discurso de Ódio. Ela disse ao Comitê que, embora a empresa acredite que a política “estabeleça o equilíbrio certo entre voz e segurança na maioria das circunstâncias”, há situações, particularmente em tempos de crise e conflito, “em que alegações criminais direcionadas a pessoas de uma determinada nacionalidade podem ser interpretadas como um ataque às políticas de uma nação, ao seu governo ou às suas forças armadas, e não ao seu povo”.

Embora esses casos não constituam uma solicitação de parecer consultivo sobre política, a Meta apresentou abordagens de políticas alternativas para a consideração do Comitê. O intuito é que ele avaliasse se a empresa deveria alterar sua abordagem atual de remover alegações criminais contra pessoas com base em nacionalidade e como isso deveria ser feito, permitindo críticas a Estados por supostas atividades criminosas. Em resposta às perguntas do Comitê, a Meta declarou que a empresa não realizou novos contatos com as partes interessadas para elaborar alternativas de políticas para esses casos, mas, em vez disso, considerou ampla contribuição delas recebida como parte de outros processos de elaboração de políticas. Ficou claro para a Meta que ataques caracterizando membros de Estados-nação como “criminosos de guerra” poderiam estar causando uma over-enforcement (aplicação excessiva) e limitando o discurso político legítimo, uma vez que tende a haver uma ligação entre esse tipo de ataque e ações tomadas pelos Estados.

Na primeira alternativa, a Meta previu a introdução de um modelo apenas de escalation para distinguir ataques baseados em nacionalidade de ataques direcionados a um conceito. Isso exigiria a identificação de fatores para ajudar nessa determinação, por exemplo, se um país específico está envolvido em uma guerra ou crise ou se o conteúdo faz referência ao país ou às suas forças armadas, além da referência ao seu povo. Em outras palavras, se os sistemas automatizados identificarem a publicação em possível violação, ela será removida, a menos que, após encaminhamento para os especialistas no assunto da Meta, eles concluam o contrário. A Meta acrescentou que, se esse tipo de modelo for adotado, a empresa provavelmente o usará como pano de fundo para os conceitos existentes versus a política de apenas escalation de pessoas conforme a Política sobre Discurso de Ódio. Isso significa que a Meta “não permitiria conteúdo, mesmo que determinasse que o conteúdo estava de fato sendo direcionado a uma nação, e não a pessoas, se de outra forma fosse removido, de acordo com o modelo de conceitos versus pessoas”. Conforme os conceitos existentes versus a política de apenas escalation de pessoas, a Meta remove “conteúdo que ataca conceitos, instituições, ideias, práticas ou crenças associadas a características protegidas, que provavelmente contribuem para danos físicos iminentes, intimidação ou discriminação”.

A Meta observou que esse novo modelo permitiria que a empresa considerasse mais indícios contextuais, mas provavelmente seria aplicado raramente e apenas em escalation. Além disso, “como as políticas de apenas escalation são aplicadas somente ao conteúdo escalonado para as equipes especializadas da Meta, elas podem ser percebidas como injustas para pessoas que não têm acesso a essas equipes e cujo conteúdo é analisado em escala”.

Na segunda alternativa, a Meta apresentou uma série de subopções para lidar com o risco de over-enforcement em escala. Diferentemente da primeira alternativa, isso não exigiria contexto adicional para que o conteúdo fosse considerado para avaliação e seria aplicado em escala. As subopções incluem:

(a) Permitir todas as comparações criminais com base em nacionalidade. A Meta observou que essa opção resultaria em under-enforcement (aplicação insuficiente) ao manter algumas comparações criminosas que atacam pessoas com base em sua nacionalidade, sem nenhuma conexão clara com discurso político.

(b) Permitir todas as comparações criminais com subconjuntos específicos de nacionalidades. A Meta afirmou que uma exceção específica poderia ser considerada para subconjuntos de nacionalidades com probabilidade de representar o governo ou a política nacional (por exemplo, “soldados russos”, “polícia americana” ou “representantes do governo polonês”), com base na suposição de que esses subconjuntos têm maior probabilidade de representar o governo ou a política nacional.

(c) Distinguir diferentes tipos de alegações criminais. A Meta observou que referências a alguns tipos de crimes podem estar mais frequentemente vinculadas a Estados ou instituições ou parecer mais políticas do que outras.

O Comitê fez perguntas à Meta sobre a viabilidade operacional e as compensações envolvidas nas medidas de políticas alternativas propostas, assim como a interação entre as políticas existentes e o que foi proposto. A Meta respondeu a todas as perguntas.

4. Comentários públicos

O Comitê de Supervisão recebeu 14 comentários públicos que atenderam aos termos para envio. Entre os comentários, sete eram dos Estados Unidos e do Canadá, seis da Europa e um da Ásia-Pacífico e Oceania. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.

Os envios abrangeram os seguintes temas: as implicações das alegações de crime contra uma nação inteira em tempos de conflito, os Padrões da Comunidade sobre Discurso de Ódio da Meta e as responsabilidades da empresa com os direitos humanos em situações de conflito.

5. Análise do Comitê de Supervisão

O Comitê aceitou esses casos de encaminhamento para considerar como a Meta deveria moderar alegações de crime com base em nacionalidade, particularmente como a empresa deveria distinguir ataques contra pessoas com base em nacionalidade de referências a ações e agentes estatais durante conflitos e crises. Esses casos se enquadram nas prioridades estratégicas do Comitê de situações de crise e conflito e discurso de ódio contra grupos marginalizados.

O Comitê examinou as decisões da Meta nesses casos analisando suas políticas de conteúdo, seus valores e as responsabilidades da empresa com os direitos humanos. Ele também avaliou como a Meta deveria distinguir discurso que atribui crime a indivíduos como membros de uma nacionalidade de discurso que atribui crime a Estados. Essa distinção é adequada como uma questão de princípio, mas sua implementação é desafiadora, principalmente se for em escala.

5.1 Conformidade com as políticas de conteúdo da Meta

I. Regras sobre conteúdo

O Comitê conclui que os itens de conteúdo do segundo e terceiro casos violam a Política sobre Discurso de Ódio da Meta. Ele acredita, no entanto, que a decisão da Meta de remover o conteúdo no primeiro caso foi incorreta, uma vez que há sinais de que a publicação do Facebook tem como alvo países, e não seus cidadãos.

Após analisar a Política sobre Discurso de Ódio da Meta, o Comitê recomenda que a empresa reduza a dependência de regras padrão amplas e, em vez disso, desenvolva subcategorias mais restritas que usem sinais objetivos para minimizar falsos positivos e negativos em um nível escalável. Por exemplo, a empresa deve permitir alegações criminais contra grupos específicos que provavelmente atuarão como representantes de Estados, governos e/ou suas políticas, como policiais, militares, forças armadas, soldados, governo e outros servidores públicos. A empresa também deve permitir comparações que mencionem crimes mais tipicamente associados a agentes estatais e organizações perigosas, conforme definido pela Política sobre Organizações e Indivíduos Perigosos da Meta, particularmente crimes de atrocidade ou graves violações de direitos humanos, como aqueles especificados no Estatuto de Roma do Tribunal Penal Internacional.

Casos individuais

O Comitê conclui que a publicação no primeiro caso não violou a proibição contra “discurso desumanizante direcionado a uma pessoa ou um grupo de pessoas” com base em nacionalidade “com comparações, generalizações ou declarações comportamentais sem ressalvas sobre ... criminosos”, de acordo com os Padrões da Comunidade sobre Discurso de Ódio da Meta. Um relatório especializado encomendado pelo Comitê indicou que as referências a crimes cometidos por “Russians” (russos) e “Americans” (americanos) são mais plausivelmente lidas como tendo como alvo os respectivos Estados ou suas políticas, não as pessoas desses países. Além disso, a publicação compara russos com americanos. Dado o papel que a Rússia e os Estados Unidos desempenham nas relações internacionais e na política, a comparação indica que o usuário estava se referindo aos respectivos países, e não às pessoas. O Comitê conclui que a publicação no primeiro caso tem como alvo Estados ou suas políticas e, portanto, não contém discurso desumanizante contra pessoas com base em nacionalidade na forma de uma generalização sobre criminosos. Portanto, ela deve ser restaurada.

Ele concorda com a alegação da Meta de que o conteúdo do segundo e terceiro casos violou os Padrões da Comunidade sobre Discurso de Ódio da Meta, pois essas publicações contêm generalizações sobre “criminosos”, que têm como alvo pessoas com base em nacionalidade. As referências a “all Israelis” (todos os israelenses) e “all Indians” (todos os indianos) são direcionadas, de forma mais plausível, aos israelenses e indianos, e não às respectivas nações ou aos governos. Além disso, nenhuma das publicações contém contexto suficiente para concluir que se refere a um ato ou evento criminoso específico.

Embora o conteúdo do segundo caso tenha sido publicado em resposta à publicação de outro usuário do Threads contendo um vídeo que discute o conflito entre Israel e Gaza, a palavra “all” (todos) em referência aos israelenses é uma forte indicação de que é uma menção ao povo como um todo, e não apenas ao governo. Além disso, embora o conteúdo também inclua uma referência a “genocide” (genocídio), não há sinais contextuais que indicam de forma inequívoca que o usuário pretendia se referir às ações ou políticas do Estado de Israel, em vez de fazer referência aos israelenses com base em sua nacionalidade. Da mesma forma, esse contexto não está presente no terceiro caso: o fato de o usuário estar comentando em um vídeo do Instagram em que homens olham para uma figura feminina indica que o usuário provavelmente está se referindo a pessoas. Os homens no vídeo não têm nenhuma conexão aparente com o governo indiano. Além disso, não há nenhuma indicação de que o usuário estava criticando as políticas ou ações do governo indiano sobre estupro. Na ausência de referências inequívocas que sirvam como críticas aos Estados, o Comitê conclui que a remoção do conteúdo no segundo e terceiro casos foi justificada pela Política sobre Discurso de Ódio da Meta.

Questões mais amplas

Voltando-se para as questões mais amplas levantadas pelos três casos, o Comitê reconhece os desafios em distinguir conteúdo que critica ações e políticas estatais de ataques contra pessoas com base em nacionalidade, principalmente durante crises e conflitos. Assim, o Comitê acredita que a Meta deve implementar alterações diversificadas nas políticas, que resultem na proteção de discursos políticos relevantes e que sejam deixados nas plataformas da Meta, sem aumentar o risco de danos contra grupos-alvo. No entendimento dele, isso requer uma abordagem escalável, com proteções para evitar consequências adversas de longo alcance.

O Comitê recomenda que a Meta encontre sinais específicos e objetivamente verificáveis ​​que reduzam falsos positivos e negativos em subgrupos importantes de casos. Por exemplo, sem pretender fornecer uma lista exaustiva desses sinais, o Comitê considera que alegações de crime com base em nacionalidade devem ser geralmente permitidas quando forem direcionadas a um grupo específico que provavelmente atuará como representantes dos Estados, como soldados, militares, forças armadas, policiais, governo ou outros servidores públicos.

Outro sinal objetivo diz respeito à natureza do crime alegado na publicação contestada. Alguns crimes, particularmente crimes de atrocidade ou graves violações de direitos humanos, como aqueles especificados no Estatuto de Roma do Tribunal Penal Internacional, são normalmente associados a agentes estatais e organizações perigosas, enquanto outros crimes são cometidos quase exclusivamente por pessoas físicas. Assim, publicações que atribuem o primeiro tipo de crime a uma nacionalidade, quando seguidas de referências a ações ou políticas estatais, devem ser tratadas como discurso político que critica a conduta estatal e mantidas na plataforma, enquanto as últimas geralmente devem ser removidas.

Além disso, determinados sinais linguísticos podem ter uma função semelhante de distinguir declarações políticas de discurso de ódio. Embora reconheça que as inferências desses sinais possam variar de um idioma para outro, o Comitê sugere que a presença ou ausência de um artigo definido provavelmente é significativa. Dizer que “the Americans” (os americanos) cometem crimes não é o mesmo que dizer que “Americans” (americanos) cometem crimes, pois o uso do artigo definido pode sinalizar uma referência a um grupo ou local específico. Da mesma forma, palavras como “all” (todos) são sinais fortes de que a pessoa está fazendo generalizações sobre um grupo inteiro de indivíduos, e não sobre seu Estado-nação. Essas distinções podem variar entre os idiomas, tornando as interpretações contextuais ainda mais críticas.

Ao mesmo tempo, o Comitê considera que elaborar um modelo que estaria disponível apenas para os especialistas em políticas da Meta (uma regra de “apenas escalation”), em vez de para analistas de conteúdo em escala, é uma solução inadequada. No caso Vídeo deprisioneiro das Forças de Apoio Rápido do Sudão, o Comitê constatou que os analistas humanos da Meta que realizam moderação em escala “não são instruídos ou autorizados a identificar conteúdo que viola as regras de apenas escalation da empresa”. Da mesma forma, nesse caso, a Meta informou ao Comitê que as regras de “apenas escalation” só podem ser aplicadas se o conteúdo for levado ao conhecimento das equipes de apenas escalation da empresa, por exemplo, por meio de parceiros confiáveis ​​ou de cobertura significativa da imprensa, ou de consultas a moderadores de conteúdo sobre tendências preocupantes, equipes especializadas na região ou especialistas internos, como a Equipe de Direitos Humanos ou a Equipe Jurídica de Direitos Civis da Meta.

Embora o Comitê reconheça que esse modelo de apenas escalation permitiria uma análise especializada do contexto geral de uma situação de conflito, indícios sobre a intenção do usuário e quaisquer vínculos com instituições estatais, o Comitê considera que essa abordagem não resultaria na distinção entre publicações permitidas e não permitidas na maioria dos casos, visto que não seria aplicada em escala. Da mesma forma, o Comitê conclui que outra alternativa da Meta, como permitir todas as comparações criminais com base em nacionalidade, não é uma abordagem suficientemente diversificada e resultaria no risco de under-enforcement de conteúdo prejudicial, que pode ser especialmente exacerbada em tempos de crise. Ele considera essa opção muito ampla, pois pode proteger conteúdo direcionado a pessoas, em detrimento de Estados, suas ações ou políticas.

II. Medida de aplicação

A Meta informou o Comitê sobre possíveis desafios de aplicação associados a algumas das alternativas de políticas diversificadas que forneceu a ele, incluindo possíveis dificuldades com o treinamento do classificador para aplicar exceções restritas e a maior complexidade para analistas humanos que moderam em escala. A empresa observou que, de acordo com a atual Política sobre Discurso de Ódio, todos os grupos de características protegidas são tratados igualmente, o que facilita a aplicação da política por analistas humanos e também facilita o treinamento do classificador.

No caso Violência contra as mulheres, a Meta informou o Comitê de que “para os moderadores de conteúdo em escala pode ser difícil distinguir afirmações comportamentais com ressalvas das sem ressalvas sem levar em consideração uma cuidadosa leitura do contexto”. No caso Convocação das mulheres para protesto em Cuba, a Meta disse ao Comitê que, como é desafiador determinar a intenção em escala, suas diretrizes internas instruem os analistas a remover declarações comportamentais sobre grupos característicos protegidos por padrão quando o usuário não deixou claro se a declaração é com ou sem ressalvas.

Embora o Comitê reconheça os desafios de aplicação relacionados a políticas diversificadas, ele acredita que a Meta poderia considerar a criação de listas de indivíduos e crimes que provavelmente fazem referência a políticas ou agentes estatais, em vez de pessoas. Por exemplo, a lista pode incluir referências à polícia, aos militares, às forças armadas, a soldados, ao governo e a outros servidores públicos. Quando se trata de conteúdo de fotos e vídeos, a Meta pode instruir seus analistas humanos a considerar dicas visuais no conteúdo. Por exemplo, conteúdo que apresenta pessoas vestindo roupas militares, juntamente com generalizações sobre crime, pode indicar a intenção do usuário de fazer referência a ações ou agentes estatais, em vez de generalizar ou comparar pessoas a criminosos.

O Comitê também observa que alguns crimes podem ser cometidos ou atribuídos a agentes estatais e organizações perigosas e, portanto, podem sinalizar que a intenção do usuário é criticar ações ou políticas de agentes estatais ou organizações perigosas. No monitoramento desse conteúdo em escala, a Meta pode considerar se concentrar em crimes de atrocidade ou graves violações de direitos humanos, como aqueles especificados no Estatuto de Roma do Tribunal Penal Internacional.

Tendo em vista os desafios de aplicação para minimizar falsos positivos e negativos em escala, o Comitê recomenda que a Meta compartilhe publicamente os resultados das auditorias internas que realiza para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Discurso de Ódio. A empresa deve fornecer os resultados de uma forma que permita que essas avaliações sejam comparadas entre idiomas e/ou regiões. Essa recomendação está em conformidade com a recomendação n.º 5 do Comitê na decisão do caso Sintomas de câncer de mama e nudez e a recomendação n.º 6 no parecer consultivo sobre política Uso do termo “shaheed” em referência a indivíduos designados como perigosos.

Considerando as complexidades e nuances das políticas propostas, o Comitê ressalta a importância de fornecer orientação suficiente e detalhada aos analistas humanos para garantir uma aplicação consistente, em conformidade com a recomendação n.º 1 abaixo.

5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos

O Comitê conclui que a decisão da Meta de remover o conteúdo no primeiro caso não foi consistente com as responsabilidades da empresa relativas aos direitos humanos. A maioria do Comitê considera que a remoção do conteúdo no segundo e terceiro casos estava em conformidade com os compromissos de direitos humanos da Meta, enquanto uma minoria discorda.

Liberdade de expressão (Artigo 19 PIDCP)

O artigo 19 do PIDCP prevê ampla proteção da expressão, incluindo sobre políticas, relações públicas e direitos humanos, com a expressão sobre preocupações sociais e políticas recebendo uma proteção elevada (Comentário Geral 34, parágrafos 11-12).

Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa esse modelo para interpretar as responsabilidades da Meta relativas aos direitos humanos de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs), com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso tanto em relação à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” (A/74/486, parágrafo 41).

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir que eles determinem quais tipos de expressão são propriamente restritas e quais tipos não são,” (Ibid). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os moderadores de conteúdo devem ter orientações claras sobre sua aplicação.

O Comitê conclui que, conforme aplicado a esses três casos, a política da Meta que proíbe discursos desumanizantes contra pessoas com base em nacionalidade na forma de comparações, generalizações ou declarações comportamentais sem ressalvas sobre “criminosos” atende ao teste de legalidade. Embora todas as três publicações contenham generalizações sobre alegações criminais, o Comitê considera que o primeiro caso contém contexto suficiente para concluir que o usuário estava se referindo a generalizações sobre ações ou políticas estatais e que esse conteúdo deve ser restaurado. No entanto, o conteúdo no segundo e terceiro casos tem como alvo pessoas com base em nacionalidade, violando a Política sobre Discurso de Ódio da Meta.

Além disso, o Comitê destaca que quaisquer novas regras devem ser claras e acessíveis aos usuários como parte das alterações feitas pela Meta na política. Portanto, o Comitê solicita que a Meta atualize a linguagem da Política sobre Discurso de Ódio para refletir as mudanças que resultarão dessa decisão e das recomendações de política que forem adotadas.

Nas decisões dos casos Violência contra as mulheres,Animação Knin e Convocação das mulheres para protesto em Cuba, o Comitê concluiu que os analistas de conteúdo devem ter espaço e recursos suficientes para levar em conta os indícios contextuais, a fim de aplicar com precisão as políticas da Meta. Portanto, para garantir uma aplicação consistente e eficaz, a Meta deve fornecer orientações claras sobre as novas regras aos seus analistas humanos, de acordo com a recomendação n.º 1 abaixo.

II. Objetivo legítimo

Qualquer restrição da liberdade de expressão deve também defender pelo menos um dos objetivos legítimos listados no PIDCP, que incluem a proteção aos “direitos de terceiros”. “O termo ‘direitos’ inclui os direitos humanos reconhecidos no Pacto e, em geral, no direito internacional dos direitos humanos” (Comentário Geral n.º 34, parágrafo 28). Em consonância com suas decisões anteriores, o Comitê considera que a Política sobre Discurso de Ódio da Meta, que visa proteger o direito das pessoas à igualdade e à não discriminação, tem um objetivo legítimo que é reconhecido pelos padrões internacionais de direitos humanos (veja, por exemplo, nossa decisão Animação Knin).

III. Necessidade e proporcionalidade

Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral nº 34, parágrafo 34).

Os UNGPs afirmam que as empresas devem realizar auditorias para verificar os impactos de suas atividades (UNGP 17) e reconhecer que o risco de danos aos direitos humanos é maior em contextos afetados por conflitos (UNGP 7). O Grupo de trabalho da ONU na questão de direitos humanos e corporações transnacionais e outras empresas notou que as responsabilidades de diligências das empresas devem refletir a grande complexidade e risco de danos em alguns cenários (A/75/212, parágrafos 41-49).

No caso Bot de Mianmar, o Comitê concluiu que “as responsabilidades acrescidas [da Meta] não devem levar à remoção por omissão, uma vez que os riscos são elevados tanto em deixar ativo conteúdo prejudicial como em remover conteúdo que representa pouco ou nenhum risco de dano”. O Comitê observou ainda que “embora a preocupação do Facebook sobre o discurso de ódio em Mianmar fosse bem fundamentada, ele também deve tomar cuidado especial para não remover críticas e expressões políticas, nesse caso apoiando a governança democrática”.

Embora as críticas às políticas estatais, políticas e ações, especialmente em situações de crise e conflito, sejam de extrema importância, ataques a pessoas com base em nacionalidade podem ser particularmente prejudiciais no mesmo contexto. Alegações criminais contra pessoas com base em nacionalidade podem resultar em violência no meio físico, que tem como alvo pessoas e contribui para a escalada de tensões entre países em um cenário de conflito. A maioria do Comitê considera que a decisão da Meta de remover o conteúdo no primeiro caso não cumpriu os princípios da necessidade e da proporcionalidade, enquanto as remoções no segundo e terceiro casos foram necessárias e proporcionais. A maioria considera que, na ausência de indícios contextuais para concluir que os usuários no segundo e terceiro casos estavam criticando os governos de Israel e da Índia, respectivamente, ambas as remoções de conteúdo foram justificadas. Entretanto, a maioria conclui que esse contexto está presente no primeiro caso, tornando a remoção naquele caso nem necessária nem proporcional, e exigindo que a publicação seja restaurada.

O Comitê reitera que o contexto é fundamental para avaliar a necessidade e a proporcionalidade (veja nossa decisão do caso Protestos a favor de Navalny na Rússia). O Comitê reconhece a importância e os desafios na hora de identificar indícios contextuais dentro do próprio conteúdo e de levar em consideração o contexto externo e o “ambiente de liberdade de expressão” relativos ao conteúdo publicado (veja também nossa decisão do caso Convocação das mulheres para protesto em Cuba).

Em relação ao conteúdo do segundo caso, a maioria do Comitê observa os relatórios que informam que, desde 7 de outubro, as Nações Unidas, as agências governamentais e os grupos de defesa alertaram sobre um aumento do antissemitismo e da islamofobia. A Liga Antidifamação, por exemplo, relatou que os incidentes antissemitas nos Estados Unidos aumentaram em 361% após os ataques de 7 de outubro. Países de toda a Europa alertaram sobre o aumento de crimes de ódio, discursos de ódio e ameaças às liberdades civis contra as comunidades judaicas e muçulmanas. Ao analisar os desafios de aplicar as políticas da Meta em escala, o Comitê enfatizou anteriormente que o discurso desumanizante que consiste em discurso discriminatório implícito ou explícito pode contribuir para atrocidades (veja a decisão do caso Animação Knin). Ao interpretar os Padrões da Comunidade sobre Discurso de Ódio, o Comitê também observou que, mesmo quando itens específicos de conteúdo, visualizados isoladamente, não parecem incitar diretamente a violência ou a discriminação, em períodos de maior tensão étnica e violência, o volume desse conteúdo provavelmente agravará a situação. Pelo menos nessas circunstâncias, uma empresa de redes sociais como a Meta tem o direito de tomar medidas além daquelas disponíveis aos governos para garantir que sua plataforma não seja usada para promover e encorajar o ódio que leva à violência. Na ausência de referências inequívocas que sinalizem críticas ao Estado, a uma de suas instituições ou políticas, a maioria do Comitê conclui que o conteúdo do segundo caso constituiu discurso desumanizante contra todos os israelenses com base em nacionalidade. No contexto de relatos de números crescentes de incidentes antissemitas, incluindo ataques a judeus e israelenses com base em sua identidade, esse conteúdo provavelmente contribuirá para danos iminentes no meio físico.

Da mesma forma, a maioria do Comitê observa as tensões em curso entre a Índia e o Paquistão, e os relatos sobre casos de violência comunitária entre hindus e muçulmanos na Índia (veja a decisão do caso Violência comunitária no estado indiano de Odisha). Portanto, a maioria considera que a remoção do conteúdo no terceiro caso foi necessária e proporcional porque tinha como alvo os indianos, e não criticava o governo indiano, contribuindo para um ambiente de hostilidade e violência.

Uma minoria do Comitê discorda da remoção da segunda e terceira publicações. Os princípios globais de liberdade de expressão (conforme consagrados no Artigo 19 do PIDCP) exigem que os limites à expressão, incluindo proibições de discurso de ódio, atendam aos princípios de necessidade e proporcionalidade, o que implica uma avaliação da probabilidade e da iminência de danos a curto prazo decorrentes das publicações. Essa minoria não está convencida de que a remoção de conteúdo seja o meio menos intrusivo disponível para a Meta lidar com possíveis danos nesses casos, pois uma ampla gama de ferramentas digitais está disponível para consideração (por exemplo, prevenção de compartilhamento de publicações, rebaixamentos, rótulos, bloqueio por tempo limitado etc.). A falha da Meta em demonstrar o contrário não satisfaz o princípio da necessidade e da proporcionalidade. O Relator Especial declarou: “assim como os Estados devem avaliar se uma limitação de discurso é a abordagem menos restritiva, as empresas também devem realizar esse tipo de avaliação. E, ao realizarem a avaliação, as empresas devem arcar com o ônus de demonstrar publicamente a necessidade e a proporcionalidade”, (A/74/486, parágrafo 51) [ênfase acrescentada]. Para a minoria, a Meta não conseguiu demonstrar publicamente por que as remoções são os meios menos intrusivos, e a maioria não apresentou um caso convincente de que o princípio da necessidade e da proporcionalidade é cumprido no segundo e terceiro casos.

Embora a maioria do Comitê mantenha a remoção das duas publicações violadoras no segundo e terceiro casos, ele ressalta a importância de buscar medidas de conscientização e empoderamento do usuário ao limitar a liberdade de expressão. O Comitê observa a recomendação n.º 6 na decisão do caso Protestos a favor de Navalny na Rússia, em resposta à qual a Meta explorou maneiras de notificar os usuários sobre possíveis violações dos Padrões da Comunidade antes que a empresa tome uma medida de aplicação. A empresa informou ao Comitê que, quando os sistemas automatizados da empresa detectam com alta confiança uma possível violação no conteúdo que um usuário está prestes a publicar, a Meta pode informar ao usuário que sua publicação pode violar a política, permitindo que o usuário entenda melhor as políticas da Meta e, então, decida se deseja excluir e publicar seu conteúdo novamente sem a linguagem violadora. A Meta acrescentou que, no período de 12 semanas de 10 de julho de 2023 a 1º de outubro de 2023, em todos os tipos de notificação, a empresa notificou os usuários sobre mais de 100 milhões de itens de conteúdo, com mais de 17 milhões de notificações relacionadas à aplicação dos Padrões da Comunidade sobre Bullying e Assédio. Em todas as notificações, os usuários optaram por excluir suas publicações mais de 20% das vezes. O Comitê observa que todas as informações são agregadas e desidentificadas, para proteger a privacidade do usuário, e que todas as métricas são estimativas, baseadas nas melhores informações atualmente disponíveis para um momento específico. O Comitê considera a implementação dessas medidas um passo importante em direção à conscientização e ao empoderamento do usuário, e um controle adicional para os usuários sobre suas próprias experiências nas plataformas da Meta.

6. Decisão do Comitê de Supervisão

O Comitê de Supervisão anula a decisão da Meta de remover o conteúdo no primeiro caso, exigindo que a publicação seja restaurada, e mantém as decisões dela de remover o conteúdo no segundo e terceiro casos.

7. Recomendações

Política de conteúdo

1. A Meta deve alterar seus Padrões da Comunidade sobre Discurso de Ódio, adicionando a seção marcada como “nova” abaixo. Os Padrões da Comunidade sobre Discurso de Ódio alterados incluiriam então a seguinte linguagem ou outra linguagem muito semelhante a esse efeito:

“Não

publique

conteúdo de Nível 1 direcionado a um indivíduo ou grupo de pessoas (incluindo todos os grupos, salvo os que são considerados grupos não protegidos responsabilizados pelo cometimento de crimes violentos ou ofensas sexuais ou que representam menos da metade de um grupo), nos moldes das referidas características protegidas ou status de imigração por escrito ou na forma visual com discurso desumanizante na forma de comparações ou generalizações sobre criminosos:

  • Predadores sexuais
  • Criminosos violentos
  • Outros criminosos

[NOVA] Exceto quando os indivíduos (por exemplo, polícia, forças armadas, soldados, governo, servidores públicos) e/ou crimes (por exemplo, crimes de atrocidade ou graves violações de direitos humanos, como aqueles especificados no Estatuto de Roma do Tribunal Penal Internacional) implicam uma referência a um Estado, em vez de pessoas com base em nacionalidade.”

O Comitê considerará essa recomendação implementada quando a Meta atualizar os Padrões da Comunidade sobre Discurso de Ódio voltados ao público e compartilhar as orientações específicas atualizadas com seus analistas.

Aplicação

2. Para melhorar a transparência em relação à aplicação da Meta, a empresa deve compartilhar os resultados das auditorias internas que conduz para avaliar a precisão da análise humana e o desempenho de sistemas automatizados na aplicação de sua Política sobre Discurso de Ódio com o público. Ela deve fornecer os resultados de uma forma que permita que essas avaliações sejam comparadas entre idiomas e/ou regiões.

O Comitê considerará essa recomendação implementada quando a Meta incluir os resultados da avaliação de precisão conforme descrito na recomendação na sua Central de Transparência e nos Relatórios de Aplicação de Padrões da Comunidade.

*Nota processual:

  • As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
  • De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e 4 do Estatuto). O Comitê pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
  • Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A Memetica, um grupo de investigações digitais que fornece serviços de consultoria de risco e inteligência contra ameaças para mitigar danos online, também forneceu pesquisas. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 50 idiomas e trabalham de 5 mil cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas