Decisão de múltiplos casos

Posts exibindo a bandeira da África do Sul da época do Apartheid

Após uma análise de dois posts do Facebook contendo imagens da bandeira da África do Sul de 1928 a 1994, a maioria do Comitê julgou válidas as decisões da Meta de mantê-los. Eles não defendem claramente a exclusão ou a segregação nem incitam as pessoas a se envolverem em violência ou praticarem discriminação.

2 casos incluídos neste pacote

Mantido

FB-Y6N3YJK9

Caso sobre no Facebook

Plataforma
Facebook
विषय
Discriminação,Eleições
Localização
África do Sul
Date
Publicado em 23 de Abril de 2025
Mantido

FB-VFL889X3

Caso sobre no Facebook

Plataforma
Facebook
विषय
Discriminação,Eleições
Localização
África do Sul
Date
Publicado em 23 de Abril de 2025

Resumo

Após uma análise de dois posts do Facebook contendo imagens da bandeira da África do Sul de 1928 a 1994, a maioria do Comitê julgou válidas as decisões da Meta de mantê-los. Os Membros do Comitê reconhecem as consequências de longo prazo e o legado do Apartheid na África do Sul. Entretanto, esses dois posts não defendiam claramente a exclusão ou a segregação nem podiam ser compreendidos como uma incitação para as pessoas se envolverem em violência ou praticarem discriminação. A deliberação nesses casos também resultou na recomendação de melhorar a linguagem conflitante na Política sobre Organizações e Indivíduos Perigosos.

Observação adicional: as revisões de 7 de janeiro de 2025 da Meta não mudaram o resultado desses casos, apesar de o Comitê ter considerado as regras no momento da postagem e as atualizações durante a deliberação. Sobre as alterações mais abrangentes às políticas e à aplicação anunciadas apressadamente pela Meta em janeiro, o Comitê tem a preocupação de que a Meta não tenha compartilhado publicamente quais, se houver, diligências anteriores sobre direitos humanos foram realizadas de acordo com seus compromissos segundo os Princípios Orientadores das Nações Unidas sobre Negócios e Direitos Humanos. É crucial que a Meta garanta a identificação de impactos adversos contra os direitos humanos e a prevenção contra eles globalmente.

Sobre os casos

O primeiro post do Facebook, compartilhado antes das eleições gerais da África do Sul em maio de 2024, exibe uma foto de um soldado branco segurando a antiga bandeira do país, usada na época do Apartheid. Uma legenda incita os outros a compartilhar o post caso eles “served under this flag” (tenham servido sob esta bandeira). O post foi visualizado mais de 500 mil vezes. A Meta decidiu que o conteúdo, após ter sido denunciado por três usuários, não ia contra suas regras.

O segundo post, também no Facebook, consiste em fotos do banco de imagens da época do Apartheid, incluindo da antiga bandeira, de crianças brancas próximas a um homem negro montado em uma bicicleta de sorvete, de uma praia pública apenas para brancos e de uma arma de brinquedo. A legenda do post afirma que esses eram os bons tempos, pede para os outros “read between the lines” (lerem nas entrelinhas) e inclui emojis de um rosto com olho piscando e de “OK”. Visto mais de dois milhões de vezes, o conteúdo foi denunciado por 184 usuários, principalmente por discurso de ódio. Os analistas humanos da Meta decidiram que o post não violava os Padrões da Comunidade.

Em ambos os casos, os usuários que denunciaram o conteúdo para a Meta fizeram uma apelação ao Comitê em seguida.

Principais descobertas

A maioria do Comitê concluiu que nenhum dos posts viola a Política sobre Conduta de Ódio, enquanto uma minoria acredita que ambos estão em violação.

A política não permite “ataques diretos” na forma de “incitações ou apoio a exclusão ou segregação” com base em características protegidas. Nenhum dos posts defende o retorno do Apartheid ou qualquer outra forma de exclusão racial, de acordo com a maioria. Enquanto o post do soldado usa a bandeira em um contexto positivo, ele não defende a exclusão racial ou a segregação. Sobre o post da grade de fotos, as imagens em combinação com os emojis e a mensagem para “read between the lines” (ler nas entrelinhas) indicam uma mensagem racista, mas não chegam ao nível necessário para violar essa política.

Uma minoria discorda, apontando que a bandeira é um símbolo inequívoco e direito do Apartheid, que, quando compartilhado com referências positivas ou neutras, pode ser entendido como apoio à segregação racial. Por exemplo, não há dúvida de que o post da grade de fotos, com suas imagens de vida segregada, mensagens e o emoji de “OK”, compreendida por supremacistas brancos globalmente como discurso de ódio velado, demonstra apoio à exclusão racial.

O Comitê observou, por unanimidade, que ambos os posts violam a Política sobre Organizações e Indivíduos Perigosos, apesar de a maioria e a minoria discordarem sobre o porquê. A empresa remove conteúdo que glorifica, apoia ou representa ideologias de ódio, incluindo supremacia branca e separatismo, assim como “referências pouco claras” sobre essas ideologias. O Comitê concorda que a bandeira de 1928 a 1994 não pode ser desassociada do Apartheid, uma forma de ideologia separatista branca. Para a maioria, ambos os posts representam referências pouco claras de separatismo branco, enquanto, para a minoria, eles glorificam essa ideologia de forma explícita.

De acordo com a maioria, remover esse conteúdo não é necessário nem proporcional, porque a probabilidade de discriminação ou violência iminentes devido a esses posts é baixa. Banir esse tipo de discurso não faz com que ideias intolerantes desapareçam, e outras ferramentas de moderação de conteúdo menos invasivas que remoções poderiam ter sido aplicadas. Uma minoria discorda, observando que a remoção é necessária para manter o respeito pela igualdade e pela não discriminação para sul-africanos não brancos. Ela também destaca os efeitos ameaçadores do acúmulo de conteúdo de ódio nas plataformas de Meta à liberdade de expressão das pessoas afetadas.

Todo o Comitê reconhece a linguagem conflitante sobre “referências” a ideologias de ódio segundo a Política sobre Organizações e Indivíduos Perigosos. Durante a deliberação, houve perguntas sobre por que a Meta não lista o Apartheid como uma designação independente. Alguns membros do Comitê perguntaram por que a lista da Meta se concentra nas ideologias que podem apresentar riscos a regiões de minorias globais, mas permanece indiferente sobre ideologias de ódio comparáveis contra a maioria global.

A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém as decisões da Meta de deixar ativos os dois posts.

O Comitê recomenda que a Meta faça o seguinte:

  • Em respeito às atualizações de 7 de janeiro de 2025 aos Padrões da Comunidade sobre Conduta de Ódio, a Meta deverá identificar como as atualizações à política e à aplicação podem impactar adversamente as populações em regiões de maioria global. Ela deverá adotar medidas para prevenir e/ou mitigar esses riscos e monitorar a efetividade deles. Por fim, a Meta deverá atualizar o Comitê a cada seis meses sobre seu progresso, fornecendo relatórios públicos sobre isso o quanto antes.
  • Adotar uma única explicação clara e detalhada sobre como suas proibições e exceções de acordo com os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos se aplicam a designadas ideologias de ódio.
  • Listar o Apartheid como uma ideologia de ódio designada individual nas regras do Padrão sobre Organizações e Indivíduos Perigosos.
  • Fornecer a seus analistas mais exemplos globais sobre glorificação, apoio e representação proibidos relacionados a ideologias de ódio, incluindo exemplos que não nomeiam diretamente a ideologia listada.

*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.

Decisão completa sobre o caso

1. Descrição do caso e histórico

Esses casos envolvem dois posts do Facebook compartilhados durante os preparativos para as eleições gerais da África do Sul em maio de 2024.

O primeiro post mostra uma foto de um soldado branco segurando a bandeira da África do Sul de antes de 1994, que era a bandeira do país usada durante o Apartheid. A legenda em inglês incita os usuários a compartilhar o conteúdo se eles “served under this flag” (serviram sob essa bandeira). O post foi visualizado cerca de 600 mil vezes e compartilhado aproximadamente 5 mil vezes. Três usuários denunciaram o conteúdo para a Meta por discurso de ódio e violência. Visto que os analistas humanos da Meta consideraram o conteúdo como não violador, ele foi mantido. Um dos usuários que denunciou o conteúdo então fez uma apelação ao Comitê.

O segundo post é uma grade de fotos contendo fotos do banco de imagens extraídas na época do Apartheid, incluindo: a antiga bandeira do país; um homem negro montado em uma bicicleta de sorvete, com três crianças brancas próximas a ele em um bairro aparentemente só para brancos; uma praia pública só para brancos com um parque temático; um jogo de tabuleiro sul-africano; um maço de cigarros de doce brancos; e uma arma de brinquedo prateada. A legenda afirma que esses eram os “good old days” (bons tempos) e pede para o público “read between the lines” (ler nas entrelinhas), seguido de emojis de um rosto com olho piscando e de “OK”. Ele foi visualizado cerca de dois milhões de vezes e compartilhado aproximadamente mil vezes. Dentro de uma semana após a postagem, 184 usuários denunciaram o conteúdo, principalmente por discurso de ódio. Algumas das denúncias foram avaliadas por analistas humanos, que determinaram que o conteúdo não violava os Padrões da Comunidade. As denúncias restantes foram processadas por uma combinação de sistemas automatizados e decisões anteriores de análise humana. Como o post do soldado, a Meta considerou esse conteúdo como não violador e o manteve na plataforma. Um dos usuários que denunciou o conteúdo então fez uma apelação ao Comitê.

Em 7 de janeiro de 2025, a Meta anunciou alterações à sua Política sobre Discurso de Ódio, renomeando-a Política sobre Conduta de Ódio. Essas alterações, na medida do necessário para esses casos, serão descritas na Seção 3 e analisadas na Seção 5. O Comitê observa que os conteúdos são acessíveis nas plataformas da Meta de forma contínua, e políticas atualizadas são aplicadas a todos os conteúdos presentes na plataforma, independentemente de onde tenham sido postados. Portanto, o Comitê avalia a aplicação das políticas conforme o estado delas na época da postagem e, se aplicável, conforme tenham sido atualizadas desde então (ver também a abordagem no caso Negação do Holocausto).

O Comitê observa o seguinte contexto ao tomar uma decisão:

De 1948 a 1994, a África do Sul estava sob um regime de Apartheid sancionado pelo estado envolvendo a segregação racial entre sul-africanos brancos e não brancos. Contudo, leis discriminatórias já existiam no país antes mesmo de o Apartheid ter sido adotado formalmente. Durante esse período, a África do Sul era representada por uma bandeira laranja, branca e azul. Em 1994, após o fim do Apartheid, a África do Sul adotou a bandeira de seis cores que usa até hoje. Apesar do fim do Apartheid, a desigualdade socioeconômica continua a afetar particularmente a população não branca do país, contribuindo para tensões raciais na política e em discursos públicos.

Em 2018, a Fundação Nelson Mandela iniciou uma ação judicial na África do Sul procurando banir a “exibição gratuita” da bandeira da época do Apartheid após seu uso em protestos no ano anterior. A ação alegava que isso consistia em “discurso de ódio, discriminação injusta e assédio” e celebrava as atrocidades do sistema. Em 2019, o Tribunal de Igualdade da África do Sul considerou que a exibição gratuita da bandeira consistia em discurso de ódio e discriminação racial que podem ser objeto de uma ação penal segundo a legislação do país. A decisão do tribunal esclareceu que exibir a bandeira não é ilegal no caso de fins artísticos, acadêmicos, jornalísticos e para outras finalidades de interesse público. A Suprema Corte de Apelação (Supreme Court of Appeal, SCA na sigla em inglês) manteve essa decisão em abril de 2023.

Em 29 de maio de 2024, a África do Sul realizou as eleições para a Assembleia Nacional. O Congresso Nacional Africano (African National Congress, ANC na sigla em inglês), o partido político liderado por Nelson Mandela após o fim do Apartheid, perdeu sua maioria parlamentar. Entretanto, o líder do partido incumbente, Cyril Ramaphosa, manteve sua presidência por meio de um governo de coalisão formado com os partidos da oposição.

2. Envios de usuários

Os autores dos posts foram notificados da análise do Comitê e tiveram a oportunidade de enviar uma declaração. Nenhuma resposta foi recebida.

Em sua declaração para o Comitê, o usuário que denunciou o post do soldado declarou que a antiga bandeira da África do Sul é comparável à bandeira da Alemanha nazista. Ele afirma que “exibir explicitamente” a bandeira incita violência porque o país ainda está se recuperando do impacto causado pelo Apartheid como um crime contra a humanidade. O usuário também afirmou que compartilhar essas imagens durante um período eleitoral pode incentivar o ódio racial e pôr a vida de pessoas em risco. De forma similar, o usuário que denunciou o post da grade de fotos explicou que o uso da bandeira é ilegal e que, considerando o cenário completo, o post sugere que o Apartheid era um “período melhor” para os sul-africanos Ele enfatizou como a antiga bandeira é um símbolo de opressão e é algo “depreciativo” e “doloroso” para a maioria dos sul-africanos.

3. Políticas de conteúdo e envios da Meta

I. Políticas de conteúdo da Meta

Padrões da Comunidade sobre Conduta de Ódio (anteriormente chamada de Discurso de Ódio)

A Política sobre Conduta de Ódio da Meta afirma que “as pessoas usam sua voz e se conectam mais facilmente quando não se sentem atacadas com base em quem são”. A Meta define “conduta de ódio” da mesma forma que definiu “discurso de ódio” anteriormente, como “ataques diretos contra as pessoas” com base em características protegidas, que incluem raça, etnia e nacionalidade. Como resultado da recomendação do Comitê para esclarecer sua abordagem no caso Animação Knin, a Meta afirma, na introdução dos seus Padrões da Comunidade, que a empresa pode remover conteúdo usando “linguagem ambígua ou explícita” quando o contexto adicional permite a ela entender razoavelmente que esse conteúdo vai contra os Padrões da Comunidade.

O Nível 2 da Política sobre Conduta de Ódio proíbe, como forma de ataque direto, “incitações ou apoio a exclusão ou segregação, ou declarações de intenção de excluir ou segregar”, seja em forma escrita ou visual. A Meta proíbe os seguintes tipos de incitações ou apoio à exclusão: (i) exclusão geral, que significa uma incitação à exclusão ou à segregação geral, como “Não é permitida a entrada de X!”; (ii) exclusão política, que significa negar o direito à participação política ou argumentar a favor da prisão ou negar direitos políticos; (iii) exclusão econômica, que geralmente significa negar acesso a direitos econômicos e limitar a participação no mercado de trabalho; e (iv) exclusão social, que significa ações como negar acesso a espaços físicos e online e a serviços sociais. Antes de 7 de janeiro, a proibição de “exclusão geral” era chamada de “exclusão explícita”.

Organizações e indivíduos perigosos

A Política sobre Organizações e Indivíduos Perigosos da Meta visa “prevenir e impedir danos no mundo real”.

De acordo com o fundamento da política, a Meta declara que remove conteúdo glorificando, apoiando ou representando “ideologias de ódio”.

A Meta explica que designa ideologias proibidas, que a política lista como “incluindo nazismo, supremacia branca, nacionalismo branco [e] separatismo branco” porque são “inerentemente vinculadas a violência” e procuram “organizar as pessoas em torno de incitações a violência ou exclusão de outras pessoas com base em suas características protegidas”. Diretamente junto a essa lista, a empresa declara que remove a glorificação, o apoio e a representação explícitos dessas ideologias (ênfase incluída).

A Meta declarou duas vezes que remove “referências pouco claras” sobre ideologias de ódio, uma vez no fundamento da política e novamente de acordo com a descrição das organizações de Nível 1.

Ela explica, no fundamento da política, que exige que os usuários “indiquem sua intenção com clareza” ao criar ou compartilhar esse tipo de conteúdo. Se a intenção de um usuário é “ambígua ou pouco clara”, a decisão da Meta é de remover o conteúdo por padrão.

II. Envios da Meta

A Meta manteve os dois posts no Facebook, sem observar nenhuma violação de suas políticas. A empresa confirmou que sua análise do conteúdo não foi afetada pelas alterações na política de 7 de janeiro.

A Meta afirmou que os posts não violavam a Política sobre Conduta de Ódio, visto que não havia incitações à exclusão de um grupo protegido de acordo com o Nível 2, nem qualquer outro tipo de ataque direito proibido. Nenhuma das declarações nos posts mencionava um grupo protegido, e os posts não defendiam uma ação específica. De acordo com a Meta, para que a política seja exequível em escala, deve haver um ataque “direto” e explícito, e não implícito. Nenhum dos posts continha um ataque direto.

A orientação interna de aplicação da Meta para analistas contém uma lista ilustrativa de emojis que estão em violação se usados em um contexto que permita ao analista confirmar o intuito de atacar diretamente uma pessoa ou um grupo com base em características protegidas. Fotos, legendas, sobreposições de textos em fotos e o conteúdo de vídeos podem ajudar a indicar o que um emoji significa. A lista é global e não contém o emoji de “OK”.

A Meta decidiu que os posts não violavam a Política sobre Organizações e Indivíduos Perigosos. A empresa observou que a bandeira exibida nos posts era usada na África do Sul entre 1928 e 1994, incluindo durante a época do Apartheid e os anos precedentes. A empresa reconheceu que, desde o fim do Apartheid, essa bandeira foi usada em algumas ocasiões de celebração histórica, mas é usada principalmente como um símbolo da herança africâner e do Apartheid. Entretanto, ela também reconheceu que a bandeira tem outros significados, incluindo a conexão dos sul-africanos com os diferentes aspectos desse período, como experiências pessoais, serviço militar e outros aspectos da sociedade civil.

De acordo com a proibição pela Meta de glorificação, apoio ou representação de ideologias de ódio, a empresa observou na sua orientação aos analistas que apenas o nazismo, a supremacia branca, o nacionalismo branco e o separatismo branco são nomeados como ideologias de ódio. Contudo, a empresa explicou ao Comitê que removeu o “elogio a políticas segregacionistas” como as implementadas durante o Apartheid na África do Sul como separatismo branco. Em resposta às solicitações do Comitê, por exemplo, a Meta afirmou que removeria uma declaração como “o Apartheid foi incrível” na maioria dos casos, mas isso não é um exemplo fornecido aos analistas na orientação de aplicação. Os exemplos de violações de política fornecidos aos analistas incluem, entre outros, “a supremacia branca é a coisa certa” e “sim, eu sou um supremacista branco”.

A Meta considerou que a declaração do post do soldado, “Share if you served under this flag” (Compartilhe se serviu sob essa bandeira), não glorificava ou apoiava uma determinada ideologia de ódio. Da mesma forma, a legenda do post da grade de fotos descrevendo a época do Apartheid como os “good old days” (bons tempos) e pedindo para os usuários “read between the linhas” (lerem nas entrelinhas) [emoji de piscar de olho, emoji de “OK”], em combinação com a bandeira do Apartheid e imagens históricas da época, por si só, não glorifica ou apoia uma ideologia de ódio. Enquanto a Meta reconhece que o emoji de “OK” é associado, em alguns contextos, ao movimento da supremacia branca, a visão da empresa é de que ele indica, predominantemente, apenas “okay”, incluindo na África do Sul. A Meta concluiu que seu uso aqui não tem a intenção de glorificar ou apoiar ideologia de ódio.

Como parte dos seus esforços de integridade para as eleições sul-africanas de maio de 2024, a Meta veiculou campanhas contra o discurso de ódio e a desinformação nas suas plataformas e na rádio local durante os preparativos para as eleições. Essas campanhas foram projetadas para educar as pessoas sobre como identificar e denunciar discurso de ódio e desinformação online.

O Comitê fez perguntas a respeito da Política sobre Conduta de Ódio, recentemente renomeada, e da Política sobre Organizações e Indivíduos Perigosos e a respeito da sua aplicação, quais símbolos e ideologias poderiam violar essas políticas e os esforços de integridade eleitoral da Meta na África do Sul. A Meta respondeu a todas as perguntas.

4. Comentários públicos

O Comitê de Supervisão recebeu 299 comentários públicos que atenderam aos termos para envio. Desses, 271 foram enviados da África Subsaariana, 10 da Europa, 4 da Ásia Central e do Sul da Ásia, 5 dos EUA e do Canadá, 7 do Oriente Médio e do Norte da África e 2 da Ásia-Pacífico e da Oceania. Dado que o período para comentários públicos foi encerrado antes de 7 de janeiro de 2025, nenhum dos comentários abordou as alterações que a Meta fez à sua política nesse período. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.

Os envios abrangiam os seguintes temas: o que a bandeira da época do Apartheid significava para a história e a política sul-africanas; o impacto de exibi-la a não brancos, os esforços para criar uma África do Sul multicultural e se isso deveria ser permitido nas plataformas da Meta; e os usos codificados de símbolos online e as abordagens recomendadas para moderar imagens visuais que possam constituir ataques implícitos contra grupos protegidos.

5. Análise do Comitê de Supervisão

O Comitê selecionou esses casos para abordar o respeito da Meta pela liberdade de expressão e por outros direitos humanos no contexto de uma eleição e como a empresa trata imagens associadas com a história recente do Apartheid na África do Sul. Esses casos se enquadram nas prioridades estratégicas do Comitê referentes a eleições e espaço cívico, e discurso de ódio contra grupos marginalizados.

O Comitê analisou as decisões da Meta nesses casos em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da empresa. Ele também avaliou as implicações desses casos quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.

5.1 Conformidade com as políticas de conteúdo da Meta

Padrões da Comunidade sobre Conduta de Ódio (anteriormente Discurso de Ódio)

O Comitê observa que a proibição pela Meta de “incitações ou apoio a exclusão ou segregação” com base em características protegidas é passível de pelo menos duas interpretações, nenhuma das quais é afetada pelas alterações na política de 7 de janeiro. A maioria do Comitê, observando o valor indispensável de voz da Meta, é favorável a uma interpretação mais estreita da regra, exigindo a defesa da exclusão ou segregação. Uma minoria, observando o valor de dignidade da Meta, tem uma interpretação abrangente, considerando a proibição como também abrangendo o apoio pela exclusão ou pela segregação de forma mais geral.

A maioria do Comitê acredita que nenhum dos posts viola essa proibição. Enquanto os posts aparentam demonstrar nostalgia pela época do Apartheid, eles não defendem a reinstituição do regime ou de qualquer outra forma de exclusão racial.

Considerando o post do soldado, a maioria reconhece que muitas pessoas veem a bandeira de 1928 a 1994 como um símbolo do Apartheid. Entretanto, a bandeira em si, em combinação com uma declaração sobre o serviço militar, não defende a exclusão ou a segregação. Precisariam estar presentes elementos adicionais no post para que ele estivesse em violação. Enquanto a bandeira é referida positivamente nesse post, esse contexto é específico ao serviço militar, e não há uma declaração ou referência suficientemente clara de que o Apartheid ou políticas semelhantes deveriam ser reinstituídos. Independentemente de quão divisivo ou insensível seja o ato de compartilhar essa bandeira nos dias de hoje na África do Sul, seria incorreto presumir, sem mais evidências, que esse post defende a exclusão ou a segregação racial, que violariam essa política.

De forma similar, a maioria também observa que o post da grade de fotos, com a imagem da bandeira de 1928 a 1994 em conjunto com fotos da África do Sul na época do Apartheid e a legenda, não defende a segregação ou a exclusão. Eles possivelmente fazem alusão a uma nostalgia geral pelo período que representam. A maioria reconhece que frases como “the good old days” (os bons tempos) e “read between the lines” (ler nas entrelinhas), assim como os emojis de rosto com olho piscando e de “OK” são todos, em combinação com as fotos, indicadores de uma mensagem racista que muda como as imagens por si só seriam interpretadas. Contudo, a Política sobre Conduta de Ódio da Meta não proíbe a expressão de todos os pontos de vista racialmente insensíveis ou até mesmo racistas. O post, interpretado como um todo, não chega ao ponto de defender a reinstituição do Apartheid ou de outras formas de segregação ou exclusão racial e, portanto, é permitido.

Para a minoria, a bandeira de 1928 a 1994 é um símbolo inequívoco e direto do Apartheid. Quando compartilhada com uma referência positiva ou neutra (em vez de uma condenação), ela é interpretada, na África do Sul, como apoio à segregação e à exclusão racial e, portanto, como em violação. Para essa minoria, uma exibição inofensiva da bandeira não é possível e só pode ser interpretada como apoio à exclusão racial da época do Apartheid (ver também comentário públicos, incluindo da Comissão de Direitos Humanos Sul-Africana e da Fundação Nelson Mandela, destacando a decisão SCA de 2023, PC-30759; PC-30771 ; PC-30768; PC-30772; PC-30774). A bandeira da época do Apartheid também foi cooptada por movimentos nacionalistas brancos em outras partes do mundo (PC-30769).

Por esses motivos, a minoria conclui que ambos os posts constituem apoio à exclusão racial. O post do soldado, encorajando os outros a recompartilhar a bandeira, só pode ser interpretado como apoio pela política segregacionista representada por essa bandeira. Considerando o post da grade de fotos como um todo, as imagens e a legenda tornam claro o apoio dele por exclusão e segregação racial. Como o post inclui a bandeira sem contexto de condenação ou conscientização, apenas com base nisso ele já está em violação. Além disso, as outras fotos parecem ser de banco de imagens e representar os aspectos da vida que eram segregados; eles não contam uma história pessoal de nostalgia, como a legenda também deixa claro. O uso do emoji de “OK” da supremacia branca nessa legenda é considerável. Ele é compreendido por supremacistas brancos globalmente como discurso de ódio velado e um “dog whistle”, literalmente formando as letras “W” (para “white”) com três dedos e “P” (para “power”), conectando o polegar ao dedo indicador (ver PC-30768). Sua inclusão aqui não foi isolada. Quando acompanhado de imagens do Apartheid, uma referência aos “good old days” (bons tempos) e um convite para os usuários “read between the lines” (lerem nas entrelinhas), em conjunto com um emoji de piscada, até mesmo uma pessoa sem familiaridade com a simbologia supremacista branca não teria dúvidas de que esse post apoio a exclusão racial e, portanto, está em violação. Para a minoria, ao chegar a essa conclusão, é importante entender como o uso de linguagem e símbolos racistas online se adaptou para evitar a moderação de conteúdo e como expressões mais sutis (porém ainda diretas) de apoio à exclusão podem ser usadas para conectar pessoas com os mesmos interesses. Como nesse caso, o discurso de ódio codificado ou indireto pode ser inequívoco de forma alarmante, mesmo quando não há declarações literais do significado pretendido.

Padrões da Comunidade sobre Organizações e Indivíduos Perigosos

Por meio das perguntas que fez à Meta, o Comitê compreende que a designação feita pela empresa de separatismo branco como ideologia de ódio inclui o Apartheid da África do Sul. Entretanto, as orientações internas a analistas da Meta podem tornar isso mais explícito fornecendo exemplos mais abrangentes de violações. Conforme abordado na Seção 5.2 (legalidade) abaixo, as regras da Meta sobre ideologias designadas são vagas. O Comitê observa, de forma unânime, que ambos os posts violaram os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos, mas por motivos diferentes. Para a maioria, ambos os posts se enquadram na definição da Meta de referências pouco claras ao separatismo branco, que a política proíbe. Para a minoria, ambos os posts atingem o nível de glorificação do separatismo branco.

O Comitê conclui que a bandeira sul-africana de 1928 a 1994 não pode ser desvinculada do Apartheid como uma forma de ideologia separatista branca. Foi a bandeira nacional durante duas décadas de discriminação racial legalizada precedendo o Apartheid e desde que o regime foi instituído em 1948.

Para a maioria, o post do soldado, que encoraja os outros a recompartilhar se serviram sob essa bandeira, não glorifica o Apartheid explicitamente como uma forma de supremacia branca na sua referência expressa e positiva ao serviço militar. De forma similar, o post da grade de fotos não deixa claro se está fazendo uma referência a experiências pessoais durante a época do Apartheid ou glorificando o regime. Como observado acima, entretanto, há diversos indicadores de que há uma mensagem racista nesse post, principalmente o uso do emoji de “OK” em conjunto com a bandeira. Para a maioria, os indicadores positivos, porém indiretos, em ambos os posts constituem uma “referência pouco clara” violadora sobre separatismo branco, mas não são suficientemente explícitos para serem considerados “glorificação”.

Para a minoria do Comitê, ambos os posts atingem o limite de glorificação explícita a ideologia separatista branca pelos mesmos motivos que constituem apoio a exclusão ou segregação racial de acordo com a Política sobre Conduta de Ódio. No post do soldado, a referência positiva à bandeira da época do Apartheid como um símbolo inerente do separatismo branco, incluindo no contexto de serviço militar, constitui uma glorificação dessa ideologia, mesmo sem as políticas do Apartheid terem sido especificamente mencionadas. No caso do post da grade de fotos, a combinação do símbolo de supremacia branca (emoji de “OK”), a bandeira e a frase “the good old days” (os bons tempos) também glorifica essa ideologia de forma explícita. Para os Membros do Comitê, os usuários terem denunciado ambos os posts e os comentários que eles atraíram são a confirmação de que o a glorificação do Apartheid no conteúdo foi bem compreendida pelos públicos. Muitas reações aos posts demonstram como as comunicações brutas dos separatistas brancos podem evitar a moderação de conteúdo de forma criativa. Elas também servem para mostrar como agentes de ódio conectados podem explorar o design das plataformas da Meta para compartilhar suas mensagens, identificar novos membros e expandir seus números.

5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos

A maioria do Comitê considera que manter ambos os posts nas plataformas era consistente com as responsabilidades de direitos humanos da Meta. A minoria discorda e considera que a remoção seria consistente com essas responsabilidades.

Liberdade de expressão (Artigo 19 do PIDCP)

O artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) prevê uma proteção ampla da expressão, inclusive sobre opiniões políticas, assuntos públicos e direitos humanos (Comentário Geral n.º 34, parágrafos 11-12). O Comitê de Direitos Humanos da ONU enfatizou que o valor da expressão é especialmente elevado ao se discutir questões políticas (Comentário Geral nº 34, parágrafos 11, 13). Ele enfatizou que a liberdade de expressão é essencial para a condução dos assuntos públicos e para o exercício efetivo do direito ao voto (Comentário Geral n.º 34, parágrafo 20; ver também Comentário Geral n.º 25, parágrafos 12 e 25). Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19, parágrafo 3, PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”.

O Comitê usa essa estrutura para interpretar as responsabilidades de direitos humanos da Meta de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação à decisão de conteúdo individual sob análise e sobre o que isso diz a respeito da abordagem mais ampla da empresa à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” ( A/74/486, parágrafo 41).

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente... para permitir-lhes determinar quais tipos de expressão são propriamente restritas e quais tipos não são” (Ibid). Quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os moderadores de conteúdo devem ter orientações claras sobre sua aplicação.

Esses casos destacam dois problemas de clareza com relação às proibições pela Meta de Conduta de Ódio. Em primeiro lugar, a Meta forneceu respostas conflitantes ao Comitê sobre se “ataques diretos” incluíam declarações implícitas ou não (preocupações semelhantes foram levantadas no caso do Comitê Animação Knin). Ademais, não ficou claro se a regra sobre “chamadas ou apoio a exclusão ou segregação” se limita à defesa da exclusão ou também inclui qualquer apoio mais abrangente de exclusão ou segregação. Isso é agravado pela falta de exemplos globais para as violações fornecidas aos analistas, das quais nenhuma inclui o Apartheid.

Os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos também apresentam linguagem conflitante sobre a abordagem da Meta a ideologias de ódio. Em alguns trechos, ele especifica que referências pouco claras a ideologias de ódio são proibidas, enquanto, em outros, insinua que apenas “glorificação, apoio ou representação explícitos” são proibidos. A orientação interna fornecida aos analistas declara que “[r]eferências, [g]lorificação, [a]poio ou [r]epresentação” são todos proibidos. A lista de proibições conforme a seção “nós removemos” da política não faz qualquer referência à regra sobre ideologias de ódio, agravando a confusão.

Enquanto o Comitê conclui que o “separatismo branco” deveria incluir implicitamente o Apartheid como implementado na África do Sul, a orientação interna da Meta aos analistas não deixa isso explícito nem inclui exemplos suficientes que sejam relevantes para o contexto da África do Sul. Os exemplos de conteúdo violador fornecidos ao Comitê pela Meta em resposta às perguntas (por exemplo, “o Apartheid era ótimo”, “a supremacia branca é a coisa certa”) não refletem as realidades de como as trocas de mensagens de supremacia racial são estruturadas. Ao mesmo tempo, o Comitê observa que, enquanto o Apartheid, tendo sido implementado na África do Sul, é inerentemente vinculado a separatismo e supremacia brancos, o conceito do Apartheid no direito internacional se aplica ao domínio intencional de qualquer grupo racial sobre outro de forma a oprimi-lo sistematicamente (O Estatuto de Roma do Tribunal Penal Internacional, Artigo 7(2)(h); Convenção Internacional sobre a Supressão e Punição do Crime de Apartheid, Artigo 2). Isso suscita questões sobre por que o Apartheid não é listado como uma designação individual. Como as políticas da Meta são globais, diversos Membros do Comitê também questionaram por que a listagem da Meta se concentra em ideologias que podem representar riscos a regiões da minoria global, enquanto permanece indiferente a muitas ideologias de ódio comparáveis em regiões de maioria global.

II. Objetivo legítimo

Qualquer restrição à liberdade de expressão deve perseguir um ou mais dos objetivos legítimos listados no PIDCP, o que inclui a proteção dos direitos de terceiros (artigo 19, parágrafo 3, PIDCP).

O Comitê reconheceu previamente que os Padrões da Comunidade sobre Discurso de Ódio buscam o objetivo legítimo de proteger os direitos de outras pessoas. Esses direitos incluem os direitos à igualdade e à não discriminação (Artigo 2, parágrafo 1, PIDCP; Artigos 2 e 5, ICERD). Isso também é válido para a Política sobre Conduta de Ódio revisada.

De forma similar, o Comitê considera que a Política sobre Organizações e Indivíduos Perigosos, buscando “evitar e interromper danos no mundo real”, enseja o objetivo legítimo de proteger os direitos de outras pessoas, como o direito à vida (Artigo 6 do PIDCP) e o direito à não discriminação e à igualdade (Artigos 2 e 26 do PIDCP).

III. Necessidade e proporcionalidade

Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34).

A maioria dos Membros do Comitê considera que manter ambos os posts está alinhado com as responsabilidades da Meta com os direitos humanos e a remoção não seria necessária nem proporcional. Esses Membros do Comitê reconhecem que o legado do Apartheid persiste e teve consequências de longo prazo sentidas na África do Sul até hoje. Ao mesmo tempo, o direito internacional dos direitos humanos confere uma proteção elevada à liberdade de expressão com relação à participação política, incluindo no contexto de eleições (Comentário Geral n.º 25, parágrafos 12 e 25). No caso Comentários de político sobre mudanças demográficas, o Comitê afirmou que expressões de opiniões controversas são protegidas pelos padrões internacionais de direitos humanos. Ambos os posts constituem expressões protegidas. Mesmo se considerados “profundamente ofensivos”, isso não faz com que sejam incitação à discriminação provável e iminente (ver Comentário Geral n.º 34 (2011), parágrafo 11; ver também o parágrafo 17 do relatório de 2019 do Relator Especial da ONU sobre liberdade de expressão, A/74/486).

A maioria enfatiza que o Relator Especial da ONU sobre liberdade de expressão deixou claro que banimentos a discursos podem ser justificáveis quando há dano concreto iminente e provável. Contudo, quando os danos não são prováveis nem iminentes, outras medidas podem ser tomadas (ver A/74/486, parágrafos 13 e 54). De forma semelhante, o Comitê de Direitos Humanos das Nações Unidas declarou que: “Em geral, o uso de bandeiras, uniformes, cartazes e faixas deve ser considerado uma forma legítima de expressão que não deve ser restringida, mesmo que esses símbolos sejam lembranças de um passado doloroso. Em casos excepcionais, quando esses símbolos estiverem direta e predominantemente associados à incitação à discriminação, à hostilidade ou à violência, devem ser aplicadas restrições apropriadas” (Comentário Geral n.º 37 sobre o direito de reunião pacífica, CCPR/C/GC/37, parágrafo 51).

Para a maioria, há preocupações sobre a abrangência excessiva das proibições a “referências pouco claras” pelos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. Conforme a Meta procura reduzir os erros na sua moderação de conteúdo, conforme anunciado em 7 de janeiro, esses Membros do Comitê recomendam um exame de quão exata e precisa é a aplicação da regra para “referências pouco claras”, assim como a compatibilidade das remoções com as responsabilidades da Meta com os direitos humanos.

O Comitê tem frequentemente usado o teste de seis fatores do Plano de Ação de Rabat para avaliar se a incitação à violência ou à discriminação é provável e iminente. A maioria conclui que isso não foi cumprido em nenhum dos posts. Para eles, a probabilidade de discriminação ou violência iminentes representada pelo conteúdo é baixa por uma variedade de motivos. Como observado acima, o contexto histórico do Apartheid na África do Sul e de seu legado contínuo são importantes para a interpretação desses posts. Ao mesmo tempo, a democracia representativa relativamente estável do país desde o fim do Apartheid e sua robusta estrutura jurídica para proteger os direitos humanos também são relevantes, particularmente por terem passado pelas eleições na época desses posts. Os especialistas consultados pelo Comitê observaram que a retórica supremacista branca não era o maior problema durante as eleições de maio de 2024. Eles afirmaram que o período antecedendo essas eleições não foi caracterizado por violência inter-racial nem por chamadas para violência da minoria branca contra outros grupos raciais ou étnicos. Nenhum dos posts é de uma figura influente ou de alta visibilidade, o que reduz o risco de ambos os posts persuadirem alguém a participar de atos iminentes de discriminação ou violência. Nenhum dos posts inclui chamadas para ação. Eles não contêm um intuito claro de defesa a atos futuros de discriminação ou violência nem poderiam ser entendidos como uma incitação para as pessoas participarem desses atos. Dados esses diversos fatores, a maioria determina que as chances de violência ou discriminação resultarem desses posts não eram prováveis nem iminentes.

Banir discurso altamente ofensivo que não incita dano iminente e provável não faz com que ideias intolerantes desapareçam. Por outro lado, as pessoas com essas ideias são direcionadas a outras plataformas, frequentemente ocupadas por pessoas de mentalidade semelhante, em vez de por um grupo mais amplo de indivíduos. Isso pode exacerbar a intolerância em vez de permitir um discurso público mais transparente sobre os problemas.

A maioria acredita que uma variedade de outras ferramentas de moderação que não as remoções poderia servir como uma forma menos intrusiva de alcançar objetivos legítimos nesses casos. Eles reconhecem as possíveis ramificações emocionais negativas do conteúdo nesses casos, assim como o objetivo legítimo da Meta de evitar a discriminação. Como declarado pelo Comitê em uma de suas primeiras opiniões (Alegação sobre cura da Covid), a empresa deve antes buscar cumprir objetivos legítimos tomando medidas que não infrinjam o discurso. Se isso não for possível, a empresa deverá selecionar a ferramenta menos intrusiva para alcançar esse objetivo. Em seguida, ela deverá monitorar a efetividade da ferramenta selecionada. A Meta deve usar essa estrutura para justificar publicamente suas regras e ações de monitoramento.

De fato, o Relator Especial da ONU sobre liberdade de expressão observou que (A/74/486, para 51): “As empresas têm ferramentas para lidar com conteúdo de formas alinhadas aos direitos humanos, em alguns aspectos, uma variedade maior de ferramentas do que aquela de que dispõem os Estados.” O Comitê encoraja a Meta a explorar, de forma transparente, a expansão do seu kit de ferramentas de monitoramento e introduzir medidas intermediárias na aplicação dos seus Padrões da Comunidade sobre Conduta de Ódio, em vez de recorrer, por padrão, a uma escolha binária de manter ou remover. No caso Bot de Mianmar, o Comitê concluiu que “as responsabilidades elevadas não deveriam, por padrão, levar à remoção do conteúdo, visto que os riscos são altos tanto mantendo conteúdo prejudicial quanto removendo conteúdo que representa pouco ou nenhum risco de dano”. O Comitê insta a Meta a examinar como a remoção de conteúdo pode ser uma medida extrema que impacta a liberdade de expressão online de forma adversa. Ele também encoraja a empresa a considerar outras ferramentas, como a remoção do conteúdo nas recomendações ou a distribuição reduzida nos feeds dos usuários, em circunstâncias apropriadas.

Uma minoria dos Membros do Comitê observa que remover ambos os posts seria um limite necessário e proporcional à liberdade de expressão para assegurar o respeito pelos direitos à igualdade e à liberdade contra a discriminação para os sul-africanos não brancos. A minoria é orientada pelos fatores do Plano de Rabat para avaliar os riscos apresentados por discurso de ódio em potencial, incluindo os danos para os quais esses posts contribuíram (opus citatum).

Particularmente, uma minoria destaca os comentários públicos da Fundação Nelson Mandela e da Comissão de Direitos Humanos da África do Sul, entre outros. Eles confirmam as várias formas como a expressão nas plataformas da Meta apoiando, justificando ou glorificando, de outra forma, a segregação contribuem para que a discriminação após o Apartheid perdure (PC-30759; PC-30771; PC-30768; PC-30772; PC-30774). Os comentários abaixo de cada post, na sua maioria em afrikaans, que revelam um senso de supremacia branca baseada no colonialismo, confirmam para essa minoria, que o intuito do responsável pelo post de defender ódio em um ambiente de discriminação severa foi bem-sucedido. A minoria observa que, no caso Representação de Zwarte Piet, a maioria do Comitê manteve a remoção de um post com base nos seus efeitos na autoestima e na saúde mental das pessoas negras, mesmo que esses efeitos não tenham sido diretamente pretendidos pelo autor do post. Esse caso é relevante para além da África do Sul. Especialistas que o Comitê consultou observaram que os símbolos do Apartheid, incluindo a bandeira de 1928 a 1994, também foram cooptados por movimentos nacionalistas brancos em outras regiões do mundo. Isso inclui Dylann Roof, que atirou em nove membros da igreja de congregação negra nos Estados Unidos em 2015. Uma foto de Roof incluída na sua rede social o exibia vestindo uma jaqueta com um patch da bandeira da época do Apartheid (PC-30769).

Além disso, uma minoria reitera que a Meta, enquanto ator privado, pode remover discursos de ódio que adentram o limite da discriminação ou violência iminente, uma vez que isso está de acordo com o artigo 19(3) do PIDCP, que lista exigências de necessidade e proporcionalidade (relatório A/HRC/38/35, parágrafo 28). No caso Calúnias na África do Sul, o Comitê manteve a decisão da Meta de remover uma calúnia racial que se baseava significativamente nas particularidades do contexto sul-africano. Para uma minoria, neste caso, a remoção de ambos os posts é necessária não apenas para evitar a discriminação, mas também para garantir que o acúmulo de ódio na plataforma não tenha um efeito inibidor na liberdade de expressão das pessoas alvo de discurso de ódio repetidamente (ver também os casos Representação de Zwarte Piet,Violência comunitária no estado indiano de Odisha, Armênios no Azerbaijão e Animação Knin). Para essa minoria, as consequências da moderação de conteúdo nos direitos humanos dos usuários (especificamente, a remoção de discurso e a limitação de recursos ou a suspensão por violações recorrentes) são significativamente diferentes daquelas decorrentes da aplicação das leis sobre o discurso de ódio (como multas ou prisão). Por esses motivos, uma minoria acredita que remover ambos os posts de acordo com a regra de exclusão para conduta de ódio, assim como a proibição da “glorificação” para indivíduos e organizações perigosos, seria necessário e proporcional. Ademais, uma minoria observa que a aplicação precisa em escala da exceção para indivíduos e organizações perigosos no discurso social e político deveria assegurar que esse conjunto de regras não é aplicado excessivamente (overenforcement).

Devida diligência de recursos humanos

Os Princípios 13, 17 (c) e 18 dos UNGPs exigem que a Meta participe da devida diligência de direitos humanos para alterar, de forma significativa, suas políticas e aplicação, o que a empresa normalmente faria por meio de seu Fórum de Políticas de Produto, incluindo a participação de partes interessadas impactadas. O Comitê também demonstra preocupação com o anúncio apressado das alterações à política e à aplicação de 7 de janeiro de 2025, de forma diferente do procedimento regular, sem compartilhamento de informações públicas sobre questões como qual devida diligência de direitos humanos foi realizada.

Agora que essas mudanças estão sendo implementadas globalmente, é importante a Meta garantir que os impactos adversos dessas alterações sobre os direitos humanos sejam identificados, mitigados, prevenidos e divulgados publicamente. Isso deve incluir um foco em como as comunidades podem ser impactadas de formas diferentes, incluindo nas regiões de maioria global. No que diz respeito a alterações na aplicação, a devida diligência deve considerar tanto os riscos de overenforcement (aplicação excessiva) (Convocação das mulheres para protesto em Cuba, Ressignificação de palavras árabes) quanto de underenforcement (aplicação insuficiente) (Negação do Holocausto, Violência homofóbica na África Ocidental, Post em polonês contra pessoas trans).

O Comitê observa que muitas dessas alterações estão sendo lançadas globalmente, incluindo em países de maioria global, como a África do Sul e outros países com um histórico recente de crimes contra a humanidade, que não se limitam ao Apartheid. É especialmente importante a Meta assegurar que os impactos adversos dessas alterações aos direitos humanos nessas regiões são identificados, mitigados, prevenidos e contabilizados de forma pública o quanto antes, incluindo por meio de um forte envolvimento com as partes interessadas locais. O Comitê observa que, em 2018, a Meta citou a falha ao remover discurso de ódio do Facebook em situações de crise, como em Mianmar, como motivação para aumentar a dependência do monitoramento automatizado. Em muitas regiões do mundo, os usuários são menos propensos a interagir com as ferramentas da Meta de denúncia no app por uma variedade de motivos, tornando as denúncias de usuários um sinal não confiável de onde os piores danos podem estar ocorrendo. Portanto, é crucial que a Meta considere integralmente como os efeitos de quaisquer mudanças à detecção automatizada de conteúdo potencialmente violador, tanto para underenforcement quanto para overenforcement, podem ter efeitos desiguais globalmente, em especial nos países passando por crises, guerras e crimes de atrocidade recentes ou em curso.

6. A decisão do Comitê de Supervisão

O Comitê de Supervisão mantém as decisões da Meta de deixar ativos ambos os itens de conteúdo.

7. Recomendações

Política de conteúdo

1. Como parte da devida diligência de direitos humanos, a Meta deve realizar todas as seguintes etapas a respeito das atualizações aos Padrões da Comunidade sobre Conduta de Ódio em 7 de janeiro. Primeiro, a Meta deverá identificar como as atualizações a políticas e ao monitoramento podem afetar, de forma adversa, as populações em regiões de maioria global. Em segundo lugar, ela deverá adotar medidas para prevenir e/ou mitigar esses riscos e monitorar a efetividade deles. Em terceiro lugar, ela deverá atualizar o Comitê sobre seu progresso e descobertas a cada seis meses e fornecer relatórios públicos sobre isso o quanto antes.

O Comitê considerará que essa recomendação foi implementada quando a Meta fornecer ao Comitê dados e análises robustas sobre a eficácia de suas medidas de prevenção ou mitigação sobre a cadência do destacado acima e quando a Meta divulgar relatórios públicos sobre essa questão.

2. Para aprimorar a clareza dos seus Padrões da Comunidade sobre Organizações e Indivíduos Perigosos, a Meta deverá adotar uma única explicação clara e detalhada sobre como suas proibições e exceções de acordo com esse padrão da comunidade se aplicam a ideologias de ódio designadas.

O Comitê considerará essa recomendação implementada quando a Meta adotar uma explicação única, clara e detalhada sobre sua regra e suas exceções relacionados a ideologias de ódio designadas (em “nós removemos”).

3. Para aprimorar a clareza dos seus Padrões da Comunidade sobre Organizações e Indivíduos Perigosos, a Meta deverá listar o Apartheid como uma ideologia de ódio designada individual nas regras.

O Comitê considerará essa recomendação implementada quando a Meta adicionar o Apartheid a sua lista de ideologias de ódio designadas.

Monitoramento

4. Para aprimorar a clareza dos seus Padrões da Comunidade sobre Organizações e Indivíduos Perigosos aos analistas, a Meta deverá fornecer aos analistas mais exemplos globais sobre glorificação, apoio e representação proibidos relacionados a ideologias de ódio, incluindo exemplos que não nomeiam diretamente a ideologia listada.

O Comitê considerará essa recomendação implementada quando a Meta fornecer uma orientação interna atualizada ao Comitê incluindo mais exemplos globais, inclusive aqueles que não citam diretamente a ideologia listada.

*Nota processual:

  • As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
  • De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
  • Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas