Decisão de múltiplos casos

Posts em apoio aos motins no Reino Unido

Ao analisar três posts diferentes compartilhados durante os motins que ocorreram no Reino Unido entre 30 de julho e 7 de agosto de 2024, o Comitê anulou as decisões originais da Meta de deixar os posts no Facebook. Os posts criavam riscos de danos prováveis e iminentes durante um período de raiva contagiosa e violência crescente.

3 casos incluídos neste pacote

Anulado

FB-9IQK53AU

Caso sobre no Facebook

Plataforma
Facebook
विषय
Desinformação,Religião,Violência
Localização
Reino Unido
Date
Publicado em 23 de Abril de 2025
Anulado

FB-EAJQEE0E

Caso sobre no Facebook

Plataforma
Facebook
विषय
Desinformação,Religião,Violência
Localização
Reino Unido
Date
Publicado em 23 de Abril de 2025
Anulado

FB-93YJ4A6J

Caso sobre no Facebook

Plataforma
Facebook
विषय
Desinformação,Religião,Violência
Localização
Reino Unido
Date
Publicado em 23 de Abril de 2025

Resumo

Ao analisar três posts diferentes compartilhados durante os motins que ocorreram no Reino Unido entre 30 de julho e 7 de agosto de 2024, o Comitê anulou as decisões originais da Meta de deixar os posts no Facebook. Os posts criavam riscos de danos prováveis e iminentes. Eles deveriam ter sido removidos. O conteúdo foi postado durante um período de raiva contagiosa e violência crescente, alimentado por desinformação e informações enganosas nas redes sociais. O sentimento antimuçulmano e anti-imigrante se espalhou pelas ruas. A Meta ativou o Protocolo de Política de Crise (CPP, na sigla em inglês) em resposta aos motins e, posteriormente, identificou o Reino Unido como um local de alto risco em 6 de agosto. Essas ações foram tardias. A essa altura, todos os três itens de conteúdo já haviam sido postados. O Comitê está preocupado com o fato de a Meta ser muito lenta para implantar medidas em situações de crise, observando que isso deveria ter acontecido imediatamente para interromper a amplificação de conteúdo prejudicial.

Observação adicional: as revisões realizadas pela Meta em 7 de janeiro de 2025 na renomeada Política sobre Conduta de Ódio não alteraram o resultado desses casos. Durante o processo de deliberação, o Comitê considerou tanto as regras vigentes no momento da postagem quanto as atualizações feitas. Sobre as alterações mais abrangentes na política e na aplicação anunciadas apressadamente pela Meta em janeiro, o Comitê mostra preocupação com o fato de que a Meta não compartilhou publicamente quais diligências anteriores sobre direitos humanos foram realizadas, se alguma, de acordo com seus compromissos segundo os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos. É crucial que a Meta garanta a identificação e a prevenção de qualquer impacto adverso sobre os direitos humanos globalmente.

Sobre os casos

No primeiro caso, um post contendo apenas texto compartilhado no início dos motins pedia que as mesquitas fossem destruídas e que os prédios onde vivem “migrants” (migrantes), “terrorists” (terroristas) e “scum” (escória) fossem incendiados. Esse post teve mais de mil visualizações.

O segundo e o terceiro casos envolvem reposts de imagens provavelmente geradas por IA. Uma delas é a de um homem gigante vestindo uma camiseta com a Bandeira da União perseguindo homens muçulmanos mais baixos de forma ameaçadora. O texto sobre a imagem indica a hora e o local para se reunir em um dos protestos e inclui a hashtag “EnoughIsEnough” (Basta), enquanto a legenda que a acompanha diz: “Here we go again” (Lá vamos nós de novo). Esse post teve menos de mil visualizações. A outra imagem mostra quatro homens muçulmanos em frente ao Parlamento correndo atrás de uma criança loira que está chorando. Um dos homens segura uma faca, enquanto, acima, um avião voa em direção ao Big Ben. Essa imagem inclui o logotipo de uma conta influente de rede social conhecida por comentários anti-imigração na Europa, incluindo desinformação e informações enganosas. O post teve mais de mil visualizações.

Todos os três posts foram denunciados por outros usuários do Facebook por discurso de ódio ou violência. A Meta manteve todos os três após análises feitas apenas por seus sistemas automatizados. Depois que os usuários fizeram apelações ao Comitê e esses casos foram selecionados, o conteúdo foi analisado por humanos, com a Meta removendo o post contendo apenas texto no primeiro caso. A empresa confirmou as decisões originais de manter as duas imagens provavelmente geradas por IA.

Entre 30 de julho e 7 de agosto de 2024, motins violentos eclodiram no Reino Unido depois que três meninas foram assassinadas na cidade de Southport. Logo após esse ataque com faca, a desinformação se espalhou nas redes sociais, sugerindo falsamente que o autor do crime era muçulmano e requerente de asilo.

Principais descobertas

O Comitê constatou que tanto o post contendo apenas texto quanto a imagem do homem gigante violam a Política sobre Violência e Incitação, que não permite ameaças de violência de alta gravidade contra um alvo ou ameaças de violência contra indivíduos ou grupos com base em características protegidas e status de imigração. O post contendo apenas texto apresenta uma ameaça geral e incitação à violência contra pessoas e propriedades, além de identificar alvos com base na religião e no status de imigração. A imagem do homem gigante é um claro apelo para que as pessoas se reúnam e realizem atos de violência discriminatória em um determinado momento e local. A conclusão da Meta de que essa imagem de um homem agressivo perseguindo homens muçulmanos em fuga, combinada com uma hora e um local e com a hashtag “EnoughIsEnough” (Basta), não contém nenhum alvo ou ameaça é pouco crível. Esse conteúdo foi compartilhado em 4 de agosto, no auge dos motins que duraram uma semana. A essa altura, já havia contexto mais do que suficiente para justificar a remoção.

A imagem gerada por IA que mostra quatro homens muçulmanos perseguindo uma criança loira que está chorando infringiu a regra da Política sobre Conduta de Ódio (anteriormente chamada de Discurso de Ódio), ao atacar pessoas com base em suas características protegidas, inclusive fazendo uma alegação de criminalidade grave. A Meta interpretou esse post como sendo uma declaração qualificada em forma visual, referindo-se especificamente ao “homem ou homens muçulmanos que foram incorretamente acusados de esfaquear as crianças em Southport”. Antes de 7 de janeiro, a orientação interna da Meta permitia declarações qualificadas que não generalizassem todos os membros de um grupo como criminosos. O Comitê discorda da forma como a Meta aplicou a regra neste caso, ressaltando que a imagem não constitui uma declaração qualificada, pois não retrata o esfaqueamento ocorrido em Southport de nenhuma forma. A imagem é de Londres (e não de Southport) e mostra quatro homens (em vez de um) correndo atrás de uma criança do sexo masculino (em vez de três meninas), além de um avião voando em direção ao Big Ben — elemento que evoca imagens do 11 de setembro e retrata os muçulmanos como uma ameaça à Grã-Bretanha.

Ao analisar esses casos, o Comitê observou problemas de clareza em relação às Políticas sobre Violência e Incitação e Conduta de Ódio, causados por discrepâncias entre as regras apresentadas ao público e as diretrizes internas. O Comitê também tem grandes preocupações quanto à capacidade da Meta de moderar com precisão imagens de ódio e violência. Como os especialistas da Meta não conseguiram identificar violações em ambas as imagens provavelmente geradas por IA, isso indicaria que a orientação atual para os analistas é muito padronizada, ignora como as imagens visuais funcionam e está desatualizada.

Por fim, o Comitê observa que, durante os motins, a Meta contou com verificadores de fatos independentes para analisar determinados itens de conteúdo que mencionavam o nome falso do agressor de Southport, rotulando-os como “falsos” e reduzindo sua visibilidade. Diante da substituição do sistema de verificação de fatos independente nos Estados Unidos, o Comitê recomenda que a Meta analise a experiência de outras plataformas que utilizam as Notas da Comunidade e conduza pesquisas sobre sua eficácia.

A decisão do Comitê de Supervisão

O Comitê revoga as decisões originais da Meta de deixar ativos os três posts.

O Comitê também recomenda que a Meta faça o seguinte:

  • Especifique que todas as ameaças de violência de alta gravidade contra lugares são proibidas, assim como contra pessoas.
  • Desenvolva critérios claros e robustos para identificar o que pode constituir alegações de criminalidade grave, com base em características protegidas, em formato visual. Esses critérios devem estar alinhados aos padrões existentes para condutas de ódio em conteúdo de texto, com as devidas adaptações.
  • Analise os critérios para iniciar o Protocolo de Política de Crise, incluindo a identificação dos principais critérios que, quando atendidos, são suficientes para a ativação imediata do protocolo.
  • De acordo com o Protocolo de Política de Crise, garanta que possíveis violações de política que possam levar a uma violência provável e iminente sejam sinalizadas para analistas humanos internos, que devem fornecer orientação baseada em contexto e com prazo determinado para os analistas em escala.
  • Realize análises contínuas da eficácia das Notas da Comunidade, em comparação com a verificação de fatos independente, particularmente relevante para situações em que a rápida disseminação de informações falsas gera riscos à segurança pública.

*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.

Decisão completa sobre o caso

1. Descrição do caso e histórico

O Comitê de Supervisão analisou três casos envolvendo conteúdo postado por diferentes usuários no Facebook durante os motins no Reino Unido entre 30 de julho e 7 de agosto de 2024.

Os motins ocorreram após um ataque com faca durante um workshop de dança em Southport, em 29 de julho, no qual três meninas foram mortas e outras dez ficaram feridas. Axel Rudakubana, um jovem britânico de 17 anos, foi imediatamente preso e posteriormente condenado pelo ataque. No entanto, desinformações e informações enganosas sobre sua identidade, incluindo um nome falso, rapidamente circularam online após o ataque, afirmando erroneamente que ele era muçulmano e um requerente de asilo recém-chegado à Grã-Bretanha de barco. Um desses posts foi compartilhado mais de seis milhões de vezes. Apesar de uma declaração da polícia ao meio-dia do dia 30 de julho, contestando os boatos online, protestos anti-imigração e antimuçulmanos ocorreram em 28 cidades e vilas, e muitos deles acabaram se transformando em motins. Eles mobilizaram milhares de pessoas, incluindo grupos antimuçulmanos e anti-imigração. Centros de refugiados e hotéis que abrigavam imigrantes estavam entre os diversos edifícios atacados ou incendiados. Além disso, houve registros de saques e outros episódios de desordem. A violência fez com que muitas pessoas ficassem feridas, incluindo mais de 100 policiais. Em 1º de agosto, uma ordem judicial retirou o anonimato do agressor de Southport, que era menor de idade, para acabar com a desordem, mas não teve sucesso imediato.

O primeiro post analisado pelo Comitê foi compartilhado dois dias após os assassinatos. Nele, o autor apoiava os motins em andamento, pedindo que as mesquitas fossem destruídas e que os prédios onde vivem “migrants” (migrantes), “terrorists” (terroristas) e “scum” (escória) fossem incendiados. O post reconheceu que os tumultos danificaram propriedades privadas e feriram policiais, mas argumentou que essa violência era necessária para que as autoridades ouvissem e acabassem com “all the scum coming into Britain” (toda a escória que entra na Grã-Bretanha). O post pedia àqueles que discordavam dos motins que pensassem no assassinato das “little girls” (garotinhas), afirmando que elas não seriam “the last victims” (as últimas vítimas) se o público não fizesse algo. O post teve mais de mil visualizações e menos de 50 comentários.

O segundo post foi compartilhado seis dias após o ataque e é um recompartilhamento de outro post. Ele apresenta o que parece ser uma imagem gerada por IA de um homem branco gigante, raivoso e agressivo, usando uma camiseta com a Bandeira da União (a bandeira do Reino Unido), perseguindo ameaçadoramente vários homens muçulmanos menores e em fuga. A imagem é acompanhada pela legenda: “Here we go again” (Lá vamos nós de novo). Uma sobreposição de texto fornece o horário e o local para um protesto na cidade de Newcastle, marcado para 10 de agosto, e inclui a hashtag “EnoughIsEnough” (Basta). Esse conteúdo teve menos de mil visualizações.

O terceiro post, compartilhado dois dias após o ataque, é um repost de outra imagem provavelmente gerada por IA. Ela mostra quatro homens muçulmanos, com barba e vestidos com kurtas (túnicas tradicionais) brancas, em frente ao Parlamento, em Londres, correndo atrás de uma criança loira que está chorando e usa uma camiseta com a Bandeira da União. Um dos homens carrega uma faca. Um avião voa em direção ao Big Ben, aparentemente uma referência aos ataques terroristas de 11 de setembro de 2001 em Nova York. A legenda inclui as palavras “Wake up” (Acorde) e o logotipo de uma conta influente de rede social conhecida por comentários anti-imigração na Europa, incluindo desinformações e informações enganosas. Esse item de conteúdo teve mais de mil visualizações e menos de 50 comentários.

Os usuários do Facebook denunciaram todos os três posts por violarem as Políticas sobre Discurso de Ódio (essa renomeada para Conduta de Ódio) ou Violência e Incitação. As ferramentas automatizadas da Meta avaliaram os três posts como não violadores, e eles foram mantidos. Quando os usuários fizeram uma apelação à Meta, os sistemas automatizados da empresa confirmaram as decisões de deixar o conteúdo. Com a seleção desses casos pelo Comitê, foi a primeira vez em que qualquer um dos três posts foi analisado por humanos. Depois disso, a Meta reverteu sua decisão sobre o post contendo apenas texto, removendo-o por violar a Política sobre Violência e Incitação, mas confirmou suas decisões originais sobre os outros dois posts.

Em 7 de janeiro de 2025, a Meta anunciou alterações à sua Política sobre Discurso de Ódio, renomeando-a para Política sobre Conduta de Ódio. Essas alterações, na medida do necessário para esses casos, serão descritas na Seção 3 e analisadas na Seção 5. O Comitê observa que os conteúdos são acessíveis nas plataformas da Meta de forma contínua e que as políticas atualizadas são aplicadas a todos os conteúdos presentes na plataforma, independentemente de quando tenham sido postados. Portanto, o Comitê avalia a aplicação das políticas conforme eram na época da postagem e, se aplicável, conforme estão após a revisão (consulte também a abordagem em Negação do Holocausto).

2.Envios de usuários

Nenhum dos usuários que postou o conteúdo nesses casos respondeu aos convites para enviar uma declaração ao Comitê.

Os usuários que denunciaram os posts forneceram declarações ao Comitê alegando que os posts estavam claramente incentivando as pessoas a participar de protestos racistas, incitando a violência contra imigrantes e muçulmanos ou incentivando os apoiadores de extrema direita a continuar os motins. Um dos usuários afirmou ser imigrante e relatou ter se sentido ameaçado pelo post objeto de sua apelação.

3. Políticas de conteúdo e envios da Meta

I. Políticas de conteúdo da Meta

Violência e incitação

O fundamento da Política sobre Violência e Incitação da Meta prevê que a empresa remova “palavras que incitem ou facilitem a violência e ameaças reais à segurança pública ou privada”, incluindo “discursos violentos direcionados a uma pessoa ou um grupo de pessoas com base em suas características protegidas ou status de imigração”. Ele também explica que a Meta considera “a linguagem e o contexto para distinguir declarações de conscientização ou casuais de conteúdo que constitua uma ameaça real à segurança pública ou privada”.

A política afirma que todos estão protegidos contra “ameaças de violência que possam levar à morte (ou outras formas de violência de alta gravidade)” e contra “ameaças de violência que possam causar ferimentos graves (violência de média gravidade)”. A orientação interna da Meta para moderadores estabelece que essa proteção também se aplica a ataques contra locais, quando houver risco de causar morte ou ferimentos graves a uma pessoa. Isso inclui convocações para incendiar ou atacar um local. A política não exige que os moderadores verifiquem se há pessoas dentro do edifício.

A política define ameaças de violência como “declarações ou representações visuais de uma intenção, pretensão ou incitação à violência contra um alvo, e as ameaças podem ser expressas por meio de diversos tipos de declarações, como declarações de intenção, incitações, defesa, expressões de esperança e afirmações de pretensão ou condição”.

Política sobre Conduta de Ódio (anteriormente chamada de Discurso de Ódio)

A Meta define “conduta de ódio” da mesma forma que definiu “discurso de ódio” anteriormente, como “ataques diretos contra pessoas” com base em características protegidas, que incluem raça, etnia, religião e nacionalidade. A política continua protegendo “refugiados, migrantes, imigrantes e requerentes de asilo” sob o Nível 1, que a Meta classifica como os ataques mais severos. No entanto, eles não estão protegidos contra ataques classificados no Nível 2, que permite “comentários e críticas às políticas de imigração”. De acordo com o fundamento da política, isso se deve ao fato de que as pessoas às vezes “pedem exclusão ou recorrem a linguagem ofensiva ao abordar tópicos políticos ou religiosos, como ao discutir (...) imigração”. Agora, a Meta afirma explicitamente que suas “políticas foram criadas para dar espaço a esses tipos de discurso”.

O Nível 1 da política proíbe ataques diretos que visem pessoas com base em uma característica protegida ou status de imigração com “alegações de imoralidade e criminalidade graves”, citando criminosos violentos (“terroristas” e “assassinos”) como exemplos.

Antes de 7 de janeiro, a orientação interna da Meta para analistas permitia “declarações comportamentais qualificadas”, distinguindo-as de generalizações proibidas, como declarações comportamentais não qualificadas que alegam criminalidade grave. Declarações comportamentais qualificadas descrevem as ações que indivíduos ou grupos realizaram ou sua participação em eventos, mencionando sua característica protegida ou status de imigração. As generalizações proibidas atribuem características inerentes a todos ou à maioria dos membros de um grupo, como afirmar que são “assassinos” ou que “matam”. Desde 7 de janeiro, a orientação da Meta aos analistas não proíbe mais declarações comportamentais, incluindo aquelas direcionadas a um grupo inteiro com características protegidas ou com base no status de imigração. Ou seja, dizer que um grupo com característica protegida “mata” não seria violador como uma declaração comportamental.

II. Envios da Meta

Post que contém apenas texto

A Meta reverteu sua decisão original sobre esse caso, removendo-o por violar a Política sobre Violência e Incitação. Ela fez isso porque os apelos para que as pessoas se revoltem, “smash mosques” (destruam mesquitas) e “do damage to buildings” (causem danos a edifícios) onde “migrants” (migrantes) e “terrorists” (terroristas) estão vivendo são “declarações que defendem a violência contra um local que pode resultar em morte ou ferimentos graves”.

Post do homem gigante

A Meta considerou que esse post não violou a Política sobre Violência e Incitação. Embora contenha uma convocação para que as pessoas participem de uma manifestação específica, de acordo com a Meta, não contém uma ameaça de violência contra pessoas ou propriedades. A Meta enfatizou que sua política, baseada em seu valor de “voz”, visa proteger o discurso político relacionado a protestos. Portanto, mesmo com a desordem generalizada em andamento, um post precisaria conter uma ameaça ou um alvo claro para ser uma violação.

Post dos quatro homens muçulmanos

A Meta considerou que o post não violou a Política sobre Conduta de Ódio (anteriormente chamada de Discurso de Ódio). Embora generalizações, como atacar todos ou a maioria dos muçulmanos como criminosos violentos, sejam uma violação, “referir-se a muçulmanos específicos como criminosos violentos” não seria. A Meta interpretou a imagem como uma referência a “um homem ou homens muçulmanos específicos que foram erroneamente acusados de esfaquear as crianças em Southport”, devido às informações falsas que circulavam na época.

Medidas em situações de crise

Em resposta às perguntas feitas pelo Comitê, a Meta explicou que ativou o CPP em agosto e designou todo o Reino Unido como “local de alto risco temporário” (THRL, na sigla em inglês) de 6 a 20 de agosto, assim que o CPP foi ativado. O THRL é um mecanismo que permite que a Meta implemente medidas de segurança adicionais, como restrições de conteúdo adicionais ou monitoramento proativo para evitar incitação à violência em locais identificados como de alto risco devido a eventos do mundo real. Durante esse período, a Meta removeu todos os apelos para levar armas a qualquer local no Reino Unido ou para entrar à força em locais de alto risco. A empresa não criou um Centro de Operações de Produtos de Integridade (IPOC, na sigla em inglês), que a Meta descreve como uma “medida que reúne diferentes equipes, especialistas no assunto e recursos de toda a empresa (...) para responder em tempo real a possíveis problemas ou tendências”.

Verificação de fatos independente

A Meta contou com verificadores de fatos independentes para analisar o conteúdo durante os motins e avaliar a precisão dele. A Meta manteve na plataforma “vários itens de conteúdo... com o nome falso do criminoso de Southport”, classificados como “falsos”, mas adicionou rótulos a esses itens de conteúdo. Ela também removeu o conteúdo das recomendações e o rebaixou no feed dos usuários que seguem a conta. A Meta afirma ter reduzido a visibilidade desse conteúdo “poucas horas após sua postagem na plataforma”. A Meta também estabeleceu um grupo de trabalho interno com pessoas das equipes de políticas, operações e apoio a autoridades policiais para monitorar e responder à situação.

O Comitê fez 13 perguntas à Meta sobre medidas específicas em situações de crise adotadas durante os motins no Reino Unido, incluindo o papel de verificadores de fatos independentes, detalhes sobre os recursos de seus classificadores de Discurso de Ódio, como o contexto dos motins influenciou a análise do conteúdo pela Meta, se algum dos posts foi rebaixado e os riscos à liberdade de expressão e ao acesso à informação decorrentes da over-enforcement (aplicação excessiva). A Meta respondeu a todas essas perguntas.

4. Comentários públicos

O Comitê de Supervisão recebeu nove comentários públicos que atenderam aos termos para envio. Cinco dos comentários foram enviados da Europa, três dos Estados Unidos e do Canadá e um do Oriente Médio e Norte da África. Dado que o período para comentários públicos foi encerrado antes de 7 de janeiro de 2025, nenhum dos comentários abordou as alterações nas políticas que a Meta anunciou nessa data. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.

Os envios abordaram os seguintes temas: o papel das redes sociais nos motins de 2024 no Reino Unido, incluindo a disseminação de desinformação e a organização e coordenação de motins; os vínculos entre o discurso online contra imigrantes e muçulmanos e a violência; o uso de imagens em discursos de ódio e desumanização; os riscos para a liberdade de expressão decorrentes da over-enforcement; e medidas de moderação que não sejam a remoção de conteúdo.

5. Análise do Comitê de Supervisão

O Comitê selecionou esses casos para avaliar como a Meta garante a liberdade de expressão em discussões sobre imigração enquanto respeita os direitos humanos dos imigrantes e das minorias religiosas no contexto de uma crise. Esse caso se enquadra nas prioridades estratégicas do Comitê, relacionadas a situações de crise e conflito, bem como ao discurso de ódio contra grupos marginalizados.

O Comitê analisou as decisões da Meta nesses casos em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da empresa. Ele também avaliou as implicações desses casos quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.

5.1 Conformidade com as políticas de conteúdo da Meta

I. Regras sobre conteúdo

Post que contém apenas texto

O Comitê considera que o post viola a Política sobre Violência e Incitação da Meta, que proíbe ameaças reais de violência de alta gravidade contra alvos específicos, bem como ameaças de violência contra indivíduos ou grupos com base na religião como uma característica protegida e no status de imigração.

Embora as pessoas muitas vezes postem linguagem violenta ou ameaçadora online como hipérbole ou de forma não séria e em tom de brincadeira, a linguagem e o contexto distinguem declarações casuais de ameaças reais à segurança pública ou privada. Esse post incentiva explicitamente as pessoas a se revoltar, “smash mosques” (quebrar mesquitas) e “do damage to buildings” (danificar prédios) onde “migrants” (migrantes) e “terrorists” (terroristas) estão vivendo. Isso o torna uma clara violação da Política sobre Violência e Incitação da Meta de duas maneiras: primeiro, pela ameaça geral e incitação de violência de alta gravidade contra pessoas e propriedades; segundo, pelo fato de os alvos específicos serem identificados com base na religião e no status de imigração. Não é possível interpretar esse post como uma declaração casual ou não séria. Ele foi publicado em 31 de julho, enquanto a violência se espalhava pelo Reino Unido, um dia depois que um grupo jogou tijolos e bombas de gasolina em uma mesquita e incendiou um carro de polícia, ferindo oito policiais. Nas semanas seguintes, ocorreram episódios de violência semelhantes em todo o país.

Post do homem gigante

O Comitê considera que o post viola a Política sobre Violência e Incitação da Meta, que proíbe ameaças de violência contra indivíduos ou grupos com base na religião como uma característica protegida e no status de imigração.

O Comitê observa que não há palavras escritas nesse post que incitem direta e expressamente as pessoas a praticar violência. No entanto, esse conteúdo demonstra como as imagens combinadas com referências escritas menos diretas à violência também podem ser uma forma clara de incitação.

O texto sobreposto à imagem especificava a data, a hora e o local onde as pessoas deveriam se reunir, em um monumento específico em Newcastle, no dia 10 de agosto. O conteúdo foi postado depois de vários dias de tumultos violentos em todo o país, nos quais muçulmanos e imigrantes foram alvos e as pessoas já haviam, entre outras coisas, atacado um hotel que abrigava requerentes de asilo, incendiado uma biblioteca e um centro comunitário e agredido policiais com garrafas e latas. A legenda “Here we go again” (Lá vamos nós de novo), combinada com a imagem de um homem branco gigante perseguindo agressivamente homens menores de pele morena em trajes islâmicos, é um claro incentivo à continuidade desses atos de violência discriminatória e intimidação em um horário e local específicos. Embora a declaração “Enough Is Enough” (Basta) pudesse ser, isoladamente e separada de seu contexto, uma declaração política não violenta sobre imigração, ela havia sido usada como uma hashtag para organizar motins anteriores e conectar pessoas com essa finalidade.

O Comitê considera que os elementos combinados desse post deixam clara a violação da política de conteúdo. A conclusão da Meta de que a imagem não contém nenhum alvo ou ameaça é pouco convincente e levanta questões sobre o motivo de a empresa ter demorado tanto para ativar o Protocolo de Política de Crise. Quando o post foi compartilhado, já havia contexto mais do que suficiente sobre a disseminação online das informações relacionadas aos motins para que seus elementos incitantes e violadores fossem identificados, caso conteúdos como esse tivessem sido priorizados para análise humana e houvesse orientação interpretativa adequada.

Post dos quatro homens muçulmanos

O Comitê considera que o conteúdo do terceiro caso viola a proibição de Conduta de Ódio da Meta, no que diz respeito a alegações de criminalidade grave contra um grupo com características protegidas. Essa avaliação permanece a mesma após as alterações na política em 7 de janeiro.

Nesse caso, a imagem de homens muçulmanos perseguindo uma criança loira que está chorando, juntamente com a imagem de terroristas, generaliza a ideia de que os muçulmanos são criminosos violentos e terroristas, além de uma ameaça ao povo britânico e às crianças especificamente.

A imagem é um exemplo muito claro de um clichê desumanizante que busca aproveitar o sentimento anti-imigração mobilizando estereótipos antimuçulmanos. Por meio de seus elementos, o post generaliza os muçulmanos como uma ameaça nacional coletiva, retratando-os como ameaçadores e atribuindo falsamente a criminalidade e a violência a eles como um grupo definido por sua religião. Associando visualmente os muçulmanos a um dos eventos terroristas mais infames da história moderna, a imagem sugere falsamente que todos os muçulmanos são terroristas e um perigo para a Grã-Bretanha.

O Comitê discorda da avaliação da Meta de que a imagem era uma “declaração qualificada”, ou seja, que a representação de um muçulmano segurando uma faca se referia ao suposto autor do ataque em Southport, e não aos muçulmanos em geral. Para o Comitê, embora esse conteúdo tenha sido postado no contexto da desordem pública após os esfaqueamentos em Southport e busque explorar as emoções exacerbadas em torno deles, ele não representa visualmente esses eventos. Na época em que a imagem foi postada, sabia-se que o agressor de Southport era uma pessoa solitária e não um muçulmano, que as vítimas eram três meninas e não uma criança do sexo masculino e que os ataques não tinham nenhuma associação com Londres ou com os ataques terroristas de 11 de setembro. Inferir que a representação de quatro homens muçulmanos poderia ser uma referência a esse agressor solitário é incorreto. Além disso, mesmo que o conteúdo retratasse um muçulmano solitário, seria uma lógica estranha invocar a desinformação amplamente alimentada pelo preconceito antimuçulmano para permitir o discurso de ódio.

II. Medida de aplicação

Os dois casos de violações das Políticas sobre Violência e Incitação e Conduta de Ódio da Meta, envolvendo conteúdo visual, levantam preocupações sobre a forma como a empresa modera conteúdos prejudiciais quando são apresentados por meio de imagens, e não de texto. O Comitê já tinha demonstrado preocupações semelhantes em Posts em polonês contra pessoas trans, Racismo com Planeta dos Macacos, Montagem de vídeo com memes de ódio, Caricatura sobre conspiração da mídia e Animação Knin. Essa preocupação se intensifica nesses casos, pois eles demonstram como as barreiras para a criação de discursos visuais persuasivos de ódio e incitação à violência estão diminuindo drasticamente com o desenvolvimento de novas ferramentas de IA. Embora o uso de uma imagem gerada automaticamente não determine, por si só, se o conteúdo viola as políticas, o avanço das ferramentas de IA pode aumentar significativamente a prevalência desse conteúdo. Isso exige que a Meta garanta que suas ferramentas automatizadas sejam mais bem treinadas para detectar violações em imagens e priorize sua análise humana até que a análise automatizada seja mais confiável.

O Comitê está preocupado com a demora da Meta em ativar seu Protocolo de Política de Crise, um mecanismo que a empresa criou em resposta a recomendações anteriores do Comitê. A empresa levou quase uma semana inteira para designar o Reino Unido como um “local de alto risco temporário”. Como parte dessa medida, a Meta instituiu proibições temporárias de apelos para levar armas ou entrar à força em locais específicos.

O Comitê acredita que a ativação do Protocolo de Política de Crise teria sido mais eficaz se tivesse sido implementado imediatamente, nas horas e dias críticos após o ataque, quando informações falsas sobre o agressor se espalharam rapidamente online e as redes sociais foram usadas para organizar e coordenar a violência alimentada por sentimentos racistas, anti-imigração e antimuçulmanos.

Intervenções adicionais poderiam ter facilitado uma moderação proativa mais rápida e precisa do conteúdo vinculado aos motins, interrompendo a amplificação de conteúdo prejudicial e potencialmente reduzindo o risco de mais danos. Ferramentas operacionais poderiam ter sido implementadas para identificar e analisar conteúdo potencialmente violador, examinar proativamente as plataformas em busca de palavras-chave ou hashtags específicas e designar equipes regionais especializadas. Essas equipes poderiam ter fornecido contexto e orientação adicionais aos analistas em escala que moderavam o discurso de ódio e a incitação, incluindo em formas visuais.

O Comitê enfatiza que as decisões para ativar medidas relacionadas a crises devem ser tomadas o mais rápido possível. Para isso, a empresa deve identificar os principais critérios que, quando atendidos em combinações predefinidas ou individualmente, acionam a ativação imediata do Protocolo de Política de Crise. Além disso, essa avaliação deve ser repetida durante toda a crise para garantir que as medidas em vigor sejam adequadas, eficazes e adaptadas aos riscos em evolução.

5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos

O Comitê considera que a remoção dos três posts, conforme exigido pela devida interpretação das políticas de conteúdo da Meta, também é consistente com as responsabilidades da Meta com os direitos humanos.

Liberdade de expressão (Artigo 19 do PIDCP)

O artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP) prevê uma proteção ampla da expressão, inclusive sobre opiniões políticas, assuntos públicos e direitos humanos (Comentário Geral n.º 34 , parágrafos 11 e 12). Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3 do PIDCP). Esses requisitos costumam ser chamados de “teste tripartite”.

O Comitê usa esse modelo para interpretar as responsabilidades da Meta relativas aos direitos humanos de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), com os quais a própria Meta se comprometeu em sua Política Corporativa sobre Direitos Humanos. O Comitê faz isso em relação tanto à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. De acordo com o Princípio 13 dos UNGPs, as empresas devem “evitar causar ou contribuir para impactos adversos sobre os direitos humanos por meio de suas próprias atividades” e “prevenir ou mitigar impactos adversos sobre os direitos humanos que estejam diretamente ligados às suas operações, produtos ou serviços”. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, o impacto delas exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” ( A/74/486, parágrafo 41). Ao mesmo tempo, quando as regras da empresa diferem de normas internacionais, as empresas devem fornecer uma explicação detalhada da diferença da política com antecedência (ibid., parágrafo 48).

I. Legalidade (clareza e acessibilidade das regras)

O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral n.º 34, parágrafo 25). Além disso, essas regras “não podem conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritas e quais tipos não são” (Ibid). O Relator Especial da ONU sobre liberdade de expressão declarou que, quando aplicadas à governança do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.

O Comitê considera que não está claro para os usuários que a Política sobre Violência e Incitação da Meta proíbe ameaças contra pessoas e também contra lugares, observando que, no contexto dos motins no Reino Unido, muitos lugares foram alvo de ameaças devido à sua associação com muçulmanos, requerentes de asilo e imigrantes.

O Comitê considera que a proibição da Política sobre Conduta de Ódio para alegações sobre “criminosos violentos (incluindo, entre outros: terroristas e assassinos)” é suficientemente clara quando aplicada ao post dos quatro homens muçulmanos. No entanto, a tentativa da Meta de distinguir generalizações proibidas sobre as qualidades inerentes de um grupo inteiro de declarações comportamentais permitidas que podem não se aplicar a um grupo inteiro (ou seja, referir-se a um grupo como “terroristas” ou “assassinos” em comparação a dizer que eles “assassinam”) causa uma confusão significativa. Ambas podem ser generalizações desumanizantes, dependendo do contexto, e a distinção no monitoramento pode criar percepções de arbitrariedade.

II. Objetivo legítimo

Qualquer restrição à liberdade de expressão deve buscar alcançar um dos objetivos legítimos do PIDCP, que inclui os “direitos de terceiros” e a “proteção da ordem pública” (Artigo 19, parágrafo 3 do PIDCP). O Comitê já expressou anteriormente que a Política sobre Violência e Incitação da Meta tem o objetivo legítimo de proteger a ordem pública e os direitos de terceiros, incluindo, em particular, o direito à vida (consulte Mulher iraniana confrontada na rua e Gabinete de Comunicações da Região do Tigré). O Comitê também expressou anteriormente que a Política sobre Discurso de Ódio da Meta (renomeada para Conduta de Ódio) visa proteger o direito à igualdade e à não discriminação, um objetivo legítimo que é reconhecido pelos padrões internacionais de direitos humanos (consulte, por exemplo, os casos Animação Knin e Bot de Mianmar). Esse continua sendo um objetivo legítimo da Política sobre Conduta de Ódio.

III. Necessidade e proporcionalidade

Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para cumprir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral n.º 34, parágrafo 34). O Relator Especial sobre liberdade de expressão também observou que, nas redes sociais, “a dimensão e a complexidade de abordar a expressão de ódio apresenta desafios de longo prazo” (A/HRC/38/35, parágrafo 28). Entretanto, de acordo com o Relator Especial, as empresas devem “demonstrar a necessidade e a proporcionalidade de qualquer ação no conteúdo (como remoções ou suspensões de contas)”. As empresas têm a obrigação de “avaliar o mesmo tipo de questões sobre a proteção do direito de liberdade de expressão de seus usuários” (ibid parágrafo 41).

O valor da expressão é particularmente alto quando se discutem assuntos de interesse público, e o direito à liberdade de expressão é fundamental na avaliação do discurso político e de comentários sobre assuntos públicos. As pessoas têm o direito de buscar, receber e transmitir ideias e opiniões de todos os tipos, incluindo aquelas que podem ser controversas ou extremamente ofensivas (Comentário Geral n.º 34, parágrafo 11). Na decisão do caso Comentário de político sobre mudanças demográficas, o Comitê concluiu que, embora controversa, a expressão dessa opinião sobre imigração não incluiu expressões desumanizantes ou de ódio diretas direcionadas a grupos vulneráveis ou incitações à violência. No entanto, quando essas condições são atendidas, isso pode justificar a remoção do conteúdo (consulte também a decisão do caso Críticas às políticas de imigração da UE e aos imigrantes).

O Comitê considera que todos os três posts deveriam ter sido removidos de acordo com as políticas da Meta, e que sua remoção é necessária e proporcional, considerando os seis fatores descritos no Plano de ação de Rabat (Plano de ação de Rabat, OHCHR, A/HRC/22/17/Add.4, 2013). Esses fatores são: o contexto social e político, o status do autor, a intenção de incitar ações contra um grupo específico, o conteúdo e a forma do discurso, a extensão da disseminação e a probabilidade e a iminência do dano.

  • Contexto: os motins em andamento foram marcados por uma crescente violência que visava atingir grupos específicos. Os motins foram alimentados por desinformação viral nas redes sociais, muitas vezes amplificada por contas influentes (consulte também o comentário público do Institute for Strategic Dialogue, PC-30832). Algumas dessas contas estavam vinculadas a grupos e indivíduos de extrema direita. Eles usaram o aumento da atividade online para organizar e mobilizar pessoas para protestos antimuçulmanos do lado de fora da mesquita em Southport. Esses protestos se tornaram violentos, assim como muitas manifestações posteriores, incluindo as de Sunderland, Rotherham e Manchester.
  • Conteúdo e formato: conforme descrito acima, o conteúdo dos três posts, seja na forma escrita ou visual, seria claramente entendido como um incentivo para que as pessoas se juntassem aos motins, seja diretamente ou por meio da utilização de linguagem desumanizante e de ódio contra muçulmanos e imigrantes em meio a motins violentos.
  • Status, intenção e extensão do autor: no contexto de grave desordem pública, posts, mesmo de figuras não influentes, que incentivavam atos específicos de violência, tinham o potencial de se tornar virais e causar grandes danos. O terceiro item de conteúdo, que mostrava quatro homens muçulmanos perseguindo uma criança, também exibia o logotipo de uma importante conta de rede social. Em dezembro de 2024, a Radio Free Europe publicou uma investigação documentando o padrão da conta de disseminar informações falsas direcionadas a imigrantes e as medidas adotadas pela conta para evitar que sua autoria fosse identificada.
  • Probabilidade e iminência de violência, discriminação e hostilidade: durante esse período, e considerando que cada post incita ou encoraja diretamente a violência contra muçulmanos e imigrantes, a probabilidade de um único post de ódio incitar mais conflitos e violência era significativa. Dado o contexto em que esses posts foram compartilhados, medidas menos restritivas não teriam sido suficientes para lidar com o risco provável e iminente de violência, tornando a remoção, conforme previsto nas políticas da Meta, uma resposta necessária e proporcional ao objetivo legítimo de prevenir danos.

Monitoramento

É preocupante o fato de que, mesmo depois que o Comitê selecionou esses casos, a Meta defendeu que os dois posts que incluíam imagens geradas por IA não eram violadores. Parece que os moderadores (e até mesmo as equipes de políticas da Meta) seguem uma lista de verificação interpretada de forma excessivamente rígida, baseando-se na presença de elementos específicos para determinar se houve violação. Isso reflete um esforço por um monitoramento consistente, mas a orientação, elaborada principalmente para posts em texto, falha ao considerar como imagens visuais operam, o que leva a inconsistências na aplicação. Esses casos demonstram um desafio particular para a Meta no que diz respeito à aplicação de suas regras sobre conteúdo que alega criminalidade inerente a grupos com características protegidas. A orientação atual para os analistas parece estar desatualizada, já que grande parte do conteúdo das redes sociais é predominantemente baseado em imagens e vídeos.

Embora a consistência seja um critério importante na moderação da Meta, ela não deve comprometer uma análise precisa do contexto, especialmente em representações visuais de discurso de ódio e incitação. Em crises que se desenvolvem rapidamente, como os motins no Reino Unido, a ameaça real à vida e à propriedade representa um custo alto demais para ser ignorado. Nessas situações, a precisão requer a consideração do contexto e o uso de julgamento. Conforme discutido acima, é particularmente importante que o Protocolo de Política de Crise da Meta seja ativado rapidamente e que os analistas recebam orientação específica do contexto para garantir que as políticas da Meta sejam aplicadas com precisão.

O Comitê observa que, em contextos como os motins no Reino Unido, informações falsas e não verificadas, deixadas sem contestação e sem correção, podem ser especialmente perigosas. Em uma thread publicada no X em 30 de julho, o professor Marc Owen Jones (especialista em desinformação e informações enganosas) apontou que posts afirmando ou especulando que o agressor era muçulmano, migrante, refugiado ou estrangeiro alcançaram pelo menos 27 milhões de impressões na plataforma. Ele também observou que posts que contestavam essas especulações somaram mais de 13 milhões de impressões.

As políticas da Meta sobre desinformação são importantes nesse contexto, em particular a regra que prevê a remoção de “desinformação ou boatos não verificáveis que os especialistas parceiros determinaram que provavelmente contribuem diretamente para o risco de violência ou agressão física iminente às pessoas” (consulte a decisão Alegação de crimes em Raya Kobo). No caso de desinformação que não ofereça risco de violência iminente ou danos físicos, podem ser necessárias medidas menos intrusivas do que a remoção, como, por exemplo, o fornecimento de informações adicionais para corrigir declarações falsas. A Meta informou ao Comitê que seus verificadores de fatos independentes analisaram “vários itens de conteúdo” que continham “o nome falso do perpetrador de Southport”, logo depois que começaram a se espalhar, classificando-os como “falsos”. Os verificadores de fatos deveriam ter sido capazes de fazer isso quando as autoridades britânicas divulgaram declarações sobre o nome falso em 30 de julho. Esses posts foram então cobertos com o rótulo de verificação de fatos, sua visibilidade foi reduzida “poucas horas depois de aparecerem na plataforma” e os usuários foram direcionados a um artigo do verificador de fatos que corrigia a declaração falsa. Para obter mais informações sobre a abordagem da Meta em relação à verificação de fatos, consulte o parecer consultivo sobre política para a decisão Remoção de desinformação sobre a COVID-19 O Comitê não sabe qual porcentagem do conteúdo falso postado durante os motins no Reino Unido foi analisada por verificadores de fatos. O Comitê reitera sua preocupação com o número limitado de verificadores de fatos disponíveis na Meta e destaca que, com frequência, um volume significativo de conteúdo na fila para análise pelos verificadores de fatos nunca é analisado.

À medida que a Meta explora a implementação de seu programa Notas da Comunidade, com o objetivo de substituir a verificação de fatos independente, começando nos EUA, ela deve considerar a experiência de plataformas que usam ferramentas semelhantes para responder à desinformação durante os motins no Reino Unido, além de realizar uma pesquisa mais ampla sobre a eficácia das Notas da Comunidade. Por exemplo, a pesquisa realizada pelo Center for Countering Digital Hate (CCDH) sobre posts no X de cinco contas de grande visibilidade que divulgaram informações falsas durante os motins no Reino Unido constatou que essas contas acumularam mais de 430 milhões de visualizações. De acordo com essa análise, dos 1.060 posts compartilhados por essas contas entre 29 de julho e 5 de agosto, apenas um tinha uma Nota da Comunidade.

Devida diligência de direitos humanos

Os Princípios 13, 17 (c) e 18 dos UNGPs exigem que a Meta participe da devida diligência de direitos humanos para alterar de forma significativa suas políticas e aplicação, o que a empresa normalmente faria por meio de seu Fórum de Políticas de Produto, incluindo a participação de partes interessadas impactadas. O Comitê também demonstra preocupação com o anúncio apressado das alterações à política e à aplicação de 7 de janeiro de 2025, de forma diferente do procedimento regular, sem compartilhamento de informações públicas sobre questões como qual devida diligência de direitos humanos foi realizada.

Agora que essas mudanças estão sendo implementadas globalmente, é importante que a Meta garanta que os impactos adversos dessas alterações sobre os direitos humanos sejam identificados, mitigados, prevenidos e divulgados publicamente. Isso deve incluir um foco em como grupos diferentes podem ser impactados de forma diferente, incluindo imigrantes, refugiados e requerentes de asilo. No que diz respeito a alterações na aplicação, a devida diligência deve considerar tanto os riscos de over-enforcement (aplicação excessiva) (Convocação das mulheres para protesto em Cuba, Ressignificação de palavras árabes) quanto de under-enforcement (aplicação insuficiente) (Negação do Holocausto, Violência homofóbica na África Ocidental, Post em polonês contra pessoas trans). O Comitê observa a relevância da primeira recomendação do caso Críticas às políticas de imigração da UE e aos imigrantes para abordar essas preocupações.

6. A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga as decisões originais da Meta de manter os três itens de conteúdo, exigindo que o segundo e o terceiro posts sejam removidos.

7. Recomendações

Política de conteúdo

1. Para melhorar a clareza de seu Padrão da Comunidade sobre Violência e Incitação, a Meta deve especificar que todas as ameaças de violência de alta gravidade contra lugares são proibidas, assim como contra pessoas.

O Comitê considerará a recomendação implementada assim que a Meta atualizar os Padrões da Comunidade sobre Violência e Incitação.

Monitoramento

2. Para melhorar a clareza de seu Padrão da Comunidade sobre Conduta de Ódio, a Meta deve desenvolver critérios claros e robustos para o que pode constituir alegações de criminalidade grave, com base em características protegidas, de forma visual. Esses critérios devem se alinhar e adaptar os padrões existentes para condutas de ódio baseadas em texto, garantindo a aplicação consistente em textos e imagens.

O Comitê considerará esta recomendação implementada quando os padrões internos de implementação refletirem a mudança proposta.

3. Para garantir que a Meta responda de forma eficaz e consistente às crises, a empresa deve analisar os critérios que estabeleceu para iniciar o Protocolo de Política de Crise. Além da abordagem atual, na qual a empresa tem uma lista de condições que podem ou não resultar na ativação do protocolo, a empresa deve identificar os critérios principais que, quando atendidos, são suficientes para a ativação imediata do protocolo.

O Comitê considerará essa recomendação implementada quando a Meta informar o Comitê sobre sua nova abordagem para a ativação do Protocolo de Política de Crise e concluir a divulgação dos procedimentos na sua Central de Transparência.

4. Para garantir a aplicação precisa de suas Políticas sobre Violência e Incitação e Conduta de Ódio em crises futuras, o Protocolo de Política de Crise da Meta deve garantir que possíveis violações de política que possam levar a uma violência provável e iminente sejam sinalizadas para analistas humanos internos. Esses analistas devem fornecer orientação contextualizada e com prazo determinado para os analistas em escala, inclusive para violações baseadas em imagens.

O Comitê considerará que essa recomendação foi implementada quando a Meta compartilhar a documentação sobre esse novo recurso do Protocolo de Política de Crise, descrevendo como (1) as possíveis violações são sinalizadas para análise interna; (2) a orientação contextualizada é distribuída hierarquicamente; e (3) é implementada para analistas em escala.

5. À medida que a empresa implementa as Notas da Comunidade, ela deve realizar avaliações contínuas da eficácia das Notas da Comunidade em comparação com a verificação de fatos independente. Essas avaliações devem se concentrar na velocidade, na precisão e no volume de notas ou rótulos que estão sendo afixados em situações em que a rápida disseminação de informações falsas cria riscos à segurança pública.

O Comitê considerará que essa recomendação foi implementada quando a Meta fornecer atualizações ao Comitê a cada seis meses até que a implementação seja concluída e compartilhar publicamente os resultados dessa avaliação.

*Nota processual:

  • As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
  • De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e 4 do Estatuto). Ele pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
  • Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas