Mantido

Publicação exibindo armas ligada ao conflito no Sudão

O Comitê de Supervisão manteve a decisão da Meta de remover uma publicação que continha uma ilustração de um cartucho de arma, com uma legenda que fornecia instruções sobre como fazer e lançar um coquetel molotov, compartilhada durante o conflito armado do Sudão.

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Guerra e conflitos, Violência
Padrão da comunidade
Violência e incitação

Regiões/países

Localização
Sudão

Plataforma

Plataforma
Facebook

Resumo

O Comitê de Supervisão manteve a decisão da Meta de remover uma publicação que continha uma ilustração de um cartucho de arma, cuja legenda fornecia instruções sobre como fazer e lançar um coquetel molotov. O Comitê considera que a publicação não seguiu o Padrão da Comunidade do Facebook sobre Violência e Incitação ao apresentar um risco iminente de danos que poderia exacerbar a violência em curso no Sudão. Esse caso gerou mais preocupações sobre as responsabilidades da Meta com os direitos humanos relativos ao compartilhamento de conteúdos com instruções sobre o uso de armas durante conflitos armados. Para cumprir essas responsabilidades, a Meta deve garantir que as exceções às regras sobre violência e incitação sejam mais claras. Além disso, a Meta deve desenvolver ferramentas para corrigir os próprios erros quando enviar a notificação errada aos usuários sobre o Padrão da Comunidade que não foi seguido.

Sobre o caso

Em junho de 2023, um usuário do Facebook publicou uma ilustração de um cartucho de arma, com os componentes identificados em árabe. A legenda da publicação fornece instruções sobre como fazer um coquetel molotov usando os componentes e aconselha o uso de um capacete ao lançar a arma incendiária. A publicação termina com um grito à vitória do povo sudanês e das Forças Armadas do Sudão (SAF pelas siglas em inglês).

Dois meses antes da publicação do conteúdo, eclodiram combates no Sudão entre a SAF e a Forças de Apoio Rápido (RSF pelas siglas em inglês), um grupo paramilitar designado como perigoso pela Meta em agosto de 2023. O conflito armado no Sudão está em curso e se espalhou pelo país, e ambas as partes usam armas explosivas em áreas densamente povoadas por civis.

Os sistemas automatizados da Meta detectaram o conteúdo, determinando que ele não seguia o Padrão da Comunidade do Facebook sobre Violência e Incitação. A Meta removeu a publicação, aplicando uma restrição padrão ao perfil do usuário. O usuário fez uma apelação imediatamente. Em seguida, um dos analistas humanos da Meta constatou que a publicação não seguia a Política sobre Produtos e Serviços Restritos. O usuário fez uma apelação ao Comitê e, depois disso, a Meta determinou que o conteúdo deveria ter sido removido, mas conforme a decisão original, com base no Padrão da Comunidade sobre Violência e Incitação.

Principais conclusões

O Comitê conclui que a publicação não seguiu a Política sobre Violência e Incitação de duas formas. Em primeiro lugar, o efeito combinado da imagem e da legenda não seguiu a regra que proíbe "instruções sobre como fabricar ou usar armas quando a linguagem manifesta explicitamente o objetivo de ferir pessoas gravemente ou de matá-las". Independentemente da intenção da pessoa que criou a publicação, as instruções passo a passo sobre como fazer um coquetel molotov e a recomendação de "usar um capacete" indicam que o conteúdo está convidando as pessoas a agir de acordo com as instruções. Em segundo lugar, recorrer à violência em apoio à SAF durante o conflito armado em curso não está relacionado a uma finalidade não violenta. A Política sobre Violência e Incitação proíbe instruções sobre como fabricar armas, a menos que haja um "contexto que deixe claro que o conteúdo se destina a uma finalidade não violenta".

A regra que proíbe instruções sobre a fabricação e o uso de armas inclui uma exceção para o conteúdo compartilhado com vistas à "autodefesa recreativa, treinamento militar, videogames comerciais ou cobertura jornalística." As partes interessadas consultadas pelo Comitê, bem como reportagens jornalísticas, afirmaram que a Meta permite essas instruções no exercício da autodefesa para alguns conflitos armados. A Meta nega a veracidade disso. O Comitê não está em posição de determinar a veracidade dessas alegações concorrentes.

Não obstante, é essencial que as regras da Meta sobre uma questão de semelhante importância sejam claras e aplicadas de forma consistente. Dado o uso das plataformas da empresa por combatentes e civis durante conflitos para compartilhar informações sobre o uso de armas ou conteúdo violento para autodefesa, a Meta deve esclarecer o que significam as exceções de "autodefesa recreativa" e "treinamento militar". O Comitê não concorda com a Meta que esses termos têm "um significado claro" na linguagem pública do Padrão da Comunidade sobre Violência e Incitação. A fim de melhorar a clareza, a Meta deve esclarecer quais indivíduos podem se beneficiar da "autodefesa recreativa" e em quais situações essa exceção se aplica. Ademais, a linguagem pública da política sobre instruções para fabricar ou usar armas ou explosivos não declara expressamente que os contextos de autodefesa não são considerados durante conflitos armados.

Esse caso também destaca outra exceção pouco clara ao Padrão da Comunidade sobre Violência e Incitação, que permite ameaças dirigidas a terroristas e outros indivíduos violentos. Isso não está suficientemente claro porque a Meta não esclarece se essa exceção se aplica a todas as organizações e indivíduos designados na Política sobre Organizações e Indivíduos Perigosos. Isso é relevante para este caso, pois a RSF recebeu a designação por um período relevante em 2023. No entanto, é impossível que os usuários saibam se suas publicações podem ser removidas ou não com base nisso, pois a lista de organizações e indivíduos designados não está disponível ao público. O Comitê já expressou suas preocupações sobre essa falta de clareza na decisão do caso Vídeo em uma delegacia do Haiti.

Ele também se preocupa com o fato de que o sistema de notificação da Meta não permite que a empresa corrija os próprios erros quando não comunica corretamente qual Padrão da Comunidade o usuário não seguiu. Para garantir um processo justo, é fundamental poder informar corretamente os usuários sobre a violação. Notificações incorretas prejudicam a capacidade de o usuário fazer apelações e acessar a solução. Nesse caso, o usuário foi informado erroneamente de que sua publicação havia sido removida por discurso de ódio. Entretanto, ela havia sido removida por não seguir o Padrão da Comunidade sobre Violência e Incitação. Portanto, o Comitê incentiva a Meta a explorar formas tecnicamente viáveis de fazer correções nas notificações aos usuários.

Decisão do Comitê de Supervisão

O Comitê de Supervisão manteve a decisão da Meta de remover a publicação.

O Comitê recomenda que a Meta:

  • Altere a Política sobre Violência e Incitação incluindo uma definição de "autodefesa recreativa" e "treinamento militar" como exceções às regras que proíbem os usuários de fornecer instruções sobre como fabricar ou usar armas, e esclareça que não permite nenhuma exceção de autodefesa a tais instruções em situações de conflitos armados.
  • Desenvolva ferramentas para corrigir os próprios erros ao enviar aos usuários mensagens que os notifiquem sobre o Padrão da Comunidade que não foi seguido, para que os usuários possam entender corretamente quais políticas o conteúdo violou.

*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.

Decisão completa sobre o caso

1.Resumo da decisão

O Comitê de Supervisão mantém a decisão da Meta de remover uma publicação que contém uma ilustração de um cartucho de arma, com anotações em árabe identificando os diferentes componentes. A publicação tinha uma legenda em árabe que fornecia instruções sobre como tirar os projéteis de um cartucho de espingarda e usá-los para fazer um coquetel molotov. A publicação também aconselha as pessoas que forem lançar esse tipo de arma incendiária a usar um capacete para evitar ferimentos. A legenda termina com o grito: “Victory for the Sudanese people / Victory for the Sudanese Armed Forces / Step forward O, my country.” (Vitória ao povo sudanês / Vitória às Forças Armadas do Sudão / Avante, meu país). Um classificador de discurso hostil detectou o conteúdo e descobriu que ele não seguia o Padrão da Comunidade do Facebook sobre Violência e Incitação.

O Comitê considera que a publicação realmente não seguia o Padrão da Comunidade sobre Violência e Incitação, que proíbe o fornecimento de instruções sobre como fabricar ou usar armas quando a linguagem manifesta explicitamente o objetivo de ferir pessoas gravemente ou de matá-las. Ele também conclui que a publicação não segue outra regra de política do Padrão da Comunidade sobre Violência e Incitação, que proíbe instruções sobre como fabricar ou usar explosivos, a menos que o contexto deixe claro que o conteúdo se destina a uma finalidade não violenta. O Comitê considera que o conteúdo representa um risco iminente de danos que podem exacerbar a violência em curso no Sudão.

O caso gerou mais preocupações sobre o possível compartilhamento de instruções para o uso de armas durante um conflito armado e as responsabilidades da Meta para com os direitos humanos nesse contexto. Para implementar essas responsabilidades, a Meta precisa garantir mais coerência nas regras através da definição clara das exceções às regras de política que tratam da fabricação ou do uso de armas ou explosivos nos termos do Padrão da Comunidade sobre Violência e Incitação. Ademais, a empresa deve desenvolver ferramentas que permitam que ela corrija erros ao informar os usuários sobre o Padrão da Comunidade que não foi seguido.

2. Descrição do caso e histórico

Em junho de 2023, um usuário do Facebook publicou uma ilustração de um cartucho de arma. Os diferentes componentes do cartucho são identificados em árabe. A legenda da publicação, também em árabe, dá instruções sobre como esvaziar um cartucho de espingarda e usar os componentes para fazer um coquetel molotov: uma arma incendiária, normalmente em uma garrafa, que é fácil de fazer. A legenda também aconselha o uso de um capacete ao lançar a arma incendiária para proteger a pessoa que a lançar e conclui: “Victory for the Sudanese people,” “Victory for the Sudanese Armed Forces,” e “Step forward O, my country.” (Vitória ao povo sudanês", "Vitória às Forças Armadas do Sudão" e "Avante, meu país). Especialistas em linguística consultados pelo Comitê afirmaram que essas frases, isoladamente, não incitam os civis a se envolver em violência. O conteúdo teve apenas algumas visualizações antes de ser removido pela Meta sem análise humana, sete minutos após a publicação. Na época em que o conteúdo foi publicado, em junho de 2023, as Forças Armadas do Sudão (SAF) e o grupo paramilitar, as Forças de Apoio Rápido (RSF), estavam envolvidos em um conflito armado desde meados de abril, que continua até hoje. A RSF foi designada como uma organização perigosa nos termos da Política sobre Organizações e Indivíduos Perigosos da Meta em 11 de agosto de 2023, meses após a escalada do conflito.

Um classificador de discurso hostil, um algoritmo que a Meta usa para identificar possíveis violações dos Padrões da Comunidade sobre Discurso de Ódio, Violência e Incitação e Bullying e Assédio, detectou o conteúdo e determinou que ele não seguia o Padrão da Comunidade sobre Violência e Incitação. A Meta removeu o conteúdo e aplicou uma restrição padrão ao perfil do criador do conteúdo, impedindo-o de interagir com grupos e de criar salas de mensagens ou de participar delas por três dias. O usuário imediatamente apelou da decisão da Meta. Em seguida, um dos analistas humanos constatou que a publicação não seguia a Política sobre Produtos e Serviços Restritos. Em seguida, o usuário fez uma apelação ao Comitê. Depois que o Comitê trouxe o caso à atenção da Meta, a empresa determinou que a decisão original de remover o conteúdo de acordo com o Padrão da Comunidade sobre Violência e incitação estava correta, e que a publicação não violava a Política sobre Produtos e Serviços Restritos.

O Comitê considerou o seguinte contexto para tomar sua decisão sobre o presente caso.

Em abril de 2023, surgiram confrontos entre a SAF e a RSF na capital do Sudão. O usuário que publicou o conteúdo nesse caso parece apoiar a SAF. Os combates se concentraram inicialmente em Cartum, a capital do Sudão. Entretanto, o conflito se espalhou por todo o país, inclusive Darfur e Kordofan. Ambos os grupos têm usado armas explosivas, incluindo bombas aéreas, projéteis de artilharia e morteiros, foguetes e mísseis, em áreas densamente povoadas por civis. De acordo com as Nações Unidas, até janeiro de 2024, mais de 7 milhões de pessoas foram deslocadas desde meados de abril e mais de 1,2 milhão de pessoas fugiram do Sudão. Segundo informações, até 9 mil pessoas já foram mortas. Alguns dos ataques contra civis tiveram uma motivação étnica. Em outubro de 2023, o Relator Especial da ONU sobre tráfico de pessoas expressou preocupação com o aumento do risco de recrutamento e uso de crianças-soldados por forças e grupos armados. Como os combates continuam em todo o país, os especialistas também notaram o crescente envolvimento de outros grupos armados.

Segundo especialistas consultados pelo Comitê sobre o conflito no Sudão, tanto a SAF quanto a RSF usam as redes sociais para "disseminar informações e propaganda" sobre as respectivas agendas. Embora a utilização da internet permaneça baixa no Sudão, as organizações denotícias e os grupos dasociedadecivil relataram que tanto a SAF quanto a RSF usam as redes sociais em uma tentativa de controlar as narrativas sobre o conflito. Por exemplo, ambas as partes publicaram proclamações de vitória em áreas onde os combates estão em curso, colocando em risco os civis que decidiram retornar ao confiar em informações imprecisas.

3. Escopo e autoridade do Comitê de Supervisão

O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).

De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, e a decisão é vinculante para a empresa, nos termos do Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, de acordo com o artigo 4º do Estatuto. As decisões do Comitê podem incluir sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3º do Estatuto, Seção 4; Artigo 4). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.

4. Fontes de autoridade e orientação

Os seguintes padrões e as decisões precedentes fundamentaram a análise do Comitê nesse caso:

I. Decisões do Comitê de Supervisão

As decisões anteriores mais pertinentes do Comitê de Supervisão incluem as seguintes:

II. Políticas de Conteúdo da Meta

O Padrão da Comunidade sobre Violência e Incitação da Meta tem como objetivo “evitar possível violência no meio físico que possa estar relacionada ao conteúdo em nossas plataformas.” A Meta afirma que remove "linguagem que incita a violência grave ou a facilita" e "ameaças à segurança pública ou pessoal". Ela faz distinção entre alegações casuais, permitidas pela política, e as que representam um "risco genuíno de lesões corporais ou ameaças diretas à segurança pública".

O Padrão da Comunidade sobre Violência e Incitação proíbe "ameaças que possam levar à morte (ou outras formas de violência de alta gravidade)". Nele, também consta que a Meta permite ameaças "direcionadas a determinados indivíduos violentos, como grupos terroristas." A empresa atualizou a política em 6 de dezembro de 2023 para informar que não proíbe ameaças quando compartilhadas para aumentar a conscientização, de acordo com a recomendação do Comitê no Caso do poema russo. A Meta esclareceu ao Comitê que "apelos à violência, ameaças aspiracionais e ameaças condicionais de violência de gravidade alta ou média são permitidas se o alvo for uma entidade designada como DOI (Organização ou Indivíduo Perigoso). As declarações de intenção, no entanto, sempre violam a política."

O Padrão da Comunidade sobre Violência e Incitação também tem duas regras relacionadas a instruções para a fabricação e o uso de armas.

A primeira regra proíbe conteúdo que forneça "instruções sobre como fabricar ou usar armas quando a linguagem manifesta explicitamente o objetivo de ferir pessoas gravemente ou de matá-las" ou "imagens que mostrem ou simulem o resultado final." Esse conteúdo é permitido somente quando compartilhado em um contexto de "autodefesa recreativa, treinamento pelas forças armadas de um país, videogames comerciais ou cobertura jornalística (publicado por uma Página ou com um logotipo de notícias)".

A segunda regra proíbe conteúdos que forneçam instruções sobre como fabricar ou usar explosivos, “exceto quando o contexto deixe claro que o conteúdo se destina a uma finalidade não violenta.” Entre os exemplos de uma finalidade não violenta, podemos citar "videogames comerciais, finalidades claramente científicas/educacionais, fogos de artifício ou algo específico para pesca".

A análise do Comitê foi fundamentada pelo compromisso da Meta com o valor Voz, que a empresa descreve como “fundamental”, incluindo o valor Segurança.

III. Responsabilidades da Meta com os direitos humanos

16. Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades das empresas privadas em relação aos direitos humanos. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso em respeitar os direitos humanos de acordo com os UNGPs. Segundo os UNGPs, as responsabilidades com os direitos humanos das empresas que operam em um ambiente de conflito são maiores (“Empresas, direitos humanos e regiões afetadas por conflitos: em direção a uma maior ação” A/75/212).

Ao analisar as responsabilidades da Meta com os direitos humanos no caso em questão, o Comitê levou em consideração as seguintes normas internacionais:

5. Envios de usuários

Na apelação ao Comitê, o autor do conteúdo declarou que a Meta entendeu mal a publicação, pois ele estava apenas compartilhando fatos.

6. Envios da Meta

A Meta alega que a publicação não seguiu duas regras de política do Padrão da Comunidade sobre Violência e Incitação. Primeiro, ela não seguia a regra de política que proíbe conteúdos que fornecem instruções sobre como fabricar ou usar armas se houver evidência de um objetivo de ferir pessoas gravemente ou de matá-las. A Meta afirmou que a publicação violava a regra porque a "legenda sugere que o uso pretendido é jogar o coquetel molotov em um alvo...". Além disso, as instruções são compartilhadas "no contexto de um conflito armado e aparentemente em apoio à SAF". A Meta concluiu que a publicação não se enquadrava em nenhuma das exceções previstas na regra de política, como "autodefesa recreativa", "treinamento militar" ou "cobertura jornalística". Quando questionada pelo Comitê sobre o significado de "autodefesa recreativa" e "treinamento militar", a Meta declarou que não tem uma definição para esses termos "além do significado claro dessas palavras".

O conteúdo também violou a regra de política que proíbe instruções sobre como fabricar ou usar explosivos, sem um contexto claro de que o conteúdo é para uma finalidade não violenta. A Meta considera os coquetéis molotov como explosivos de acordo com o significado estabelecido na política. A empresa também determinou que o conteúdo "foi compartilhado com a intenção de promover o conflito violento".

Segundo as diretrizes internas que especificam como a Política sobre Violência e Incitação em vigor deve ser aplicada quando o conteúdo foi publicado, a Meta permite que o conteúdo viole a política "quando compartilhado em um contexto de conscientização ou condenação". Após as atualizações dos Padrões da Comunidade disponíveis para o público em 6 de dezembro de 2023, a política agora reflete essa orientação: "[A Meta] não proíbe ameaças quando compartilhadas em um contexto de conscientização ou condenação." Todavia, a Meta diz que a legenda "deixa claro que a intenção não é aumentar a conscientização, mas sim viabilizar ações violentas". Quando perguntamos se a Meta isentou algum país ou conflito da aplicação das regras de política sobre Violência e Incitação que proíbem instruções para a fabricação ou o uso de armas ou explosivos, ela disse ao Comitê que não aplicou nenhuma exceção ou permissão de política específica a algum país, "independentemente de conflitos ativos".

Com base no Padrão da Comunidade sobre Violência e Incitação atualizado da Meta, a empresa não proíbe ameaças direcionadas a "determinados indivíduos violentos, como grupos terroristas." Isso significa que algumas ameaças direcionadas a organizações perigosas ou entidades individuais designadas, como a RSF, são permitidas nas plataformas da Meta. Contudo, a empresa explicou que essa exceção não se aplica às duas regras de política do Padrão da Comunidade sobre Violência e Incitação a respeito de instruções para fabricar ou usar armas ou explosivos. Em outras palavras, o conteúdo que explica como fabricar ou usar armas é proibido, mesmo que tenha como alvo uma organização ou entidade individual perigosa designada.

A Meta não criou um Centro de Operações de Produtos de Integridade, que é usado para responder a ameaças em tempo real, para lidar com o surto de violência no Sudão em abril de 2023. Segundo ela, a empresa conseguiu "lidar com os riscos de conteúdo identificados por meio dos processos existentes." Os esforços da empresa para responder ao conflito atual continuam e se baseiam no trabalho descrito pela primeira vez no caso Vídeo explícito do Sudão do Comitê. Em resposta ao golpe militar no Sudão em outubro de 2021, a Meta criou "uma equipe multifuncional de resposta a crises para monitorar a situação e comunicar tendências e riscos emergentes", que está em curso. Além disso, a empresa tomou as seguintes medidas, entre outras, para lidar com possíveis riscos de conteúdo relacionados ao conflito no Sudão em 2023: removeu páginas e contas que representavam a RSF, seguindo a designação de organização perigosa que a Meta deu ao grupo; investigou possíveis contas falsas que poderiam induzir em erro o discurso público em torno do conflito; e designou o Sudão como um Local Temporário de Alto Risco (THRL). Para obter uma descrição da designação de THRL e sua relação com o Padrão da Comunidade sobre Violência e Incitação, consulte a decisão do caso Discurso de General Brasileiro, Seção 8.1). A Meta informou ao Comitê que está trabalhando para estabelecer uma coordenação de crise de longo prazo "para fornecer uma supervisão de operações dedicada durante crises iminentes e emergentes", seguindo a recomendação do Comitê no caso Gabinete de Comunicações da Região do Tigré.

Em 30 de maio de 2023, o Sudão obteve a mais alta designação de crise interna da Meta. Desde então, a empresa vem mantendo um nível elevado de gerenciamento de riscos e, como parte desse trabalho, está monitorando os possíveis riscos que os conteúdos podem representar. O Protocolo de Política de Crise é a estrutura adotada pela Meta para desenvolver respostas oportunas e específicas sobre políticas para uma crise emergente. Há três categorias de crise no Protocolo da Política de Crise: a Categoria 1 é a menos grave e a Categoria 3 é a mais grave. A designação de crise de Categoria 3 no Sudão foi resultado de a crescente crise atender a critérios adicionais de entrada, como a existência de um "grande conflito interno" e "intervenção militar".

O Comitê fez 16 perguntas à Meta por escrito. Perguntas relacionadas ao classificador de discurso hostil da Meta; como a Meta entende o conceito de autodefesa nos termos do Padrão da Comunidade sobre Violência e Incitação; medidas tomadas em resposta ao conflito no Sudão; e a aplicação das regras de política relacionadas a armas do Padrão da Comunidade sobre Violência e Incitação em conflitos armados. Todas foram respondidas.

7. Comentários públicos

O Comitê de Supervisão recebeu 10 comentários públicos relacionados ao caso. Três dos comentários foram enviados dos Estados Unidos e Canadá, dois da Ásia-Pacífico e Oceania, dois da Europa, um da América Latina e Caribe, um do Oriente Médio e Norte da África e um da África Subsaariana. Esse total inclui comentários públicos que foram duplicados, enviados sem consentimento para publicação ou enviados com consentimento para publicação, mas que não atendiam às condições do Comitê para publicação. Comentários públicos podem ser enviados ao Comitê com ou sem consentimento para publicar, e com ou sem atribuição. Os envios abordaram os seguintes temas: dinâmica do conflito no Sudão; as responsabilidades da Meta com os direitos humanos em situações de conflito armado, sobretudo na preservação de conteúdo online para fins de responsabilização pelos direitos humanos; e o impacto do classificador da Meta na moderação de conteúdos relacionados a conflitos.

Para ler os comentários públicos enviados sobre esse caso, clique aqui.

8. Análise do Comitê de Supervisão

O Comitê selecionou esse caso para avaliar as políticas da Meta sobre conteúdo relacionado a armas e as práticas de aplicação da empresa no contexto de conflitos armados. Esse caso se encaixa na prioridade estratégica do Comitê sobre crises e situações de conflito.

8.1 Conformidade com as Políticas de Conteúdo da Meta

I. Regras sobre conteúdo

O Comitê considera que a publicação não segue a Política sobre Violência e Incitação da Meta. O efeito combinado da imagem e da legenda na publicação atende aos requisitos de "linguagem que manifesta explicitamente o objetivo" da regra que proíbe “instruções sobre como fabricar ou usar armas quando a linguagem manifesta explicitamente o objetivo de ferir pessoas gravemente ou de matá-las.” A Meta considera os coquetéis molotov como armas proibidas pela Política sobre Violência e Incitação. A publicação fornece instruções passo a passo sobre como fazer e usar um coquetel molotov. A intenção de ferir pessoas gravemente ou de matá-las pode ser inferida com base nessas orientações passo a passo, bem como na recomendação de "usar um capacete" para proteger a pessoa que lançar a arma incendiária, o que significa que a publicação está pedindo que as pessoas ajam conforme as instruções. Segundo especialistas consultados pelo Comitê, os gritos à vitória no final da legenda expressam claramente o apoio a um dos lados do conflito armado.

O conteúdo também não obedece à proibição de Violência e Incitação a respeito de “instruções sobre como fabricar ou usar explosivos, a menos que o contexto deixe claro que o conteúdo se destina a uma finalidade não violenta.” Recorrer à violência em apoio à SAF não está relacionado a uma finalidade não violenta; tais finalidades, conforme descrito na política, estão limitadas a "videogames comerciais, finalidades claramente científicas/educacionais, fogos de artifício ou algo específico para pesca". O Comitê observa que, segundo a Meta, essa proibição se aplica independentemente de a Meta ter ou não designado a entidade objeto do conteúdo como uma organização ou indivíduo perigoso nos termos do Padrão da Comunidade sobre Organizações e Indivíduos Perigosos. A Meta explicou ao Comitê que isso ocorre porque "parte do malefício de compartilhar essas instruções é que elas podem ser usadas por outras pessoas com a intenção de prejudicar outros alvos." O Comitê considera que essa regra foi aplicada conforme as políticas de conteúdo da Meta no caso da remoção do conteúdo em questão.

II. Medida de aplicação

Embora o classificador de discurso hostil tenha identificado corretamente o conteúdo como uma violação do Padrão da Comunidade sobre Violência e Incitação, o usuário foi informado por engano de que sua publicação havia sido removida por discurso de ódio. A Meta informou que isso ocorreu devido a um bug nos sistemas da empresa. Ela disse ao Comitê que não consegue enviar novas mensagens para a mesma conversa da caixa de entrada de suporte quando percebe que um erro foi cometido. O Comitê também se preocupa com o fato de que o sistema de notificação ao usuário da Meta não permite que a empresa corrija os próprios erros quando não comunica corretamente ao usuário qual Padrão da Comunidade não foi seguido. Isso impede que os usuários saibam o motivo real pelo qual o conteúdo foi removido. Como o Comitê já ressaltou em vários casos (por exemplo, Armênios no Azerbaijão, Bebida ayahuasca, Citação nazista), a Meta deve informar os usuários de forma transparente sobre as políticas de conteúdo que não foram seguidas.

8.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos

O Comitê considera que a decisão da Meta de remover a publicação está de acordo com as responsabilidades de direitos humanos que a empresa defende.

Liberdade de expressão (Artigo 19 PIDCP)

O artigo 19 do ICCPR prevê ampla proteção à expressão, inclusive à expressão política. Esse direito inclui a “liberdade de procurar, receber e difundir informações e ideias de qualquer natureza.” Essas proteções permanecem ativas durante conflitos armados e devem continuar informando as responsabilidades de direitos humanos da Meta, juntamente com as regras complementares e de reforço mútuo do direito internacional humanitário que se aplicam durante esses conflitos ( Comentário Geral 31, Comitê de Direitos Humanos, 2004, parágrafo 11; Comentário à UNGPs, Princípio 12; consulte também o relatório do Relator Especial da ONU sobre Desinformação e liberdade de opinião e expressão durante conflitos armados, Relatório A/77/288, parágrafos. 33-35 (2022); relatório OHCHR sobre a proteção legal internacional dos direitos humanos em conflitos armados (2011) na página 59).

O Relator Especial da ONU sobre a liberdade de expressão declarou que “[d]urante um conflito armado, as pessoas estão em seu estado mais vulnerável e com maior necessidade de informações precisas e confiáveis para garantir sua própria segurança e bem-estar. No entanto, é precisamente nessas situações que sua liberdade de opinião e expressão, que inclui “a liberdade de buscar, receber e transmitir informações e ideias de todos os tipos, é mais limitada pelas circunstâncias da guerra e pelas ações das partes no conflito e outros agentes para manipular e restringir informações para objetivos políticos, militares e estratégicos” (Relatório A/77/288, parágrafo 1). O Comitê reconhece a importância de garantir que as pessoas possam compartilhar livremente informações sobre conflitos, sobretudo quando as redes sociais são a principal fonte de informações e, ao mesmo tempo, garantir que o conteúdo capaz de alimentar mais violência no meio físico não viralize.

Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta, tanto em relação à decisão de conteúdo individual sob análise quanto ao que isso diz sobre a abordagem mais ampla da empresa à governança de conteúdo. Como em casos anteriores (por exemplo, Armênios no Azerbaijão, Vídeo de prisioneiros de guerra armênios), o Comitê concorda com o Relator Especial da ONU sobre liberdade de expressão que embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão,” ( A/74/486, parágrafo 41). Ao fazer isso, o Comitê tenta ser sensível às formas pelas quais as responsabilidades de direitos humanos de uma empresa privada de rede social podem diferir das de um governo que implementa suas obrigações de direitos humanos.

I. Legalidade (clareza e acessibilidade das regras)

O princípio de legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, tanto para quem aplica as regras como para quem é afetado por elas (Comentário Geral n.º 34, parágrafo 25). Os usuários devem ser capazes de prever as consequências da publicação de conteúdo no Facebook e no Instagram. O Relator Especial da ONU sobre liberdade de expressão destacou a necessidade de "clareza e especificidade" nas políticas de moderação de conteúdo ( A/HRC/38/35, parágrafo 46).

O Comitê considera que a regra geral que proíbe instruções sobre a fabricação ou o uso de armas ou explosivos em determinadas circunstâncias é suficientemente clara, atendendo aos requisitos de legalidade. Ele também observa, todavia, que a Meta poderia explicar com mais clareza as exceções da política ao deixar claros conceitos como "autodefesa recreativa" e "treinamento pelas forças armadas de um país" na linguagem voltada para o público do Padrão da Comunidade sobre Violência e Incitação. O Comitê não concorda com a alegação da Meta de que esses termos têm um "significado claro".

No tocante ao termo "autodefesa recreativa", ele acredita que a Meta deve esclarecer os indivíduos que podem se beneficiar dele e em quais situações as exceções se aplicam. Além disso, não está expressamente declarado no Padrão da Comunidade sobre Violência e Incitação, disponível para o público que o termo não contempla contextos de autodefesa em cenários de conflito armado. Com relação ao termo "treinamento pelas forças armadas de um país", a Meta não esclarece se ele se limita às forças armadas de estados reconhecidos nem como a empresa trata os exércitos de governos de facto.

As partes interessadas consultadas pelo Comitê, bem como relatórios públicos, afirmaram que a Meta permite instruções sobre a fabricação ou o uso de armas em exercício de autodefesa para determinados conflitos armados. Em resposta às perguntas do Comitê, a empresa negou a veracidade dessas alegações. O Comitê não está em posição de determinar a veracidade dessas alegações conflitantes. De qualquer forma, é essencial que as regras da Meta sobre uma questão de tamanha importância sejam aplicadas de forma consistente e rigorosa. Dado o uso das plataformas da empresa para trocar informações durante conflitos armados, quando tanto combatentes quanto civis podem estar compartilhando informações sobre o uso de armas ou conteúdo violento que invoca a autodefesa, a Meta deve esclarecer o que significam as exceções "autodefesa recreativa" e "treinamento militar" no Padrão da Comunidade sobre Violência e Incitação.

O Comitê também considera que a exceção da política da Meta ao Padrão da Comunidade sobre Violência e Incitação, que permite ameaças "direcionadas a determinados indivíduos violentos, como grupos terroristas", não é suficientemente clara e, portanto, não atende ao requisito de legalidade. Não está claro se essa regra de política se aplica a todos os indivíduos e organizações perigosos designados no Padrão da Comunidade sobre Organizações e Indivíduos Perigosos. Além disso, a lista de organizações e indivíduos designados na Política sobre Organizações e Indivíduos Perigosos não é pública. Isso agrava a falta de clareza para os usuários sobre quais publicações serão removidas ou mantidas, dependendo se a entidade mencionada na publicação está ou não incluída na lista oculta de organizações perigosas da Meta. O Comitê reitera as preocupações apresentadas na decisão do Vídeo de delegacia de polícia no Haiti sobre essa exceção da política.

II. Objetivo legítimo

As restrições à liberdade de expressão (artigo 19, PIDCP) devem ter um objetivo legítimo. A política sobre violência e incitação visa “evitar possíveis danos no meio físico” ao remover conteúdo que represente “um risco genuíno de lesões corporais ou ameaças diretas à segurança pública”. Conforme conclusão anterior do Comitê no caso Alegação de crimes em Raya Kobo, essa política atende à finalidade legítima de proteger os direitos de terceiros, como o direito à vida (Artigo 6, PIDCP).

III. Necessidade e proporcionalidade

Os princípios da necessidade e da proporcionalidade mostram que as restrições à liberdade de expressão "devem ser apropriadas para cumprir sua função protetora; ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora [e] ser proporcionais ao interesse a ser protegido" (Comentário Geral n.º 34, parágrafo 34). O Comitê também considerou os fatores do Plano de Ação de Rabat sobre o que constitui incitação à violência Plano de Ação de Rabat, OHCHR, A/HRC/22/17/Add.4,2013), ao mesmo tempo em que leva em conta as diferenças entre as obrigações legais dos Estados e as responsabilidades de direitos humanos das empresas. A publicação nesse caso não faz apologia ao ódio com base em nacionalidade, raça ou religião. Entretanto, o Plano de Ação de Rabat oferece uma estrutura útil para avaliar se o conteúdo incita ou não outras pessoas à violência.

Nesse caso, o Comitê considera que a Meta, ao remover o conteúdo do Facebook, cumpriu os requisitos de necessidade e proporcionalidade. Usando o teste de seis partes do Plano de Ação de Rabat para embasar sua análise, o Comitê encontra respaldo para a remoção dessa publicação, conforme explicado abaixo.

Independentemente da intenção do criador do conteúdo ao publicá-lo, as instruções passo a passo para fazer e usar um coquetel molotov criou um risco genuíno de danos iminentes em uma situação de segurança já instável. A arma incendiária mencionada na publicação é proibida pela Convenção sobre Certas Armas Convencionais por ser excessivamente lesiva e indiscriminada como meio de ataque. O impacto de uma explosão não apenas representa um alto risco de ferir civis, mas também pode causar "sofrimento desnecessário" ou "ferimentos supérfluos" nos combatentes, o que é proibido pelo Direito Internacional Humanitário Consuetudinário. Incentivar civis sem treinamento militar a fabricar e usar armas incendiárias aumenta ainda mais esses riscos.

O risco genuíno de danos iminentes existe apesar de o usuário ser uma pessoa privada não influente, com um número limitado de amigos e seguidores. O Comitê observa que o classificador de discurso hostil da Meta foi capaz de detectar e remover o conteúdo poucos minutos após a publicação.

O Comitê também observa que o conteúdo foi publicado no contexto de um conflito armado em curso. Quando foi publicado, dois meses após o início do conflito armado, relatórios e análises deespecialistas mostraram abusos generalizados dos direitos humanos cometidos tanto pela SAF quanto pela RSF. Segundo a ONU, grupos de direitos humanos, especialistas consultados pelo Comitê e comentários públicos, inclusive da Genocide Watch (PC-19006, PC-19001), ambas as partes do conflito armado cometeram vários abusos das leis internacionais humanitárias e de direitos humanos, levando milhões de pessoas a serem deslocadas, presas arbitrariamente, violentadas sexualmente ou mortas. O conflito ainda está em curso e não mostra sinais de término, apesar da condenação pelo Conselho de Segurança da ONU, por grupos da sociedade civil e organizações de direitos humanos. Nesse contexto, o Comitê considera que o conteúdo deste caso incitou a violência, representando um risco iminente de que civis participassem diretamente das hostilidades por meio do uso de uma arma particularmente perniciosa e proibida, aumentando ainda mais o conflito.

A Meta não permite conteúdo como a publicação em análise no contexto de autodefesa ao aplicar a Política sobre Violência e Incitação. O Comitê considera essa abordagem sensata e solicita que a Meta a aplique de forma consistente. Segundo os UNGPs, as responsabilidades da Meta com os direitos humanos incluem o respeito "às normas do Direito Internacional Humanitário em um conflito armado" (Comentário ao Princípio 12, UNGPs). O Direito Internacional Humanitário fornece normas para que as partes envolvidas em conflitos armados maximizem a proteção dos civis (por exemplo, o Protocolo Adicional II das Convenções de Genebra, que protege os civis durante conflitos armados); Artigo 2, Protocolo III da Convenção sobre Certas Armas Convencionais, que proíbe o uso de armas incendiárias). O Comitê acredita que essas normas também podem ser úteis para que as empresas de redes sociais atinjam esse objetivo quando suas plataformas forem usadas em cenários de conflito armado. De acordo com essas normas, a Meta deve buscar uma política que resulte na mais ampla proteção de civis e propriedades civis em cenários de conflito. Quando isso é aplicado à Política sobre Violência e Incitação, significa proibir ameaças plausíveis, independentemente do alvo.

Direito ao recurso

O Comitê está preocupado com a incapacidade técnica de a Meta corrigir erros nas notificações aos usuários quando os informa sobre qual regra o conteúdo deles violou. A capacidade de informar corretamente os usuários sobre a violação é um componente crucial da aplicação dos Padrões da Comunidade da Meta e garante a justiça e o devido processo ao usuário. Quando uma notificação fornecida aos usuários é identificada incorretamente, a capacidade de o usuário fazer apelações e acessar a solução nas plataformas da Meta é prejudicada. O Comitê incentiva a Meta a explorar formas tecnicamente viáveis de fazer correções nas notificações aos usuários.

9. Decisão do Comitê de Supervisão

O Comitê de Supervisão apoia a decisão da Meta de remover o conteúdo.

10. Recomendações

Política de Conteúdo

1. Para informar melhor os usuários sobre qual conteúdo é proibido nas plataformas da empresa, a Meta deve alterar a Política sobre Violência e Incitação incluindo uma definição de "autodefesa recreativa" e "treinamento militar" como exceções às regras que proíbem os usuários de fornecer instruções sobre como fabricar ou usar armas, e esclareça que não permite nenhuma exceção de autodefesa para instruções sobre como fabricar ou usar armas no contexto de um conflito armado.

O Comitê considerará que essa recomendação foi implementada quando o Padrão da Comunidade sobre Violência e Incitação for atualizado para refletir essas mudanças.

Monitoramento

2. Para garantir que os usuários consigam entender quais políticas foram aplicadas ao seu conteúdo, a Meta deve desenvolver ferramentas para corrigir erros nas mensagens que notificam aos usuários o Padrão da Comunidade que foi violado.

O Comitê considerará que isso foi implementado quando os sistemas de análise e de notificação relacionados forem atualizados em conformidade com a recomendação.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões dele não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de seis continentes, e mais de 3.200 especialistas do mundo inteiro auxiliaram o Comitê. O Comitê também recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A Memetica, uma organização dedicada à pesquisa de código aberto sobre tendências de redes sociais, também forneceu análises. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 (trezentos e cinquenta) idiomas e trabalham de 5.000 (cinco mil) cidades pelo mundo, forneceu a consultoria linguística.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas