Mantido
Gabinete de Comunicações da Região do Tigré
O Comitê de Supervisão manteve a decisão da Meta de remover uma publicação que continha ameaça de violência no conflito na Etiópia
Esta decisão também está disponível em amárico, oromo e tigrínio.
ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ።
Murtii guutuu kan Afaan Oromoo dubbisuuf as tuqi
ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ።
Resumo do caso
O Comitê de Supervisão manteve a decisão da Meta de remover uma publicação que continha ameaça de violência no conflito na Etiópia. O conteúdo violava o Padrão da Comunidade da Meta sobre violência e incitação, e sua remoção está em conformidade com as responsabilidades da empresa em relação aos direitos humanos. De modo geral, o Comitê concluiu que a Meta deve tomar mais medidas para cumprir suas responsabilidades em matéria de direitos humanos em situações de conflito, e faz recomendações de política para abordar isso.
Sobre o caso
Em 4 de fevereiro de 2022, a Meta indicou ao Comitê um caso relacionado ao conteúdo publicado no Facebook durante um período de aumento de violência no conflito na Etiópia, onde forças tigrínias e do governo travam uma luta desde novembro de 2020.
A publicação apareceu na página oficial do Gabinete de Comunicações do Estado Regional do Tigré e foi visualizada mais de 300 mil vezes. Ela discute as perdas sofridas pelas forças federais e encoraja o exército nacional a “turn its gun” (virar suas armas) contra “Abiy Ahmed group” (grupo de Abiy Ahmed). Abiy Ahmed é o primeiro-ministro da Etiópia. A publicação incita também as forças do governo a se render e afirma que morrerão se recusarem.
Após ter sido denunciado por usuários e identificado pelos sistemas automatizados da Meta, o conteúdo foi avaliado por dois analistas que falam o idioma amárico. Eles determinaram que a publicação não havia violado as políticas da Meta e a deixaram na plataforma.
Nesse momento, a Meta estava operando um Centro de Operações de Produtos de Integridade (IPOC, na sigla em inglês) para a Etiópia. Os IPOCs são usados pela Meta para melhorar a moderação em situações de alto risco. Eles operam por um breve período (dias ou semanas) e reúnem especialistas para monitorar as plataformas da Meta e abordar eventuais abusos. Por meio do IPOC, a publicação foi enviada para análise por especialistas, que determinaram que ela havia violado a política da Meta sobre violência e incitação, e foi removida dois dias depois.
Principais conclusões
O Comitê concorda com a decisão da Meta de remover a publicação do Facebook.
O conflito na Etiópia é marcado por violência sectária e violações do direito internacional. Nesse contexto, e considerando o perfil e o alcance da página, existia um alto risco de que a publicação provocasse mais violência.
Consequentemente, o Comitê concorda que a remoção da publicação é exigida pelo Padrão da Comunidade da Meta sobre violência e incitação, que proíbe “declarações de intenção de cometer violência de alta gravidade”. A remoção também é coerente com os valores da Meta; dadas as circunstâncias, os valores “Segurança” e “Dignidade” prevalecem sobre “Voz”. O Comitê conclui também que a remoção da publicação é coerente com as responsabilidades da Meta em relação aos direitos humanos e constitui uma restrição justificável à liberdade de expressão.
A Meta tem consciência, há muito tempo, de que suas plataformas são usadas para disseminar discurso de ódio e incitar violência em conflitos. A empresa toma medidas positivas para melhorar a moderação de conteúdo em algumas zonas de conflito. De modo geral, no entanto, o Comitê conclui que a Meta tem a responsabilidade, em relação aos direitos humanos, de estabelecer um sistema transparente baseado em princípios para moderar conteúdo em zonas de conflito, com a finalidade de reduzir o risco de suas plataformas serem usadas para incitar violência ou violações do direito internacional. Ela deve tomar mais medidas para cumprir essa responsabilidade.
Por exemplo, a Meta fornece informações insuficientes sobre como ela implementa sua política sobre violência e incitação em situações de conflito armado, quais são as exceções disponíveis dessa política e como elas são usadas. Sua abordagem atual em relação à moderação de conteúdo em zonas de conflito parece denotar uma certa inconsistência; observadores acusaram a empresa de tratar o conflito Rússia-Ucrânia de forma diferente de outros conflitos.
Embora a Meta afirme compilar um registro de países “em risco”, que orienta sua alocação de recursos, ela não fornece informações suficientes para que o Comitê avalie a equidade ou a eficácia desse processo. Nesse caso, o IPOC levou à remoção do conteúdo. No entanto, ele permaneceu na plataforma durante dois dias. Isso leva a supor que o sistema dos países “em risco” e os IPOCs são inadequados para lidar com situações de conflito. Segundo a Meta, os IPOCs “não são destinados a ser soluções sustentáveis e de longo prazo para lidar com um conflito de anos.” O Comitê considera que a Meta pode precisar investir em um mecanismo mais sustentável.
A decisão do Comitê de Supervisão
O Comitê de Supervisão mantém a decisão da Meta de remover a publicação.
Ele também faz as seguintes recomendações:
- A Meta deveria publicar informações sobre seu Protocolo da Política de Crise na Central de Transparência.
- A Meta deveria avaliar a viabilidade de estabelecer um mecanismo interno sustentável que lhe forneça o know-how, a capacidade e a coordenação necessários para analisar e responder a conteúdos de maneira eficaz durante o conflito.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão mantém a decisão da Meta de remover o conteúdo do Facebook por violação do Padrão da Comunidade sobre violência e incitação. O Comitê considera que remover o conteúdo, neste caso, é coerente com as responsabilidades da Meta em relação aos direitos humanos em um conflito armado. Ele também considera que a Meta tem a responsabilidade de estabelecer um sistema transparente e baseado em princípios para moderar conteúdo em zonas de conflito, com a finalidade de mitigar os riscos de suas plataformas serem usadas para incitar violência ou cometer violações dos direitos humanos internacionais e humanitários. O Comitê reitera a necessidade de que Meta adote todas as medidas que visam a cumprir sua responsabilidade de realizar diligência devida mais rigorosa em termos de direitos humanos nesse contexto.
2. Descrição do caso e histórico
Em 4 de fevereiro de 2022, a Meta indicou ao Comitê um caso relacionado com conteúdo publicado no Facebook em 5 de novembro de 2021. O conteúdo foi publicado na Página do Gabinete de Comunicações do Tigré, que declara ser a Página oficial do Gabinete de Comunicações do Estado Regional do Tigré (TCAB, pela sigla em inglês). O conteúdo foi publicado em amárico, o idioma de trabalho oficial do Governo Federal. O TCAB é um ministério do governo regional do Tigré. Desde novembro de 2020, a Frente de Libertação do Povo do Tigré (FLPT) e a República Democrática Federal da Etiópia (Governo Federal) estão envolvidas em um conflito armado. A FLPT é o partido que está no poder no Tigré, e as Forças de Defesa do Tigré são o braço armado da FLPT.
A publicação aborda as perdas sofridas pelas Forças de Defesa Nacional da Etiópia sob a liderança do primeiro-ministro Abiy Ahmed no conflito armado com a FLPT. A publicação encoraja o exército nacional a “turn its gun towards the fascist Abiy Ahmed group” (virar suas armas contra o grupo fascista de Abiy Ahmed) para reparar o mal causado a pessoas pelo grupo. Ela continua incitando as forças armadas a se render à FLPT se quiserem salvar suas vidas, adicionando o seguinte: “If it refuses, everyone should know that, eventually, the fate of the armed forces will be death.” (Caso se recusem, é bom que todos saibam, mais cedo ou mais tarde o destino das forças armadas será a morte.)
As tensões entre o Governo Federal e a FLPT chegaram ao ápice quando o Governo Federal adiou as eleições em 2020, mencionando a pandemia do coronavírus como o motivo do adiamento. Os líderes da oposição acusaram o primeiro-ministro de usar a pandemia como pretexto para estender seu mandato. Apesar do anúncio do Governo Federal, o governo regional do Tigré procedeu à realização das eleições na região, onde a FLPT obteve uma vitória esmagadora.
O primeiro-ministro Abiy Ahmed anunciou uma operação militar contra as forças do Tigré em novembro de 2020, em resposta a um ataque contra uma base militar federal no Tigré. As forças federais avançaram para conquistar a capital do Tigré, Mekelle. Após oito meses de combate, as forças federais e seus aliados se retiraram de Mekelle, e a FLPT retomou o controle da área. Em maio de 2021, o Governo Federal designou a FLPT como uma organização terrorista.
Em 2 de novembro de 2021, alguns dias antes da publicação do conteúdo, o primeiro-ministro impôs um estado de emergência nacional após a FLPT ter conquistado algumas partes das regiões de Amara e Afar, mais além do Tigré. O Governo Federal também convocou os cidadãos a pegar em armas, na medida em que a FLPT se aproximava da capital, Adis Abeba. No dia em que o conteúdo foi publicado, 5 de novembro, nove grupos da oposição, incluindo a FLPT, criaram uma aliança para exercer pressão sobre o Governo Federal e afastar o primeiro-ministro.
A página do TCAB tem cerca de 260 mil seguidores e está configurada como pública, o que significa que pode ser visualizada por qualquer usuário do Facebook. Ela está verificada por um selo de marca de seleção, o que confirma que a página ou perfil denota a presença autêntica de uma pessoa ou entidade. O conteúdo foi visualizado mais de 300 mil vezes e compartilhado menos de mil vezes.
Desde o dia 5 de novembro, dez usuários o denunciaram por violações às políticas sobre violência e incitação, organizações e indivíduos perigosos e discurso de ódio. Além disso, os sistemas automatizados da Meta o identificaram como potencialmente violador e o enviaram para análise. Após avaliação de dois analistas humanos, ambos falantes do idioma amárico, a Meta determinou que o conteúdo não violava suas políticas e não o removeu da plataforma.
No dia 4 de novembro, um dia antes da publicação do conteúdo, a Meta convocou um Centro de Operações de Produtos de Integridade para monitorar e responder em tempo real à situação que evoluía rapidamente na Etiópia. Segundo a Meta, um IPOC é um grupo formado por especialistas em um determinado assunto dentro da empresa, reunidos por um breve período para fornecer monitoramento em tempo real e abordar um potencial fluxo de abusos nas plataformas da Meta. Por meio dele, o conteúdo foi encaminhado para uma análise adicional por especialistas no assunto e em políticas. Após essa análise, a Meta determinou que o conteúdo violava a política sobre violência e incitação, que proíbe “declarações de intenção de cometer violência de alta gravidade”. O conteúdo permaneceu na plataforma por aproximadamente dois dias antes de ser removido.
Desde o início do conflito em novembro de 2020, houve relatos críveis de violações dos direitos humanos internacionais e humanitários cometidas por todas as partes envolvidas. O Relatório da investigação conjunta da Comissão de Direitos Humanos da Etiópia e do Escritório do Alto Comissariado das Nações Unidas para os Direitos Humanos encontrou exemplos documentados de tortura e outras formas de tratamento cruel, desumano ou degradante, execução extrajudicial de civis e combatentes capturados, sequestros, desaparecimentos forçados e violência sexual e baseada em gênero, entre outros crimes internacionais (consulte também o Observatório da Paz na Etiópia). A equipe de investigação conjunta constatou que pessoas que não participavam diretamente das hostilidades foram assassinadas por ambos os lados do conflito. Isso incluía assassinatos de retaliação e baseados em etnia. Tanto as forças federais como as forças do Tigré “cometeram atos de tortura e maus-tratos contra civis e combatentes capturados em vários locais do Tigré, incluindo campos militares, instalações de detenção, os domicílios das vítimas, bem como locais secretos e não identificados”. Indivíduos considerados afiliados à FLPT foram submetidos a desaparecimento forçado ou presos arbitrariamente, e as esposas de homens desaparecidos ou presos sofreram violência sexual pelas forças armadas federais. De forma semelhante, as esposas de membros das forças armadas federais foram agredidas sexualmente ou estupradas por combatentes tigrínios. Muitas pessoas sofreram estupro coletivo. As forças armadas federais também se recusaram a facilitar o acesso a assistência humanitária em áreas afetadas pelo conflito. Outros grupos armados e milícias também estiveram envolvidos, e a Eritreia apoiou o exército nacional da Etiópia no conflito. Embora a investigação conjunta tenha coberto eventos que ocorreram entre 3 de novembro de 2020 e 28 de junho de 2021, as constatações fornecem um contexto significativo para este caso e o aumento subsequente das hostilidades em novembro de 2021, quando a FLPT conquistou territórios fora do Tigré.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar decisões que a Meta indica para análise, segundo o Artigo 2 da Seção 1 e do o Artigo 2 da Seção 2.1.1 dos Regulamentos Internos. De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política com sugestões não vinculativas às quais a Meta deve responder (Artigo 3, Seção 4 e Artigo 4 do Estatuto) .
4. Fontes de autoridade
O Comitê de Supervisão considerou as seguintes fontes de autoridade:
I.Decisões do Comitê de Supervisão:
As decisões anteriores mais pertinentes do Comitê de Supervisão incluem:
- “Alegação de crimes em Raya Kobo” [ Decisão sobre o caso 2021-014-FB-UA]: O Comitê recomenda que os Padrões da Comunidade do Facebook mostrem que os boatos não verificáveis representam um risco maior para os direitos à vida e à segurança das pessoas em contextos de guerra e conflito violento. Ele recomenda também que a Meta encomende uma avaliação independente de diligência devida de direitos humanos sobre como o uso de suas plataformas aumentou o risco de violência na Etiópia.
- “Suspensão do ex-presidente Trump” [ Decisão sobre o caso 2021-001-FB-FBR]: O Comitê recomendou que a Meta desenvolva e publique uma política para situações de crise. Ele também fez uma recomendação sobre a necessidade de coletar, preservar e, se apropriado, compartilhar informações para auxiliar na investigação e na possível acusação de violações graves de leis internacionais criminais, humanitárias e de direitos humanos por autoridades competentes e mecanismos de imputabilidade.
- “Caso de vídeo explícito do Sudão” [ Decisão sobre o caso 2022-002-FB-MR]: O Comitê reiterou a sua recomendação sobre o caso da “Suspensão do ex-presidente Trump” de que a Meta desenvolva e publique uma política em resposta a situações de crise “em que seus processos normais não previnam nem evitem danos iminentes”.
II.Políticas de conteúdo da Meta:
Padrões da Comunidade do Facebook:
Na sua política sobre violência e incitação, a Meta declara que removerá todo conteúdo que “incite ou facilite violência grave”. A política proíbe “ameaças que possam levar à morte (e outras formas de violência de alta gravidade) ... direcionadas a pessoas ou lugares”. Ela proíbe também “declarações de intenção de cometer violência de alta gravidade”.
III.Os valores da Meta:
Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook. O valor “Voz” é definido como “fundamental”:
O objetivo de nossos Padrões da Comunidade sempre foi criar um espaço para expressão e dar voz às pessoas. Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
A Meta limita a “Voz” com base em outros quatro valores, e dois são pertinentes aqui:
“Segurança”: Removemos conteúdo que possa contribuir para o risco de danos à segurança física das pessoas.
“Dignidade” : Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.
IV.Padrões internacionais dos direitos humanos
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o seu compromisso com relação aos direitos humanos de acordo com os UNGPs. É significativo o fato de que os UNGPs impõem uma responsabilidade maior às empresas que operam em um contexto de conflito (Empresas, direitos humanos e regiões afetadas por conflitos: em direção a uma maior ação”, A/75/212). Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise que o Comitê fez das responsabilidades da Meta em termos de direitos humanos.
- O direito de liberdade de expressão: Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos (PIDCP); Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011; Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/73/348 (2018).
- Direito à vida: Artigo 6, PIDCP; Comentário Geral N° 36, Comitê de Direitos Humanos (2018).
- O direito a não ser submetido a tortura ou punições cruéis, desumanas ou degradantes: Artigo 7 do PIDCP.
- Direito à segurança das pessoas: Artigo 9, parágrafo 1, PIDCP.
5. Envios de usuário
Após o encaminhamento da Meta e a decisão do Comitê de aceitar o caso, o usuário recebeu uma notificação sobre a análise do Comitê e uma oportunidade para enviar uma declaração a ele. No entanto, o usuário não a enviou.
6. Envios da Meta
Na indicação do caso ao Comitê, a Meta afirmou que a decisão acerca do conteúdo foi difícil, uma vez que envolvia a remoção de “discurso oficial do governo com potencial valor jornalístico”. No entanto, observou o possível risco de incitação à violência durante um conflito em andamento. A Meta declarou não ter cogitado conceder a permissão de conteúdo de interesse jornalístico porque ela não se aplica a conteúdo que apresente um risco de contribuir para lesão corporal.
Desde o final de 2020, a Meta declarou ter tratado a Etiópia como um país em risco de Nível 1, o nível de risco mais alto. Segundo a Meta, classificar os países como em risco faz parte de seu processo para priorizar investimentos em recursos de produtos a longo prazo. Por exemplo, como resposta ao alto risco na Etiópia, a Meta desenvolveu classificadores de idiomas (ferramentas de aprendizado de máquina treinadas para detectar, automaticamente, potenciais violações dos Padrões da Comunidade) em amárico e oromo, dois dos idiomas mais usados na Etiópia. Segundo a empresa, os classificadores iniciais em amárico e oromo foram lançados em outubro de 2020. Em junho de 2021, a Meta lançou o que ela chama de classificadores de “Discurso Hostil” em amárico e oromo (ferramentas de aprendizado de máquina treinadas para identificar conteúdo sujeito às políticas de discurso de ódio, violência e incitação e bullying e assédio). A empresa também criou um IPOC para a Etiópia em 4 de novembro de 2021, em resposta à escalada do conflito. Normalmente, os IPOCs operam durante vários dias ou semanas. Um IPOC é convocado para eventos planejados, como determinadas eleições, ou em resposta a eventos não planejados arriscados. Qualquer funcionário da Meta pode solicitar um IPOC. A solicitação é analisada por um grupo de diferentes partes interessadas e de vários níveis dentro da empresa, incluindo representantes das equipes de Operações, Políticas e Produto. Existem diferentes níveis de IPOC, que fornecem níveis crescentes de coordenação e comunicação do monitoramento de conteúdo na plataforma. O IPOC convocado em novembro de 2021 para a Etiópia era de Nível 3, que “envolve o mais alto nível de coordenação dentro da Meta”. Como a Meta explicou, os IPOCs são uma “solução de curto prazo” destinados a “entender um amplo conjunto de problemas e como abordá-los durante uma situação de crise ou de alto risco. Não pretendem ter soluções sustentáveis e de longo prazo para lidar com um conflito de anos.”
A Meta consultou a análise do Comitê no caso “Alegação de crimes em Raya Kobo” para respaldar a proposição de que a resolução da tensão entre proteger a liberdade de expressão e reduzir a ameaça de conflito sectário requer uma consideração cuidadosa das características específicas do conflito. A Meta mencionou também os crimes de atrocidades documentados cometidos por todas as partes do conflito. A Meta afirmou ao Comitê que, dada a natureza da ameaça, o status influente do autor do conteúdo e a situação que piorava rapidamente na Etiópia no momento em que o conteúdo foi publicado, o valor “Segurança” prevaleceu sobre outras considerações, e seria seguido melhor se o conteúdo fosse removido na plataforma, e não mantido, apesar de seu valor potencial em alertar pessoas na Etiópia sobre violência futura.
O Comitê fez 20 perguntas à Meta. A Meta respondeu a 14 perguntas de forma completa e a seis perguntas de forma parcial. As respostas parciais estavam relacionadas com a abordagem da empresa em matéria de moderação de conteúdo em situações de conflito armado, a imposição de restrições às contas por violação das políticas sobre conteúdo e o processo de verificação cruzada.
7. Comentários públicos
O Comitê de Supervisão recebeu e examinou sete comentários públicos relacionados a este caso. Um dos comentários foi enviado da Ásia-Pacífico e Oceania, três da Europa, um da África Subsaariana e dois dos Estados Unidos e Canadá.
Os envios cobriam os seguintes temas: a incoerência da abordagem da Meta no contexto de diferentes conflitos armados; o risco maior que acompanha as ameaças de violência críveis entre as partes durante um conflito armado; os problemas com a moderação de conteúdo da Meta na Etiópia e o papel das redes sociais em ambientes de informação fechados; os antecedentes factuais do conflito na Etiópia, incluindo os prejuízos sofridos pelo povo do Tigré e o papel do discurso de ódio contra os tigrínios no Facebook na disseminação da violência; e a necessidade de levar em consideração a legislação sobre conflitos armados ao se desenvolver políticas para moderar o discurso durante um conflito armado.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
Em abril de 2022, como parte do envolvimento em andamento das partes interessadas, o Comitê consultou representantes de organizações de defesa de interesses sociais, acadêmicos, organizações intergovernamentais e outros especialistas sobre a questão da moderação de conteúdo no contexto de um conflito armado. As discussões incluíram o tratamento do discurso pelas partes de um conflito e a aplicação da política sobre violência e incitação em situações de conflito.
8. Análise do Comitê de Supervisão
O Comitê examinou se o conteúdo deveria ser restaurado e as implicações mais amplas da abordagem da Meta à governança do conteúdo, por meio de três perspectivas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.
8.1 Conformidade com as políticas de conteúdo da Meta
O Comitê considera que remover o conteúdo da plataforma é coerente com o Padrão da Comunidade sobre violência e incitação. A política proíbe “ameaças que possam levar à morte (e outras formas de violência de alta gravidade) ... direcionadas a pessoas ou lugares”, incluindo “declarações de intenção de cometer violência de alta gravidade”. O Comitê considera que o conteúdo pode ser interpretado, razoavelmente, por terceiros como uma chamada que poderia incitar ou encorajar atos de violência real no contexto já violento de um conflito armado. Sendo assim, o conteúdo viola a proibição da Meta de “declarações de intenção de cometer violência de alta gravidade”.
8.2 Conformidade com os valores da Meta
O Comitê conclui que a remoção desse conteúdo da plataforma é coerente com os valores “Segurança” e “Dignidade” da Meta.
O Comitê reconhece a importância do valor “Voz”, especialmente em um país com um histórico deficiente em matéria de liberdades civis e de imprensa e onde as plataformas das redes sociais servem como um meio importante de comunicar informações sobre o conflito armado em andamento. No entanto, no contexto de um conflito armado, marcado por uma história de violência sectária e violações do direito internacional, os valores “Segurança” e “Dignidade” prevalecem neste caso para proteger os usuários contra conteúdos que aumentem o risco de violência. Neste caso, o conteúdo pode ser interpretado como uma chamada para matar o “Abiy Ahmed’s group” (grupo de Abiy Ahmed). Ele também pode ser interpretado como um aviso de punição para aqueles que não se renderem à FLPT, gerando assim um risco à vida e à integridade física das forças federais e dos líderes políticos da Etiópia. Embora o conteúdo tenha sido compartilhado pelo órgão regional que está no governo, a publicação em si não contém informações com valor de interesse público suficiente para compensar o risco de danos.
8.3 Conformidade com as responsabilidades sobre direitos humanos da Meta
O Comitê considera que remover o conteúdo neste caso é coerente com as responsabilidades da Meta com os direitos humanos. Durante um conflito armado, a empresa também tem a responsabilidade de estabelecer um sistema transparente e baseado em princípios para moderar conteúdo quando exista uma probabilidade razoável de que o conteúdo incite violência. O Comitê observa o risco elevado de que o conteúdo contribua diretamente à ocorrência de danos durante um conflito armado. O Comitê considera que atualmente a Meta carece de um quadro transparente e baseado em princípios para a moderação de conteúdo em zonas de conflito.
Liberdade de expressão (Artigo 19 do PIDCP)
O Artigo 19 do PIDCP oferece ampla proteção à liberdade de expressão, inclusive o direito de buscar e receber informações sobre possível violência. No entanto, é possível restringir esse direito em determinadas condições específicas que satisfaçam o teste tripartite de legalidade (clareza), legitimidade e necessidade e proporcionalidade. A Meta se comprometeu a respeitar os direitos humanos em conformidade com os UNGPs e a consultar autoridades como o PIDCP ao tomar decisões relacionadas com conteúdo, inclusive em situações de conflito armado. O Plano de Ação de Rabat também fornece orientações úteis sobre esse assunto. Como afirmou o Relator Especial da ONU sobre liberdade de expressão, embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão ”(A/74/486, parágrafo 41).
I. Legalidade (clareza e acessibilidade das regras)
Qualquer restrição à liberdade de expressão deve estar acessível e ser clara o suficiente para dar orientações aos usuários e aos analistas sobre qual conteúdo é ou não permitido na plataforma. A falta de clareza ou precisão pode levar a uma aplicação incoerente e arbitrária das regras.
A política sobre violência e incitação proíbe “ameaças que possam levar à morte” e, em particular, “declarações de intenção de cometer violência de alta gravidade”. O Comitê considera que a política aplicável neste caso é clara. No entanto, durante o processo de tomada de decisões sobre este caso, o Comitê considera que a Meta fornece informações insuficientes sobre como ela implementa a política sobre violência e incitação em situações de conflito armado, quais são as exceções disponíveis dessa política e como elas são usadas, ou eventuais processos especializados de aplicação da política que a empresa usa para esse tipo de situação.
II.Objetivo legítimo
As restrições à liberdade de expressão devem ter um objetivo legítimo, que inclua o respeito aos direitos de terceiros e a proteção da segurança nacional e da ordem pública. O Padrão da Comunidade do Facebook sobre violência e incitação existe para evitar danos no meio físico que possam estar relacionados ao conteúdo do Facebook. Conforme concluído anteriormente pelo Comitê na decisão sobre o caso “Alegação de crimes em Raya Kobo”, as restrições baseadas nessa política atendem ao objetivo legítimo de proteção do direito à vida e à integridade física.
III.Necessidade e proporcionalidade
A necessidade e a proporcionalidade exigem que a Meta mostre que sua restrição à liberdade de discurso foi necessária para enfrentar a ameaça, neste caso, aos direitos de terceiros, e que não era muito ampla (Comentário Geral 34, parágrafo 34). Ao fazer essa avaliação, o Comitê considerou também os fatores do Plano de Ação de Rabat sobre o que constitui incitação à violência (O Plano de Ação de Rabat, OHCHR, A/HRC/22/17/Ad.4,2013, ao mesmo tempo em que leva em conta as diferenças entre as obrigações do direito internacional dos Estados e as responsabilidades de direitos humanos das empresas.
Neste caso, o Comitê considera que a remoção desse conteúdo da plataforma era uma restrição necessária a adequada à liberdade de expressão em conformidade com as leis internacionais de direitos humanos. Usando o teste de seis partes do Plano de Ação de Rabat para embasar sua análise, o Comitê encontra respaldo para a remoção dessa publicação.
O contexto na Etiópia; o status e a intenção do autor do conteúdo; o conteúdo do discurso e o seu alcance; e a probabilidade de dano no meio físico são todos fatores que contribuem para o aumento do risco de violência no meio físico. (1) Contexto: o conteúdo foi publicado no contexto de uma guerra civil em andamento e sofrendo uma escalada. Desde o seu início, o conflito foi marcado por violações dos direitos humanos internacionais e humanitários cometidas por todas as partes envolvidas. (2) Autor do conteúdo: o autor é um ministério do governo regional afiliado a uma das partes envolvidas no conflito, com alcance e influência significativos, incluindo a autoridade de dirigir as forças armadas do Tigré. (3) Intenção: considerando a linguagem utilizada e o contexto, existe no mínimo uma chamada explícita a matar os soldados que não se renderem; e pode-se razoavelmente inferir que existe uma intenção adicional de cometer danos. (4) Conteúdo: a publicação pode ser lida como uma incitação para visar combatentes e líderes políticos, independentemente da participação deles nas hostilidades. (5) Extensão da disseminação: o conteúdo foi publicado em uma página pública de um órgão ligado a uma das partes envolvidas no conflito, com cerca de 260 mil seguidores e permaneceu na plataforma durante dois dias antes de ser removido. (6) Probabilidade e iminência: o conteúdo foi publicado aproximadamente no momento em que as forças da FLPT estavam avançando para outras partes da Etiópia fora do Tigré, e em que o Primeiro-ministro declarou um estado de emergência nacional e convocou os civis a pegar em armas e lutar.
Embora o Comitê tenha considerado que a remoção do conteúdo neste caso era necessária e adequada, ficou clara também ao Comitê, ao analisar o caso, a necessidade de mais transparência para avaliar se as medidas da Meta são adequadas de forma coerente no contexto de um conflito e entre todos os diferentes conflitos armados. A empresa tem consciência, há muito tempo, de como suas plataformas são usadas para disseminar discurso de ódio e incitar violência étnica. Embora a Meta tenha tomado medidas positivas para melhorar seu sistema de moderação em alguns conflitos (por exemplo, encomendando uma avaliação independente sobre o viés na moderação de conteúdo no conflito entre Israel e Palestina em resposta à recomendação do Comitê), ela não tomou medidas suficientes para avaliar suas políticas e processos existentes e para desenvolver um quadro transparente e baseado em princípios para a moderação de conteúdo em zonas de conflito. Alguns Membros do Comitê expressaram que a moderação de conteúdo da Meta em zonas de conflito deveria basear-se no direito internacional humanitário.
Na Etiópia, a Meta descreveu as medidas que tomou para remover conteúdo que incita outras pessoas à violência. A empresa se refere a dois processos gerais para países em risco de apresentar ou que já apresentam conflitos violentos, que foram usados na Etiópia: o sistema de níveis dos “países em risco” e os IPOCs. A Etiópia foi designada como um país em risco de nível 1 (o risco mais alto) desde o final de 2020 e tinha um IPOC de nível 3 (o nível mais alto) no momento em que o conteúdo foi publicado. Apesar disso, o conteúdo só foi removido dois dias depois, apesar da linha de política clara que ele violava. O Comitê observa que dois dias, no contexto de um conflito armado, é um período considerável, dada a avaliação de Rabat descrita acima. Isso também sugere a inadequação do sistema de níveis de países em risco e dos IPOCs como solução para lidar com eventos que apresentam um maior risco de violação dos direitos humanos.
A Meta não fornece informações públicas suficientes sobre o método geral ou os critérios usados para a avaliação dos “países em risco” e sobre os investimentos em produtos que a empresa tenha realizado como resultado, na Etiópia e em outras situações de conflito. Sem essas informações, nem o Comitê nem o público podem avaliar a eficácia e a equidade desses processos, se os investimentos da empresa em produtos são equitativos ou se são implementados com velocidade e diligência semelhantes em diferentes regiões e situações de conflito.
Os IPOCs são, nas palavras da Meta, “soluções de curto prazo” e convocados ad hoc. Isso sugere ao Comitê que pode ser necessário que a empresa invista mais recursos em um mecanismo interno sustentável que forneça o know-how, a capacidade e a coordenação necessários para analisar e responder a conteúdos de maneira eficaz por toda a duração de um conflito. Essa avaliação deve basear-se em know-how de políticas e países.
A abordagem atual da Meta no que diz respeito à moderação de conteúdo em zonas de conflito leva ao surgimento de inconsistências. Atualmente, há cerca de 27 conflitos armados no mundo, de acordo com o Conselho para as Relações Externas. Em pelo menos um conflito (Rússia-Ucrânia), segundo alguns observadores, a Meta parece ter rapidamente tomado medidas e criado exceções às políticas para permitir conteúdo que, caso contrário, seriam proibidas pela política sobre violência e incitação, enquanto teria levado um tempo excessivo para responder em outras situações de conflito. Um comentário público (PC-10433), enviado pelo Dr. Samson Esayas, professor adjunto na BI Norwegian Business School, notou as “swift measures” (medidas rápidas) de moderação de conteúdo no contexto do conflito Rússia-Ucrânia e destacou o “differential treatment between this conflict and conflicts in other regions, particularly Ethiopia and Myanmar” (tratamento diferenciado entre esse conflito e conflitos em outras regiões, especialmente na Etiópia e no Mianmar). Isso leva a crer que existe uma abordagem inconsistente, o que é problemático para uma empresa com o alcance e os recursos da Meta, especialmente no contexto de um conflito armado.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão mantém a decisão da Meta de remover o conteúdo por violação do Padrão da Comunidade sobre violência e incitação.
10. Declaração de parecer consultivo
Transparência
1. Em conformidade com a recomendação do Comitê no caso da “Suspensão do ex-presidente Trump”, como reiterado no caso do “Vídeo explícito do Sudão”, a Meta deveria publicar informações sobre o seu Protocolo de Políticas de Crise. O Comitê considerará essa recomendação como implementada quando as informações sobre o Protocolo de Políticas de Crise estiverem disponíveis na Central de Transparência em um prazo de até seis meses após esta decisão ser publicada, como política separada na Central de Transparência, além da apresentação de slides do Fórum sobre Políticas Públicas.
Monitoramento
2. Para melhorar a aplicação de suas políticas de conteúdo durante períodos de conflito armado, a Meta deveria avaliar a viabilidade de estabelecer um mecanismo interno sustentável que forneça o know-how, a capacidade e a coordenação necessários para analisar e responder a conteúdos de maneira eficaz por toda a duração de um conflito. O Comitê considerará essa recomendação como implementada quando a Meta fornecer ao Comitê uma visão geral da viabilidade de um mecanismo interno sustentável.
* Nota sobre procedimento:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas