Anulado
Discurso de general brasileiro
O Comitê de Supervisão anula a decisão original da Meta de deixar no ar um vídeo do Facebook que mostra um general brasileiro convocando as pessoas a “invadir o Congresso Nacional e o Supremo Tribunal Federal”.
Resumo do caso
O Comitê de Supervisão anulou a decisão original da Meta de deixar no ar um vídeo do Facebook que mostra um general brasileiro convocando as pessoas a “ir às ruas” e “invadir o Congresso Nacional e o Supremo Tribunal Federal”. Embora o Comitê reconheça que a Meta tenha estabelecido várias medidas de avaliação e mitigação de riscos durante e após as eleições, dado o risco potencial de suas plataformas serem usadas para incitar a violência no contexto das eleições, a empresa deve aumentar continuamente seus esforços para prevenir, mitigar e tratar resultados adversos. O Comitê recomenda que a Meta desenvolva uma estrutura para avaliar seus esforços de integridade eleitoral com o objetivo de evitar que suas plataformas sejam usadas para promover a violência política.
Sobre o caso
As eleições presidenciais brasileiras em outubro de 2022 foram altamente polarizadas, com manifestações online e offline generalizadas e coordenadas questionando a legitimidade do pleito eleitoral. Entre as ações, estão pedidos de intervenção militar e de invasão de prédios do governo para impedir a transição para um novo governo. O elevado risco de violência política não diminuiu com a posse do recém-eleito presidente Luiz Inácio Lula da Silva em 1º de janeiro de 2023, uma vez que a agitação civil, os protestos e os acampamentos em frente a bases militares continuaram.
Dois dias depois da posse, em 3 de janeiro de 2023, um usuário do Facebook publicou um vídeo relacionado às eleições brasileiras de 2022. Na legenda em português, havia um apelo para "sitiar" o Congresso brasileiro como "a última alternativa". O vídeo também mostra parte de um discurso feito por um importante general brasileiro que apoia a reeleição do ex-presidente Jair Bolsonaro. No vídeo, o general uniformizado pede que as pessoas “saiam às ruas” e “vão ao Congresso Nacional... [e ao] Supremo Tribunal Federal”. Na sequência, aparecem imagens, incluindo uma de um incêndio na Praça dos Três Poderes, em Brasília, onde estão sediados a Presidência da República, o Congresso e o Supremo Tribunal Federal. O texto na imagem dizia, em português: “Venha para Brasília! Vamos invadir! Vamos sitiar os três poderes”. O texto sobreposto na outra imagem dizia “exigimos o código-fonte”, um slogan que os manifestantes usaram para questionar a credibilidade das urnas eletrônicas do Brasil.
No dia em que o conteúdo foi publicado, um usuário o denunciou por violar os Padrões da Comunidade da Meta sobre violência e incitação, que proíbem a convocação para entrada forçada em locais de alto risco. No total, quatro usuários denunciaram o conteúdo sete vezes entre 3 e 4 de janeiro. Após a primeira denúncia, um analista humano analisou o conteúdo e concluiu que ele seguia as políticas da Meta. O usuário fez uma apelação da decisão, que foi mantida por um segundo analista. No dia seguinte, cinco moderadores diferentes analisaram as outras seis denúncias, e todos consideraram que o conteúdo não violava as políticas da Meta.
No dia 8 de janeiro, apoiadores do ex-presidente Jair Bolsonaro invadiram o Congresso Nacional, o Supremo Tribunal Federal e a Presidência da República, localizados na Praça dos Três Poderes em Brasília, intimidando policiais e destruindo o patrimônio público. Em 9 de janeiro, a Meta declarou o tumulto de 8 de janeiro como um "evento violador" de acordo com sua política de organizações e indivíduos perigosos, afirmando que removeria "conteúdo que apoiasse ou elogiasse essas ações". A empresa também anunciou que havia “indicado o Brasil como um local temporário de alto risco” e “estava removendo conteúdo que conclamava as pessoas a se armar ou invadir à força o Congresso, o palácio presidencial e outros edifícios federais”.
Como resultado da seleção do caso pelo Comitê, a Meta determinou que as várias decisões de manter o conteúdo no Facebook foram um equívoco. Em 20 de janeiro de 2023, depois que o Comitê selecionou esse caso, a Meta removeu o conteúdo.
Principais conclusões
Esse caso levanta preocupações sobre a eficácia dos esforços de integridade eleitoral da Meta no contexto das eleições gerais de 2022 no Brasil e em outros lugares. Embora contestar a integridade das eleições seja normalmente considerado discurso protegido, alegações generalizadas que tentam minar as eleições podem levar à violência em algumas circunstâncias. Nesse caso, a intenção do interlocutor, o conteúdo do discurso e seu alcance, bem como a probabilidade de dano iminente resultante do contexto político do Brasil na época, justificaram a remoção da publicação.
Para que uma publicação viole as regras da Meta sobre a convocação para entrada forçada em locais de alto risco, o local deve ser considerado de "alto risco" e deve estar situado em uma área ou vizinhança designada separadamente como "local de alto risco temporário". Como a publicação era uma convocação inequívoca para entrar à força nos prédios do governo situados na Praça dos Três Poderes em Brasília ("locais de alto risco" situados em um "local de alto risco temporário", Brasil), as decisões iniciais da Meta de deixar esse conteúdo ativo durante um período de violência política intensificada representaram um claro desvio de suas próprias regras.
Persiste certa inquietação por parte do Comitê com o fato de que, apesar da agitação civil no Brasil no momento em que o conteúdo foi publicado e da proliferação generalizada de conteúdo semelhante nas semanas e meses anteriores aos tumultos de 8 de janeiro, os moderadores de conteúdo da Meta tenham avaliado repetidamente esse conteúdo como não violador e não o tenham encaminhado para uma análise mais detalhada. Além disso, quando o Comitê solicitou à Meta informações sobre reivindicações específicas relacionadas a eleições em suas plataformas antes, durante e depois das eleições brasileiras, a empresa explicou que não possui dados sobre a prevalência de tais reivindicações. Nesse caso específico, o conteúdo foi finalmente removido mais de duas semanas depois, quando o evento violador que ele incitava já havia ocorrido, e somente depois que o Comitê levou o caso à atenção da Meta.
Em resposta a uma pergunta do Comitê, a Meta afirmou não adotar nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral. Portanto, o Comitê considera que a Meta deve desenvolver uma estrutura para avaliar os esforços de integridade eleitoral da empresa e para fazer divulgações públicas sobre o assunto. O objetivo da ação é permitir que a empresa reúna dados relevantes para aprimorar seu sistema de moderação de conteúdo como um todo e decidir a melhor forma de empregar seus recursos em contextos eleitorais. Sem esse tipo de informação, nem o Comitê nem o público podem avaliar a eficácia dos esforços de integridade eleitoral da Meta de forma mais ampla.
Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de manter a publicação.
O Comitê recomenda que a Meta faça o seguinte:
- Desenvolva uma estrutura para avaliar seus esforços de integridade eleitoral. Isso inclui a criação e o compartilhamento de métricas para esforços de integridade eleitoral bem-sucedidos, como aqueles relacionados à aplicação das políticas de conteúdo da Meta e a abordagem aos anúncios.
- Esclareça em sua Central de Transparência que, além do Protocolo de Política de Crise, a empresa trabalha com outros protocolos em sua tentativa de prevenir e enfrentar o risco potencial de danos que surgem em contextos eleitorais ou em outros eventos de alto risco.
* Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão anula a decisão original da Meta de deixar no ar um vídeo do Facebook que mostra um general brasileiro convocando as pessoas a “ir às ruas” e “invadir o Congresso Nacional e o Supremo Tribunal Federal”. Essas instigações foram seguidas de uma imagem da Praça dos Três Poderes em Brasília, onde esses edifícios governamentais estão localizados, em chamas, com um texto sobreposto que diz “Venha para Brasília! Vamos invadir! Vamos sitiar os três poderes”. O Comitê considera que essas declarações são incentivos claros e inequívocos para invadir e assumir o controle desses edifícios e foram por apoiadores de Bolsonaro que contestavam os resultados das eleições e pediam intervenção militar para interromper a transição de governo em curso. Depois que o Comitê selecionou essa publicação para análise, a Meta reverteu sua decisão original e a removeu do Facebook.
Esse caso levanta preocupações mais abrangentes sobre a eficácia dos esforços de integridade eleitoral da Meta no contexto das eleições gerais de 2022 no Brasil e em outros lugares. Em geral, contestar a integridade das eleições é considerado discurso protegido, mas, em algumas circunstâncias, reivindicações online e offline generalizadas que tentam prejudicar as eleições, como as do caso em questão, podem provocar violência no meio físico. No Brasil, todos os sinais de alerta estavam presentes e indicavam que essa violência ocorreria. Embora o Comitê reconheça que a Meta tenha estabelecido várias medidas de avaliação e mitigação de riscos durante e após as eleições, dado o risco potencial de suas plataformas serem usadas para incitar a violência no contexto das eleições, a empresa deve aumentar continuamente seus esforços para prevenir, mitigar e tratar resultados adversos. A fase pós-eleitoral deve estar incluída nos esforços de integridade eleitoral da Meta para confrontar o risco de violência em um contexto de transição de poder.
Portanto, o Comitê recomenda que a Meta desenvolva uma estrutura para avaliar os esforços de integridade eleitoral da empresa e para fazer divulgações públicas sobre o assunto. Essa estrutura deve incluir métricas de sucesso sobre os aspectos mais relevantes dos esforços de integridade eleitoral da Meta, permitindo que a empresa não apenas identifique e reverta erros, mas também acompanhe a eficácia de suas medidas em situações críticas. Além disso, o Comitê recomenda que a Meta esclareça quais são os diferentes protocolos e medidas que mantém para prevenir e enfrentar o risco potencial de danos que surgem em contextos eleitorais e outros eventos de alto risco. Isso inclui nomear e descrever esses protocolos, seus objetivos, os pontos de contato e as diferenças entre eles. Esses protocolos precisam ser mais eficazes, ter uma cadeia de comando clara e contar com uma equipe adequada, especialmente quando operam em um contexto de eleições com um risco maior de violência política. Essas recomendações ajudariam a melhorar o sistema de moderação de conteúdo da empresa como um todo, o que colocaria a Meta em uma posição melhor para evitar que suas plataformas sejam usadas com o objetivo de promover a violência política, bem como para aprimorar suas respostas à violência resultante das eleições de forma mais geral.
2. Descrição do caso e histórico
Em 3 de janeiro de 2023, um usuário do Facebook publicou um vídeo relacionado às eleições brasileiras de 2022. Na legenda em português, havia um apelo para "sitiar" o Congresso brasileiro como "a última alternativa". O vídeo de um minuto e 32 segundos mostra parte de um discurso feito por um importante general brasileiro que apoiava a reeleição do ex-presidente Jair Bolsonaro. No vídeo, o general uniformizado pede que as pessoas “saiam às ruas” e “vão ao Congresso Nacional... [e ao] Supremo Tribunal Federal”. Na sequência, aparecem imagens, incluindo uma de um incêndio na Praça dos Três Poderes, em Brasília, onde estão sediados a Presidência da República, o Congresso e o Supremo Tribunal Federal. O texto na imagem dizia, em português: “Venha para Brasília! Vamos invadir! Vamos sitiar os três poderes”. O texto sobreposto na outra imagem dizia “exigimos o código-fonte”, um slogan que os manifestantes usaram para questionar a credibilidade das urnas eletrônicas do Brasil. O vídeo foi reproduzido mais de 18.000 vezes e não foi compartilhado.
Dois dias antes da publicação do conteúdo, o adversário eleitoral de Bolsonaro, Luiz Inácio Lula da Silva, foi empossado como presidente do Brasil após vencer o segundo turno das eleições presidenciais em 30 de outubro de 2022 com 50,9% dos votos. Os períodos antes, entre e após os dois turnos de votação foram marcados por maior risco de violência política, estimulado por alegações envolvendo uma iminente fraude eleitoral. A base da alegação era a suposta vulnerabilidade das urnas eletrônicas brasileiras a hackers. Antes da eleição, o então presidente Bolsonaro alimentou a desconfiança no sistema eleitoral, alegando fraude sem provas e afirmando que as urnas eletrônicas não são confiáveis. Alguns oficiais militares repetiram alegações semelhantes de fraude eleitoral e saíram em defesa do uso das forças armadas como árbitro em disputas eleitorais. Vários casos de anúncios políticos atacando a legitimidade das eleições nas plataformas da Meta foram denunciados. Entre os materiais, figuravam publicações e vídeos contendo ataques a autoridades judiciárias e a promoção de um golpe militar. Além disso, a Global Witness publicou um relatório sobre o Brasil descrevendo como anúncios políticos que violavam os Padrões da Comunidade foram aprovados pela empresa e circularam nas plataformas da Meta. O estudo rastreou relatórios semelhantes da organização referentes a outros países, como Mianmar e Quênia.
O período pós-eleitoral foi acompanhado de distúrbios civis, incluindo protestos, bloqueios de estradas e montagem de acampamentos em frente a bases militares para pedir às forças armadas que anulassem os resultados das eleições. De acordo com especialistas consultados pelo Comitê, o vídeo nesse caso apareceu online pela primeira vez em outubro de 2022, logo após os resultados eleitorais serem conhecidos; conteúdo semelhante permaneceu em diferentes plataformas de redes sociais até o tumulto de 8 de janeiro. Em 12 de dezembro de 2022, no mesmo dia em que a vitória de Lula foi confirmada pelo Tribunal Superior Eleitoral, um grupo de manifestantes pró-Bolsonaro tentou invadir a sede da Polícia Federal em Brasília. Vários atos de vandalismo foram registrados. Em 24 de dezembro de 2022, houve uma tentativa de atentado a bomba perto do aeroporto internacional de Brasília. O homem responsável pelo ataque foi preso e confessou que seu objetivo era atrair atenção para sua causa pró-golpe.
O alto risco de violência política no Brasil não diminuiu com a posse do novo presidente eleito em 1º de janeiro de 2023. Com base em uma pesquisa encomendada pelo Comitê, houve um aumento vertiginoso no número de alegações falsas sobre as urnas eletrônicas nas plataformas da Meta após o primeiro e o segundo turnos de votação, o que voltou a acontecer nas semanas seguintes à vitória de Lula. Além disso, nos dias anteriores ao 8 de janeiro, os apoiadores de Bolsonaro usaram vários slogans codificados para promover protestos em Brasília, concentrados especificamente em prédios do governo. A maior parte da organização logística parece ter sido realizada em outros canais de comunicação além do Facebook.
Missões internacionais de observação de eleições, como a Organização dos Estados Americanos e o Carter Center, relataram que não havia provas concretas de fraude e que a eleição havia sido conduzida de forma livre e justa, apesar das pressões de um eleitorado altamente polarizado. O Ministério da Defesa do Brasil também acompanhou formalmente a eleição e não relatou nenhuma evidência de irregularidades ou fraude, embora tenha posteriormente divulgado uma declaração contraditória de que as forças armadas “não descartam a possibilidade de fraude”. No Brasil, o Ministério da Defesa supervisiona o trabalho das forças armadas.
As tensões culminaram no episódio de 8 de janeiro, quando apoiadores do ex-presidente Jair Bolsonaro invadiram o Congresso Nacional, o Supremo Tribunal Federal e a Presidência da República, localizados na Praça dos Três Poderes em Brasília, mencionados no conteúdo do caso, intimidando policiais e destruindo o patrimônio público. Cerca de 1.400 pessoas foram presas por participarem nos tumultos de 8 de janeiro, sendo que cerca de 600 ainda estão sob custódia.
Na esteira dos eventos de 8 de janeiro, as Nações Unidas condenaram o uso da violência, dizendo que foi o “culmination of the sustained distortion of facts and incitement to violence and hatred by political, social and economic actors who have been fueling an atmosphere of distrust, division, and destruction by rejecting the result of democratic elections.” (ponto culminante da distorção contínua dos fatos e do incitamento à violência e ao ódio por parte de atores políticos, sociais e econômicos que têm alimentado uma atmosfera de desconfiança, divisão e destruição ao rejeitar o resultado de eleições democráticas). A organização reiterou o compromisso e a confiança nas instituições democráticas brasileiras. Os comentários públicos e os especialistas consultados pelo Comitê indicaram o efeito prejudicial que as alegações que lançam dúvidas preventivamente sobre a integridade do sistema eleitoral do Brasil tiveram ao impulsionar a polarização política e possibilitar a violência política no meio físico (veja os comentários públicos de Dangerous Speech Project [PC-11010], LARDEM - Clínica de Direitos Humanos da Pontifícia Universidade Católica do Paraná [PC-11011], Instituto Vero [PC-11015], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], Center for Democracy & Technology [PC-11018], InternetLab [PC-11019] e Coalizão Direitos na Rede [PC-11020]).
Em 9 de janeiro de 2023, a Meta declarou o tumulto de 8 de janeiro como um “evento violador” de acordo com sua política de organizações e indivíduos perigosos, afirmando que removeria todo “conteúdo que apoiasse ou elogiasse essas ações)”. A empresa também anunciou que havia "indicado o Brasil como um local de alto risco temporário" e que "estava removendo conteúdo que conclamava as pessoas a pegar em armas ou invadir à força o Congresso, o Palácio do Planalto e outros edifícios federais".
Em 3 de janeiro, no mesmo dia em que o conteúdo foi publicado, um usuário o denunciou por não seguir a política dos Padrões da Comunidade da Meta sobre Violência e Incitação, que proíbe apelos para “entrar à força em locais [...] onde há sinais temporários de risco elevado de violência ou dano no meio físico”. No total, quatro usuários denunciaram o conteúdo sete vezes entre 3 e 4 de janeiro. Após a primeira denúncia, um moderador humano analisou o conteúdo e concluiu que ele não violava as políticas da Meta. O usuário fez uma apelação da decisão, que outro moderador manteve. No dia seguinte, cinco moderadores diferentes analisaram as outras seis denúncias, e todos consideraram que o conteúdo não violava as políticas da Meta. O conteúdo foi encaminhado para especialistas no assunto e em políticas conduzirem outra análise. Em resposta a uma pergunta do Comitê, a Meta esclareceu que as sete pessoas que avaliaram o conteúdo estavam na Europa. De acordo com a Meta, todos eles são fluentes em português e reúnem o conhecimento linguístico e cultural necessários para analisar conteúdo em português do Brasil.
Como resultado da seleção do caso pelo Comitê, a Meta determinou que as várias decisões de manter o conteúdo no Facebook foram um equívoco. Em 20 de janeiro de 2023, depois que o Comitê selecionou o caso, a Meta removeu o conteúdo, aplicou uma advertência à conta de quem o publicou e impôs um limite de 24 horas a certos recursos, impedindo a pessoa de criar conteúdo novo nesse período. Apesar da ação da Meta, o envio de comentários públicos do grupo da sociedade civil Ekō ao Comitê e outros relatórios enfatizaram que conteúdos semelhantes permaneceram no Facebook mesmo depois que o caso em questão foi levado à atenção da Meta pela Comitê (PC-11000).
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação da pessoa que denunciou previamente o conteúdo que estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos). De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, e a decisão é vinculante para a empresa, nos termos do Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, de acordo com o Artigo 4 do Estatuto. As decisões do Comitê podem incluir sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 do Estatuto, Seção 4; Artigo 4 do Estatuto. Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
Quando seleciona casos como esse, em que a Meta reconhece posteriormente que cometeu um erro, o Comitê analisa a decisão original para ajudar a aumentar a compreensão dos parâmetros da política e dos processos de moderação de conteúdo que contribuíram para o erro. Na sequência, o Comitê tenta resolver os problemas que identifica nas políticas ou processos subjacentes da Meta. O Comitê também pretende emitir recomendações para que a Meta melhore a precisão da aplicação e trate os usuários de forma justa no futuro.
4. Fontes de autoridade e diretrizes
Os seguintes padrões e decisões precedentes fundamentaram a análise do Comitê neste caso:
I. Decisões do Comitê de Supervisão:
As decisões anteriores mais pertinentes do Comitê de Supervisão incluem as seguintes:
- “Suspensão do ex-presidente Trump” (decisão sobre o caso 2021-001-FB-FBR): o Comitê observou que, em contextos eleitorais, as responsabilidades da Meta com relação a direitos humanos exigem que se permita a expressão política, mas evitando riscos graves a outros direitos humanos.
- A “Decisão do Bot de Mianmar” (decisão sobre o caso 2021-007-FB-UA): o Comitê destacou a importância de proteger o discurso político durante períodos de crise política.
- Caso “Gabinete de Comunicações da Região do Tigré” (decisão sobre o caso 2022-006-FB-MR): o Comitê destacou que a Meta tem a responsabilidade de estabelecer um sistema transparente e baseado em princípios para moderar conteúdo em zonas de conflito, com a finalidade de mitigar os riscos de suas plataformas serem usadas para incitar violência.
- Decisão sobre o caso “Animação Knin” (decisão sobre o caso 2022-001-FB-UA): o Comitê pediu que a Meta explicasse melhor como o conteúdo é encaminhado aos especialistas no assunto.
II.Políticas de Conteúdo da Meta:
Padrões da Comunidade sobre Violência e Incitação
Com base nos Padrões da Comunidade sobre Violência e Incitação, a Meta não permite “declarações de intenção ou apoio, incitações ou declarações condicionais incitando a entrar à força em locais [incluindo, entre outros, locais religiosos, estabelecimentos educacionais, zonais eleitorais ou locais usados para contar votos ou administrar uma eleição] onde há sinais temporários de risco elevado de violência ou dano no meio físico”. A justificativa da política para esses Padrões da Comunidade é “evitar possíveis danos no meio físico que possam guardar relação com o conteúdo) que aparece nas plataformas da Meta”. Ao mesmo tempo, a Meta reconhece que “as pessoas comumente expressam desdém ou desacordo por meio de ameaças ou incitação à violência de maneira cômica”. Portanto, a Meta remove o conteúdo quando acredita que “há um risco genuíno de lesões corporais ou ameaças diretas à segurança pública”. Para determinar se uma ameaça é verossímil, a Meta também considera “a linguagem e o contexto”.
A análise do Comitê também foi fundamentada no compromisso com o valor “Voz” da Meta, que a empresa descreve como “fundamental”, e o valor “Segurança”.
III. Responsabilidades que a Meta tem com os direitos humanos
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades das empresas privadas em relação aos direitos humanos. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso com os direitos humanos de acordo com os UNGPs.
Ao analisar as responsabilidades da Meta com os direitos humanos no caso em questão, o Comitê levou em consideração as seguintes normas internacionais:
- O direito de liberdade de opinião e expressão: Artigos 19 e 20 do Pacto Internacional sobre Direitos Civis e Políticos, PIDCP); Comentário geral n.º 34 do Comitê de Direitos Humanos, de 2011; Artigo de pesquisa 1/2019 sobre eleições na era digital (2019): Relatórios do relator especial da ONU sobre a liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/74/486 (2019); Plano de Ação de Rabat, Alto Comissariado das Nações Unidas para os Direitos Humanos, relatório: A/HRC/22/17/Add.4 (2013).
- Direito de reunião pacífica: Artigo 21 do PIDCP; Comentário geral n.º 37, do Comitê de Direitos Humanos, de 2020.
- O direito à vida: Artigo 6 do PIDCP.
- O direito de participação da vida pública e o direito ao voto: Artigo 25 do PIDCP.
5. Envios de usuário
Em sua apelação ao Comitê, o usuário que denunciou o conteúdo declarou que “já denunciou esse e inúmeros outros vídeos ao Facebook e a resposta é sempre a mesma, que não viola os Padrões da Comunidade”. O usuário ainda relacionou o potencial do conteúdo de incitar a violência com as ações realizadas por pessoas no Brasil “que não aceitam os resultados das eleições”.
6. Envios da Meta
Quando o Comitê levou esse caso ao conhecimento da Meta, a empresa determinou que sua decisão original de deixar o conteúdo no ar estava incorreta. Nesse caso, a Meta forneceu ao Comitê uma ampla análise do contexto social e político do Brasil antes, durante e depois da eleição presidencial para justificar a remoção (ainda que tardia) do conteúdo. Depois, a empresa apresentou ao Comitê os fatores que “podem ter contribuído para o erro persistente de monitoramento.
A Meta declarou sua opinião de que “as várias referências a ‘sitiar’ locais de alto risco na legenda e no vídeo não configuram independentemente o nível de ‘entrada forçada’ de acordo com [a] política [de violência e incitação]”. No entanto, “combinar a incitação verbal ‘Venha para Brasília! Vamos invadir! Vamos sitiar os três poderes’ com a imagem de fundo da Praça dos Três Poderes em chamas evidencia a intenção de entrar de forma forçada nesses três locais proeminentes”.
De acordo com a Meta, o conteúdo não se qualificou como uma tolerância a conteúdo de interesse jornalístico, embora tenha reconhecido que suas plataformas são “locais importantes para o discurso político, especialmente no que diz respeito a eleições”. Nesse caso, o valor de utilidade pública do conteúdo não superou o risco de danos, considerando o “apelo explícito à violência” e o “risco elevado de danos no meio físico após a eleição presidencial brasileira e a posse de Lula”. A Meta não encontrou nenhuma indicação de que o conteúdo tenha sido compartilhado para condenar ou divulgar a incitação à violência. A empresa afirma que sua decisão final de remover o conteúdo é consistente com seus valores e com os padrões internacionais de direitos humanos.
Para tratar de eleições e outras situações de crise, a Meta estabeleceu várias medidas de avaliação e mitigação de riscos que são executadas por diferentes equipes e podem ser aplicadas simultaneamente ou de forma independente. Cada uma delas tem diferentes “camadas” ou “níveis” de intensidade, dependendo da respectiva avaliação de risco:
- A Política de Priorização da Integridade Nacional (também conhecida como sistema de classificação de risco), efetivada pela equipe de produtos do Meta, apresenta uma estrutura para a priorização de longo prazo dos investimentos em recursos de produtos. Embora a Meta descreva esse processo como não responsivo a crises de curto prazo, a empresa avalia todos os países duas vezes por ano quanto a riscos/ameaças emergentes.
- Os Centros de Operações de Produtos de Integridade (IPOCs) reúnem uma equipe multifuncional de especialistas no assunto de toda a empresa para “responder em tempo real a possíveis problemas e tendências”. Eles são criados para avaliar rapidamente um grande conjunto de problemas, identificar riscos e determinar como abordá-los no contexto de uma crise ou situação de alto risco. Os IPOCs são chamados de Election Operation Centers (Centros de Operações Eleitorais) quando se concentram especificamente nas eleições.
- Os Centros de Operações Eleitorais oferecem “monitoramento em tempo real das principais questões eleitorais, como esforços para impedir que as pessoas votem, aumento de spam, possível interferência estrangeira ou denúncias de conteúdo que viole as políticas [da Meta]” e “monitoram a cobertura de notícias e as atividades relacionadas às eleições em outras redes sociais e na mídia tradicional”. Os centros fornecem à Meta uma “visão coletiva e ajudam a rastrear que tipo de conteúdo pode se tornar viral” para “acelerar” o tempo de resposta da empresa a essas ameaças. Parte da preparação do Centro de Operações Eleitorais envolve “um extenso planejamento de cenários para testar possíveis ameaças, de assédio a supressão de eleitores, e desenvolver sistemas e procedimentos com antecedência para responder de forma eficaz”.
- Por fim, o Protocolo de Política de Crise é a estrutura adotada pela Meta para desenvolver respostas oportunas e específicas sobre políticas para uma crise emergente. A Meta desenvolveu esse protocolo em resposta a uma recomendação do Comitê de Supervisão no caso da suspensão do ex-presidente Trump. De acordo com esse protocolo, a Meta estabelece três categorias de crise, com base nas quais a empresa adota um determinado conjunto de medidas para mitigar os riscos. Uma crise de Categoria 1 é, por exemplo, desencadeada por “aumento de atividade policial ou militar” ou por uma “eleição planejada de alto risco ou evento de ponto de inflamação”.
O Centro de Operações Eleitorais que cobriu a eleição geral brasileira de 2022 funcionou em vários momentos de setembro a novembro de 2022, inclusive durante o primeiro e o segundo turnos da eleição. No entanto, não havia nenhum centro dessa natureza em funcionamento no momento em que o conteúdo foi publicado em 3 de janeiro de 2023. A Meta considerou a “agitação pós-eleitoral” como uma crise de acordo com o Protocolo de Política de Crise para ajudar a empresa a avaliar a melhor forma de atenuar os riscos de conteúdo.
Em resposta a uma pergunta do Comitê sobre as tendências digitais nas plataformas da Meta antes, durante e após as eleições brasileiras, a empresa declarou que, como parte de seu “trabalho de preparação e resposta às eleições, várias equipes identificaram tendências de conteúdo relacionadas às eleições e as incorporaram à [sua] estratégia de mitigação de riscos”. Essas tendências incluíam: “[i] riscos associados à incitação ou à disseminação de ameaças de violência; [ii)] desinformação; e [iii] integridade comercial, que incluem riscos associados ao possível abuso de publicidade com conteúdo prejudicial ou tentativas de conduzir campanhas de forma a manipular ou corromper o desvirtuar o debate público”. A Meta afirmou que os “resultados, entre outros fatores, ajudaram a respaldar uma série de mitigações de produtos e políticas”. No entanto, a Meta não tem “dados de prevalência” sobre alegações específicas (por exemplo, fraude eleitoral, convocações para ir a Brasília ou invadir à força prédios do governo federal, pedidos de intervenção militar), porque os sistemas de monitoramento da empresa geralmente “são configurados para monitorar e rastrear com base nas políticas violadas”.
O Comitê fez 15 perguntas por escrito à Meta, incluindo cinco perguntas de acompanhamento de um briefing verbal sobre o funcionamento dos Centros de Operações Eleitorais. Perguntas relacionadas a: alavancas políticas disponíveis para lidar com o comportamento coordenado nas plataformas da Meta; riscos identificados antes das eleições brasileiras de 2022; a relação entre o Centro de Operações Eleitorais para a eleição brasileira e o Protocolo de Política de Crise; como a Meta estabelece o limite entre organizações políticas legítimas e ações coordenadas prejudiciais; tendências digitais nas plataformas da Meta no Brasil antes, durante e depois das eleições; e as capacidades linguísticas dos moderadores que analisaram o conteúdo do caso.
A Meta respondeu a 13 perguntas. A empresa deixou de responder a duas perguntas, uma sobre a relação entre publicidade política e desinformação, e outra sobre o número de remoções de Páginas e contas enquanto o Centro de Operações Eleitorais para as eleições de 2022 no Brasil estava em funcionamento. A Meta também informou ao Comitê que não tinha dados mais gerais sobre moderação de conteúdo no contexto da eleição brasileira de 2022 disponíveis para compartilhar, bem como não sabia informar o número de remoções de conteúdos já compartilhados publicamente. A empresa explicou ainda que não avalia seu desempenho no contexto das eleições com base em um determinado conjunto de métricas de sucesso e referências. A Meta reforçou a necessidade de priorizar recursos ao responder às perguntas do Comitê e disse que não seria possível fornecer os dados solicitados dentro do prazo para decidir o caso.
7. Comentários públicos
O Comitê de Supervisão recebeu 18 comentários públicos relacionados a esse caso. Onze comentários tiveram origem na América Latina e no Caribe, três nos Estados Unidos e no Canadá, dois no Oriente Médio e Norte da África, um na Ásia Pacífico e Oceania, e um na Ásia Central e do Sul. Além disso, em fevereiro de 2023, o Comitê organizou uma mesa redonda com partes interessadas do Brasil e da América Latina sobre o tema “Moderação de conteúdo e transições políticas”.
Os envios abordaram os seguintes temas: o acúmulo de alegações prejudiciais sobre fraude eleitoral e apelos a um golpe militar em plataformas de redes sociais antes, durante e depois das eleições de 2022 no Brasil; desinformação relacionada às eleições; esforços de integridade eleitoral da Meta; A responsabilidade da Meta de proteger os direitos dos usuários no contexto de uma transição democrática de poder; a relação entre o negacionismo eleitoral e a violência política; e a importância da familiaridade dos analistas de conteúdo com o contexto político local.
Para ler os comentários públicos enviados sobre esse caso, clique aqui.
8. Análise do Comitê de Supervisão
O Comitê examinou se esse conteúdo deveria ser removido analisando as políticas de conteúdo, responsabilidades e valores de direitos humanos da Meta. Esse caso foi selecionado porque permite ao Comitê avaliar como a Meta distingue a organização pacífica em suas plataformas da incitação ou coordenação de ações violentas, especialmente em um contexto de transição de poder. Além disso, o caso permite que o Comitê examine os esforços de integridade eleitoral da Meta de forma mais geral, e no Brasil mais especificamente, considerando que os períodos pós-eleitorais são momentos cruciais tanto para contestar a integridade de uma eleição quanto para garantir que os resultados eleitorais legítimos sejam respeitados. Portanto, o Comitê considera que os esforços de integridade eleitoral da Meta devem abranger tanto o processo eleitoral em si quanto o período pós-eleitoral, já que este último também é vulnerável à manipulação, à desinformação relacionada às eleições e às ameaças de violência. Esse caso se enquadra em uma das prioridades estratégicas do Comitê: “eleições e espaço cívico”.
8.1 Conformidade com as políticas de conteúdo da Meta
I. Regras sobre conteúdo
Violência e incitação
O Comitê considera que o conteúdo deste caso viola a proibição dos Padrões da Comunidade sobre violência e incitação de conteúdo que pede a entrada forçada em determinados locais de alto risco. De acordo com o Comitê, embora o valor “Voz” da Meta seja particularmente relevante em processos eleitorais, inclusive no período pós-eleitoral, a remoção do conteúdo é necessária no caso em questão para promover o valor “Segurança” da empresa.
Para violar a linha de política contra pedidos de entrada forçada em locais de alto risco, são necessárias duas designações de “alto risco”. Em primeiro lugar, o local deve ser considerado de “alto risco”; e em segundo, deve estar situado em uma área ou vizinhança designada separadamente como local temporário de alto risco. As instruções específicas da Meta para os analistas de conteúdo é “remover convocações, declarações de intenção, de apoio e de pretensão de entrada à força em locais de alto risco dentro de um local temporário de alto risco”.
A Meta define um “local de alto risco” como um “local, permanente ou temporário, que é considerado de alto risco devido à probabilidade de ser alvo de violência”. São exemplos de locais permanentes de alto risco: “locais de trabalho ou residência de pessoas de alto risco ou de suas famílias (por exemplo, a sede de uma organização de notícias, centros médicos, laboratórios, delegacias de polícia, escritórios do governo etc.); instalações usadas durante eleições locais, regionais e nacionais como centro de registro de eleitores, local de votação, local de contagem de votos (por exemplo, biblioteca local, prédio do governo, centro comunitário ou cívico, entre outros) ou um local usado na administração de uma eleição”. De acordo com a Meta, o Congresso Brasileiro, o Supremo Tribunal Federal e os gabinetes presidenciais são todos “’locais de alto risco’ permanentes em virtude de serem locais de trabalho ou residência de pessoas de alto risco ou de suas famílias”.
A classificação adicional de “local temporário de alto risco” da área mais ampla ou da vizinhança abrange qualquer “local temporariamente designado pela [Meta como tal] por um período limitado”. Uma área é indicada como “local temporário de alto risco com base em vários fatores, incluindo “se ocorreu violência de alta gravidade em um protesto no local nos últimos 7 dias”; “evidência de um risco maior de violência associado a distúrbios civis ou a uma decisão judicial contenciosa no local”; “uma avaliação das autoridades policiais, relatórios de segurança interna ou de um parceiro confiável de que é provável que ocorra violência iminente no local”; “evidência de protesto ou efetivo protesto planejado ou ativo no local em que o organizador pediu que armamentos fossem usados ou levados para o local do protesto”; e “uma avaliação das equipes internas de que as preocupações com a segurança superam o possível impacto sobre a expressão de autodefesa e autodeterminação”. Quando uma área é classificada como local temporário de alto risco, a informação é compartilhada com as equipes internas da Meta. Embora essas designações tenham limite de tempo, a empresa ocasionalmente concede extensões. De acordo com a Meta, classificar uma área como “local temporário de alto risco” ocasiona a análise proativa do conteúdo “antes que os usuários façam uma denúncia”.
Em virtude das eleições de 2022, a Meta classificou todo o território brasileiro como “local temporário de alto risco”. A designação foi estabelecida inicialmente em 1º de setembro de 2022, com base na avaliação da Meta sobre o aumento do risco de violência associado à agitação civil e eleitoral em andamento. Foi aprovada uma extensão da classificação para cobrir a eleição de outubro de 2022 e seus desdobramentos, até 22 de fevereiro de 2023. A designação estava em vigor quando o conteúdo do caso em questão foi publicado.
De acordo com a Meta, ambas as designações devem estar presentes para que um item de conteúdo viole a política, o que foi o caso da publicação em análise. Para a empresa, o duplo requisito ajuda a garantir que os convocações para protestos não sejam amplamente suprimidos e que apenas o conteúdo que possa resultar em violência seja removido.
Assim, o Comitê considera as decisões iniciais da Meta de que o conteúdo deveria permanecer na plataforma durante um período de elevado risco de violência política como um claro desvio de seu próprio padrão, porque constituiu um apelo inequívoco para entrar à força em edifícios governamentais situados na Praça dos Três Poderes em Brasília, que são “locais de alto risco” situados em um “local temporário de alto risco”, o Brasil.
II. Ação de monitoramento
A Meta declarou que sete moderadores humanos que reúnem os conhecimentos linguísticos e culturais necessários analisaram o conteúdo. A empresa não instrui os analistas em escala a registrar os motivos que embasam suas decisões. Quando o Comitê selecionou esse caso, as equipes internas da Meta conduziram uma análise que concluiu que três prováveis fatores “podem ter contribuído” para o persistente erro de monitoramento: (1) os analistas podem ter compreendido mal a intenção do usuário (uma convocação), possivelmente devido à falta de pontuação que resultou na má interpretação do conteúdo como um comentário neutro sobre o evento; ou (2) os analistas tomaram uma decisão equivocada apesar do pleno funcionamento das diretrizes corretas devido a várias atualizações sobre o tratamento de conteúdo relacionado a eventos de alto risco de várias fontes; ou (3) os analistas podem não ter enxergado a violação no vídeo.
Os fatores 1 e 3 sugerem que os moderadores não analisaram esse conteúdo cuidadosamente nem assistiram ao vídeo por completo, já que a possível violação das políticas da Meta era clara. No entanto, a empresa não fornece nenhuma explicação sobre o motivo pelo qual o conteúdo não foi encaminhado a especialistas no assunto e em políticas para uma análise mais aprofundada. O conteúdo não foi encaminhado, ainda que tenha sido originado em um país que, no momento em que o conteúdo foi publicado e denunciado, foi designado como “local temporário de alto risco” relacionado a um trecho da política que só produz efeitos quando essa designação está em vigor. O conteúdo também não foi encaminhado, apesar do contexto geral online e físico no Brasil (ver a Seção 2).
A Meta já informou o Comitê que os analistas de conteúdo nem sempre conseguem assistir aos vídeos na íntegra. No entanto, em situações de maior risco de violência, em que alavancas políticas específicas tenham sido acionadas, o Comitê espera que os analistas de conteúdo sejam orientados a assistir aos vídeos na íntegra, bem como a encaminhar o conteúdo potencialmente violador.
Em relação ao fator 2, embora a Meta tenha declarado que informa os analistas em escala sobre as designações de locais temporários de alto risco, a empresa reconhece possíveis falhas no compartilhamento dessa e de outras medidas de mitigação de risco específicas das eleições. O compartilhamento de informações desse tipo permite aos analistas de conteúdo detectar, remover ou encaminhar conteúdos problemáticos, como o vídeo do caso em questão. O fato de que diferentes medidas de avaliação e mitigação estavam em vigor no Brasil na época indica que elas provavelmente precisam ser melhor articuladas e incluir uma cadeia de comando mais clara para tornar os esforços de integridade eleitoral da empresa mais eficazes.
Apesar da decisão final da Meta de remover o conteúdo, persiste certa inquietação por parte do Comitê com o fato de que, mesmo com a agitação civil no Brasil no momento em que o conteúdo foi publicado e a proliferação generalizada de conteúdo online semelhante nas semanas e nos meses anteriores aos tumultos de 8 de janeiro, os moderadores de conteúdo da Meta tenham avaliado repetidamente esse conteúdo como não violador e não o tenham encaminhado para uma análise mais detalhada, apesar das evidências contextuais que ele continha. Essas preocupações são agravadas pelo fato de que, quando o Comitê solicitou à Meta informações sobre reivindicações específicas relacionadas a eleições em suas plataformas antes, durante e depois das eleições brasileiras, a empresa explicou que não possuía tais dados de prevalência (ver Seção 6). Nesse caso específico, o conteúdo foi finalmente removido mais de duas semanas depois, quando o evento violador que ele incitava já havia ocorrido, e somente depois que o Comitê levou o caso à atenção da Meta.
A Meta reconheceu o elevado risco de violência no Brasil, primeiro adotando várias medidas de avaliação de risco antes, durante e depois da publicação do conteúdo, e também diretamente ao Comitê quando a empresa decidiu finalmente remover o conteúdo. No entanto, os analistas da empresa falharam persistentemente em aplicar de forma adequada seus Padrões da Comunidade, especialmente a própria linha de política dos Padrões da Comunidade sobre Violência e Incitação acionada por uma designação de local temporário de alto risco. O fato de o conteúdo não ter sido encaminhado antes da seleção do Comitê, apesar da evidência da possível violação e da existência de conteúdo semelhante circulando no Facebook na época (ver Seções 2 e 8.2), indica que os canais de escalation provavelmente não são suficientemente claros e eficazes (ver Caso da animação Knin). Isso também demonstra a necessidade de a Meta melhorar suas garantias em relação às eleições. Como o Comitê observou em decisões anteriores, é indispensável que os analistas em escala possuam conhecimento linguístico e contextual adequado, bem como tenham acesso às ferramentas e aos canais necessários para encaminhar o conteúdo potencialmente violador.
III. Transparência
O Comitê reconhece que a Meta fez esforços importantes para proteger a integridade das eleições brasileiras de 2022. Em agosto de 2022, quando teve início o período eleitoral, a Meta anunciou publicamente suas iniciativas relacionadas ao tema no país. A empresa trabalhou com o Tribunal Superior Eleitoral do Brasil para adicionar um rótulo às publicações sobre eleições no Facebook e no Instagram, “direcionando as pessoas para informações confiáveis no site da Justiça Eleitoral”. De acordo com a Meta, isso levou a um “”aumento de 10 vezes” nas visitas ao site. A parceria também permitiu que o Tribunal Superior Eleitoral denunciasse conteúdos potencialmente violadores diretamente à Meta. A Meta organizou sessões de treinamento para autoridades eleitorais em todo o Brasil a fim de explicar os Padrões da Comunidade da empresa e como a desinformação no Facebook e no Instagram é tratada. A Meta também proibiu a publicidade paga “questionando a legitimidade da próxima eleição”. Além disso, a empresa implementou um limite de encaminhamento do WhatsApp, de modo que uma mensagem só pode ser encaminhada para um grupo do WhatsApp por vez. Por último, a Meta informou o número de itens de conteúdo removidos de acordo com vários Padrões da Comunidade, como as políticas de violência e incitação, discurso de ódio e intimidação e assédio, e o número total de cliques em rótulos eleitorais que direcionavam os usuários a informações confiáveis sobre as eleições no Brasil.
No entanto, quando questionada pelo Comitê sobre seus esforços de integridade eleitoral no contexto das eleições brasileiras de 2022, a Meta declarou que a empresa não adota nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral, apenas fornece dados sobre remoções de conteúdo, visualizações e cliques em rótulos eleitorais. O Comitê também observa que, com base nas divulgações da Meta em sua Central de Transparência e nas trocas de informações com o Comitê, não está totalmente claro como as diferentes medidas e protocolos de avaliação de risco da empresa são executados (ver Seção 6 acima), de forma independente ou em paralelo. A Meta deve esclarecer os pontos de contato entre esses diferentes protocolos, explicar melhor como eles diferem uns dos outros e como exatamente a aplicação das políticas de conteúdo é afetada por eles.
Vários comentários públicos (Ekō [PC-11000], Dangerous Speech Project [PC-11010], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], InternetLab [PC-11019] e Coalizão Direitos na Rede [PC-11020]) recebidos pelo Comitê afirmaram que os esforços da empresa para proteger as eleições no Brasil não foram suficientes. Embora o Comitê reconheça os desafios inerentes à moderação de conteúdo em grande escala, a responsabilidade da Meta de prevenir, mitigar e abordar os impactos adversos sobre os direitos humanos é maior em contextos eleitorais e em outros contextos de alto risco, exigindo que a empresa estabeleça proteções eficazes contra eles. O erro de monitoramento nesse caso não parece ser um incidente isolado. De acordo com Ekō (PC-11000), conteúdos semelhantes permaneceram no Facebook mesmo depois do tumulto de 8 de janeiro.
É necessário reforçar a transparência para avaliar se as medidas da Meta são adequadas e suficientes em todos os contextos eleitorais. A falta de dados disponíveis para a análise do Comitê prejudicou sua capacidade de avaliar adequadamente se os erros de monitoramento nesse caso e as preocupações levantadas por diferentes partes interessadas são indicativos de um problema sistêmico nas políticas e práticas de monitoramento da empresa. Essa ausência comprometeu também a capacidade do Comitê de emitir recomendações mais específicas para a Meta sobre como melhorar ainda mais seus esforços de integridade eleitoral de forma global.
As atuais divulgações de dados da Meta, predominantemente sobre remoções de conteúdo, não fornecem um panorama abrangente do resultado das medidas de integridade eleitoral que a empresa implementa em um determinado mercado. Por exemplo, não há informações sobre o preciso monitoramento de políticas importantes em contextos eleitorais, como os Padrões da Comunidade sobre Violência e Incitação, nem sobre a porcentagem de anúncios políticos inicialmente aprovados pela Meta, mas que depois foram considerados como violadores de suas políticas. A realização de auditorias estatísticas com métricas como essas permitiria que a Meta não apenas revertesse os erros, mas também acompanhasse a eficácia de suas medidas quando o acerto é de extrema importância.
Sem esse tipo de informação, nem o Comitê nem o público podem avaliar a eficácia dos esforços de integridade eleitoral da Meta de forma mais ampla. Isso é relevante se temos em vista que muitos incidentes de violência política geralmente resultam ou são intensificados por disputas relacionadas a eleições, em que o conteúdo nocivo permanece online para preceder ou acompanhar a violência no meio físico (ver “Bot de Mianmar” (2021-007-FB-UA), “Gabinete de Comunicações da Região do Tigré” (2022-006-FB-MR), e “Suspensão do ex-presidente Trump” (2021-001-FB-FBR)).
Portanto, o Comitê considera que a Meta deve desenvolver uma estrutura para avaliar os esforços de integridade eleitoral da empresa e para fazer divulgações públicas sobre o assunto. O objetivo da ação é permitir que a empresa reúna dados relevantes para aprimorar seu sistema de moderação de conteúdo como um todo e decidir a melhor forma de empregar seus recursos em contextos eleitorais. Ela também deve ajudar a Meta a aproveitar de fato o conhecimento local e a identificar e avaliar campanhas coordenadas online e no meio físico destinadas a interromper os processos democráticos. Além disso, essa estrutura deve ser útil para que a Meta estabeleça canais de feedback permanentes e determine as medidas a serem adotadas quando a violência política persistir após a conclusão formal dos processos eleitorais. Por fim, o Comitê observa que, conforme explicado acima, a articulação entre as diferentes medidas e protocolos de avaliação de risco da Meta, como os IPOCs, a Política de Priorização da Integridade Nacional e o Protocolo de Política de Crise (ver Seção 6 acima) em contextos relacionados a eleições, precisa ser analisada e melhor explicada ao público.
8.2 Conformidade com as responsabilidades que a Meta tem com os direitos humanos
Liberdade de expressão (artigo 19 do PIDCP)
O direito à liberdade de opinião e expressão é um “central pillar of democratic societies, and a guarantor of free and fair electoral processes, and meaningful and representative public and political discourse” (pilar central das sociedades democráticas e um garantidor de processos eleitorais livres e justos e de um discurso público e político significativo e representativo) (Relator Especial da ONU sobre liberdade de expressão, Relatório de pesquisa 1/2019, p.2) O artigo 19 do PIDCP oferece uma ampla defesa da expressão, especialmente para discurso político. Quando um Estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta.
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade conforme a legislação internacional sobre direitos humanos exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral n.º 34, parágrafo 25). Aplicada às regras das empresas de redes sociais, o Relator Especial da ONU sobre liberdade de expressão disse que eles deveriam ser claros e específicos (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os analistas de conteúdo devem ter orientações claras sobre sua aplicação.
O Comitê considera que, conforme aplicado aos fatos deste caso, a proibição da Meta quanto ao conteúdo que exige a entrada forçada em determinados locais de alto risco é explicitamente declarada, e as condições exatas sob as quais a proibição é acionada também são claras. O conteúdo do caso poderia ser facilmente entendido como violador tanto pelo usuário quanto pelos analistas de conteúdo, especialmente no contexto brasileiro de agitação civil. Portanto, o Comitê considera que o requisito de legalidade foi atendido.
II. Objetivo legítimo
As restrições à liberdade de expressão (artigo 19, PIDCP) devem ter um objetivo legítimo. A política sobre violência e incitação visa “evitar possíveis danos no meio físico” ao remover conteúdo que represente “um risco genuíno de lesões corporais ou ameaças diretas à segurança pública”. Essa política atende ao objetivo legítimo de proteger os direitos de terceiros, como o direito à vida (artigo 6, PIDCP), bem como à ordem pública e à segurança nacional (artigo 19, parágrafo 3, PIDCP). Em contextos eleitorais, essa política também pode ter o objetivo legítimo de proteger o direito de outros de votar e participar de assuntos públicos (artigo 25, PIDCP).
III. Necessidade e proporcionalidade
O princípio da necessidade e da proporcionalidade mostra que qualquer restrição à liberdade de expressão “must be appropriate to achieve their protective function; they must be the least intrusive instrument amongst those which might achieve their protective function; [and] they must be proportionate to the interest to be protected” (seja apropriada para cumprir sua função protetora; seja o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora e seja proporcional ao interesse a ser protegido) (Comentário Geral n.º 34, parágrafo 33 e 34). Como em casos anteriores envolvendo incitação à violência, o Comitê considera os seis fatores do Plano de Ação de Rabat da ONU relevantes para determinar a necessidade e a proporcionalidade da restrição (veja, por exemplo: Caso de suspensão do ex-presidente Trump).
O Comitê reconhece que, em muitos ambientes políticos, desafiar a integridade das eleições ou do sistema eleitoral é um exercício legítimo dos direitos das pessoas à liberdade de expressão e protesto, mesmo que haja incidentes isolados de violência. Devido à mensagem política, há um nível maior de proteção (Comentário Geral n.º 37, parágrafos 19 e 32). No entanto, o Comitê observa que esse não é o caso aqui. Há uma linha crucial que distingue o discurso político protegido da incitação à violência com vistas a anular os resultados de uma eleição popular legal. Com base nos fatores delineados no Plano de Ação de Rabat, o limite da restrição de expressão foi claramente ultrapassado nesse caso. O Comitê considera que vários elementos no conteúdo do caso são relevantes para a análise: as convocações para “sitiar” o Congresso brasileiro como “a última alternativa” e “invadir” os “Três Poderes”; o vídeo com um apelo de um proeminente general brasileiro para “ir às ruas” e “ir ao Congresso Nacional... [e ao] Supremo Tribunal Federal”; a imagem dos prédios do governo federal queimando ao fundo; e a exigência do “código-fonte”. Todos eles são, no contexto brasileiro mais amplo de apoiadores de Bolsonaro contestando os resultados das eleições e pedindo um golpe militar, uma convocação inequívoca para invadir e assumir o controle dos prédios do governo. A intenção do interlocutor, o conteúdo do discurso e seu alcance, bem como a probabilidade de dano iminente resultante do contexto político do Brasil na época, justificaram a remoção da publicação.
O conteúdo foi publicado em um contexto de risco elevado de violência política, com apelos contínuos e generalizados às forças armadas para anular os resultados das eleições. Ao mesmo tempo, slogans codificados estavam sendo usados para promover protestos especificamente centrados em prédios do governo em Brasília (ver Seção 2). A esse respeito, as informações que o Comitê recebeu por meio de vários comentários públicos, entre eles, ITS Rio – Modera Lab (PC-11016), Coalizão Direitos na Rede (PC-11020), InternetLab (PC-11019) e Ekō (PC-11000), que serviram de base para a pesquisa encomendada pelo Comitê, mostram que conteúdo semelhante estava circulando amplamente nas redes sociais antes dos eventos de 8 de janeiro. Eles também ressaltam a iminência de apoiadores de Bolsonaro invadirem prédios na Praça dos Três Poderes e pressionarem os militares a intervir, inclusive por meio de um golpe militar.
Em virtude do acima exposto, o Comitê conclui que remover o conteúdo é consistente com as responsabilidades em relação aos direitos humanos. A remoção do conteúdo é uma resposta necessária e proporcional para proteger o direito à vida das pessoas, incluindo funcionários públicos, e a ordem pública no Brasil. A remoção desse item de conteúdo e de outros semelhantes também é necessária e proporcional para proteger o direito dos brasileiros de votar e participar de assuntos públicos, em um contexto em que tentativas de comprometer uma transição democrática de poder estavam em andamento.
A falha persistente dos sistemas de análise da Meta em identificar adequadamente a violação no vídeo ou em encaminhá-lo para uma análise mais detalhada e remover o conteúdo do caso é uma inquietação séria, que o Comitê acredita que a Meta estará em uma posição melhor para resolver se a empresa implementar as recomendações abaixo. Embora a Meta tenha tomado medidas positivas para melhorar seus esforços de integridade eleitoral no Brasil, ela não fez o suficiente para lidar com o possível uso indevido de suas plataformas por meio de campanhas coordenadas do tipo visto no Brasil. Nesse caso, o conteúdo que ficou ativo e foi amplamente compartilhado parecia ser típico do tipo de desinformação e incitação que circulava nas plataformas da Meta no Brasil na época. Isso comprova ainda as alegações de que contas influentes com poderes significativos de mobilização nas plataformas da Meta desempenharam um papel na promoção da violência. Conforme afirmado nos comentários públicos que o Comitê recebeu (ver Instituto Vero [PC-11015], ModeraLab [PC-11016], InternetLab [PC-11019], Instituto de Referência em Internet e Sociedade [PC-11021]), a análise e a possível remoção de itens individuais de conteúdo das plataformas da Meta são insuficientes e relativamente ineficazes quando esse conteúdo faz parte de uma ação organizada e coordenada com o objetivo de prejudicar processos democráticos. Os esforços de integridade eleitoral e os protocolos de crise precisam abordar essas tendências digitais mais amplas.
8.3 Conteúdo idêntico com contexto paralelo
O Comitê expressa preocupação com a proliferação de conteúdo semelhante ao que está sendo analisado nos meses que antecederam os tumultos de 8 de janeiro no Brasil. Dada a falha repetida da Meta em identificar esse item de conteúdo como violador, o Comitê prestará especial atenção à aplicação pela empresa de sua decisão a conteúdos idênticos com contexto paralelo que permaneceram em suas plataformas, exceto quando compartilhados para condenar ou aumentar a conscientização sobre o discurso do general e os apelos para invadir os edifícios da Praça dos Três Poderes em Brasília.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de manter o conteúdo.
10. Recomendações
A. Monitoramento
- A Meta deve desenvolver uma estrutura para avaliar os esforços de integridade eleitoral da empresa. Isso inclui a criação e o compartilhamento de métricas para esforços de integridade eleitoral bem-sucedidos, como aqueles relacionados à aplicação das políticas de conteúdo da Meta e o tratamento dado aos anúncios. O Comitê considerará essa recomendação implementada quando a Meta desenvolver essa estrutura (incluindo uma descrição de métricas e metas para essas métricas), divulgá-la na Central de Transparência da empresa, começar a publicar relatórios específicos de cada país e divulgar publicamente quaisquer alterações em seus esforços gerais de integridade eleitoral como resultado dessa avaliação.
B. Transparência
- A Meta deve esclarecer em sua Central de Transparência que, além do Protocolo de Política de Crise, a empresa trabalha com outros protocolos em sua tentativa de prevenir e enfrentar o risco potencial de danos que surgem em contextos eleitorais ou em outros eventos de alto risco. Além de nomear e descrever esses protocolos, a empresa também deve descrever seu objetivo, quais são os pontos de contato entre esses diferentes protocolos e como eles diferem uns dos outros. O Comitê considerará esta recomendação implementada quando a Meta publicar esta informação na Central de Transparência.
* Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. O Comitê foi auxiliado por um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. A Duco Advisors, empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia, também ajudou. A Memetica, uma organização dedicada à pesquisa de código aberto sobre tendências de redes sociais, também forneceu análises. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas