Anulado

Protestos a favor de Navalny na Rússia

O Comitê de Supervisão revogou a decisão do Facebook de remover um comentário no qual um apoiador de Alexei Navalny, líder preso da oposição russa, chamou outro usuário de "robô covarde".

Tipo de decisão

Padrão

Políticas e tópicos

विषय
Eventos de notícias, Liberdade de expressão, Política
Padrão da comunidade
Bullying e assédio

Regiões/países

Localização
Rússia

Plataforma

Plataforma
Facebook

Resumo do caso

O Comitê de Supervisão revogou a decisão do Facebook de remover um comentário no qual um apoiador de Alexei Navalny, líder preso da oposição russa, chamou outro usuário de "robô covarde". O Facebook removeu o comentário porque este continha a palavra “covarde”, que foi interpretada como uma alegação de caráter negativo. O Comitê concluiu que, embora a remoção estivesse de acordo com o Padrão da Comunidade sobre bullying e assédio, com base nos padrões internacionais de direitos humanos, o Padrão atual criava uma restrição desnecessária e desproporcional à liberdade de expressão. Esse padrão também não estava de acordo com os valores do Facebook.

Sobre o caso

Em 24 de janeiro, um usuário na Rússia fez uma publicação com várias fotos, um vídeo e um texto (publicação raiz) sobre os protestos em apoio ao líder da oposição, Alexei Navalny, ocorridos em São Petersburgo e em toda a Rússia em 23 de janeiro. Outro usuário (o Crítico do Protesto) respondeu na publicação raiz dizendo que, embora não soubesse o que havia acontecido em São Petersburgo, os manifestantes em Moscou eram todos criancinhas, mentalmente "retardados" e que "foram usados descaradamente".

Depois disso, outros usuários confrontaram o Crítico do Protesto em comentários subsequentes à publicação raiz. Aparentemente, um usuário que participou do protesto (o Manifestante) foi o último a responder ao Crítico do Protesto. Ele alegou ser idoso e ter participado do protesto em São Petersburgo. O Manifestante finalizou o comentário chamando o Crítico do Protesto de “robô covarde”.

Em seguida, o Crítico do Protesto denunciou o comentário do Manifestante ao Facebook por bullying e assédio. O Facebook determinou que o termo “covarde” era uma alegação de caráter negativo contra um “pessoa adulta não pública” e, como o “alvo” do ataque denunciou o conteúdo, este foi removido pelo Facebook. O Manifestante fez uma apelação dessa decisão para o Facebook. O Facebook determinou que o comentário violava a política sobre Bullying e Assédio, segundo a qual um indivíduo não público pode pedir para o Facebook remover publicações que tenham um comentário negativo sobre a sua pessoa.

Principais conclusões

Esse caso traz à tona a tensão entre as políticas que protegem as pessoas contra bullying e assédio e a necessidade de proteger a liberdade de expressão. Isso é relevante sobretudo no contexto de protesto político em um país onde há queixas críveis sobre a ausência de mecanismos efetivos para a proteção dos direitos humanos.

O Comitê determinou que, embora a remoção do conteúdo pelo Facebook possa ter sido consistente com uma aplicação rigorosa dos Padrões da Comunidade, os Padrões da Comunidade deixam de considerar o contexto mais amplo e restringem a liberdade de expressão de forma desproporcional.

O Padrão da Comunidade sobre bullying e assédio declara que o Facebook remove as alegações de caráter negativo sobre um indivíduo não público quando o alvo denuncia o conteúdo. O Comitê não contesta a conclusão do Facebook de que o Crítico do Protesto é um indivíduo não público e que o termo "covarde" foi uma alegação de caráter negativo.

Todavia, o Padrão da Comunidade não especifica que o Facebook deve considerar o contexto político, o caráter público ou o tom acalorado da conversa. Logo, o Facebook não considerou a intenção do Manifestante de refutar alegações falsas sobre os protestos nem tentou equilibrar essa intenção e a alegação de caráter negativo denunciada.

A decisão de remover esse conteúdo não conseguiu equilibrar os valores do Facebook de "Dignidade" e "Segurança" com o valor "Voz". O discurso político é fundamental para o valor “Voz” e só deverá ser limitado quando houver preocupações claras de “Segurança” ou “Dignidade”.

O valor "Voz" também é especialmente importante em países onde a liberdade de expressão é suprimida com frequência, como na Rússia. Nesse caso, o Comitê concluiu que o Facebook estava ciente do contexto mais amplo dos protestos pró-Navalny na Rússia, e uma prudência maior deveria ter levado a uma avaliação mais cuidadosa do conteúdo.

O Comitê concluiu que o Padrão da Comunidade do Facebook sobre Bullying e Assédio tem o objetivo legítimo de proteger os direitos das pessoas. Contudo, neste caso, a combinação dos conceitos distintos de bullying e assédio em um único conjunto de regras, que não estavam definidas com clareza, levou à remoção desnecessária de discurso legítimo.

A decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja restaurada.

Como recomendação de criação de política, o Comitê sugere que, a fim de cumprir os padrões internacionais de direitos humanos, o Facebook altere e reformule o Padrão da Comunidade sobre bullying e assédio de modo a:

· Explicar a relação entre o fundamento da política sobre Bullying e Assédio e as estipulações de "O que não fazer", bem como as outras regras seguintes que restringem conteúdo.

· Diferenciar bullying e assédio e fornecer definições que distinguem as duas ações. O Padrão da Comunidade também deve explicar aos usuários com clareza como o bullying e o assédio diferem do discurso que somente causa contrariedade e pode estar protegido pelo direito internacional dos direitos humanos.

· Definir com clareza a sua abordagem para diferentes categorias de usuários-alvo e fornecer exemplos ilustrativos de cada categoria de alvo (ou seja, quem se enquadra na definição de figura pública). Formatar o Padrão da Comunidade sobre bullying e assédio com base nas categorias de usuários relacionadas na política.

· Incluir exemplos ilustrativos de conteúdo violador e não violador no Padrão da Comunidade sobre bullying e assédio a fim de esclarecer os princípios traçados e como essas distinções podem depender do status de identidade do alvo.

· Sugerimos que, ao avaliar o conteúdo que tenha uma "alegação de caráter negativo" contra uma pessoa adulta não pública, o Facebook altere o Padrão da Comunidade de modo que exija uma avaliação do contexto social e político do conteúdo. Aconselhamos que o Facebook reconsidere a aplicação dessa regra em debates políticos ou públicos em que a remoção do conteúdo suprimiria o debate.

· Sempre que o Facebook remover algum conteúdo devido a uma alegação de caráter negativo que seja apenas uma única palavra ou frase em uma publicação maior, o Facebook deverá notificar imediatamente o usuário sobre esse fato, para que o usuário possa publicar novamente o material sem a alegação de caráter negativo.

*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.

Decisão completa sobre o caso

1. Resumo da decisão

O Comitê de Supervisão revogou a decisão do Facebook de remover um comentário em que um apoiador de Alexei Navalny, líder preso da oposição russa, chamou outro usuário de "robô covarde". O Facebook esclareceu que o comentário foi removido por conter a palavra “covarde”, que foi interpretada como uma alegação de caráter negativo. O Comitê concluiu que, embora a remoção estivesse de acordo com o Padrão da Comunidade sobre bullying e assédio, com base nos padrões internacionais de direitos humanos, esse Padrão criava uma restrição desnecessária e desproporcional à liberdade de expressão. Esse padrão também não estava de acordo com os valores do Facebook.

2. Descrição do caso

Em 24 de janeiro, um usuário na Rússia fez uma publicação com várias fotos, um vídeo e um texto (publicação raiz) sobre os protestos em apoio ao líder da oposição, Alexei Navalny, ocorridos em São Petersburgo e em toda a Rússia em 23 de janeiro. Outro usuário (o Crítico do Protesto) respondeu na publicação raiz dizendo que, embora não soubesse o que havia acontecido em São Petersburgo, os manifestantes em Moscou eram todos criancinhas, mentalmente "retardados" e que "foram usados descaradamente". O Crítico do Protesto acrescentou que os manifestantes não representavam a voz do povo, mas sim uma “peça de teatro”.

Depois disso, outros usuários confrontaram o Crítico do Protesto em comentários subsequentes à publicação raiz. Esses outros usuários defenderam os manifestantes e afirmaram que o Crítico do Protesto estava espalhando absurdos e entendeu mal o movimento de Navalny. O Crítico do Protesto respondeu em vários comentários, repudiando repetidamente essas contestações e chamando Navalny de “marionete” e “podre”, alegando que as pessoas que apoiam o líder da oposição não têm respeito próprio. Ele também chamou de "idiotas" as pessoas que levaram os avós aos protestos.

Aparentemente, um usuário que participou do protesto (o Manifestante) foi o último a responder ao Crítico do Protesto. Ele se identificou como idoso e disse ter participado do protesto em São Petersburgo. Ele afirmou que havia muitas pessoas nos protestos, incluindo pessoas deficientes e idosos, e que estava orgulhoso de ver os jovens protestando. O usuário disse que o Crítico do Protesto estava profundamente enganado ao pensar que os jovens manifestantes haviam sido manipulados. O Manifestante finalizou o comentário chamando o Crítico do Protesto de “robô covarde”.

Em seguida, o Crítico do Protesto denunciou o comentário do Manifestante ao Facebook por bullying e assédio. O Facebook determinou que o termo “covarde” era uma alegação de caráter negativo contra uma “pessoa adulta não pública” (ou seja, uma figura não pública) e, como o “alvo” do ataque denunciou o conteúdo, este foi removido pelo Facebook. O Facebook não considerou o termo “robô” uma alegação de caráter negativo. O Manifestante fez uma apelação dessa decisão para o Facebook. O Facebook analisou a apelação e determinou que o comentário violava a política sobre Bullying e Assédio. O conteúdo foi analisado dentro de quatro minutos após o Manifestante solicitar a apelação, o que, de acordo com o Facebook, “está no prazo padrão” para a análise do conteúdo sob apelação.

3. Autoridade e escopo

O Comitê tem autoridade para analisar a decisão do Facebook após uma apelação do usuário cuja publicação foi removida (Artigo 2, Seção 1 do Estatuto; Artigo 2, Seção 2.1 dos Regulamentos Internos). O Comitê pode manter ou reverter essa decisão (Artigo 3, Seção 5 do Estatuto).

As decisões do Comitê são vinculativas e podem incluir declarações de parecer consultivo com recomendações. Essas recomendações não são vinculativas, mas o Facebook deve responder a elas (Artigo 3, Seção 4 do Estatuto).

O Comitê é um mecanismo de reclamações independente com o objetivo de abordar contestações de uma maneira transparente e íntegra.

4. Padrões relevantes

Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:

I. Padrões da Comunidade do Facebook

O Padrão da Comunidade sobre bullying e assédio está dividido em duas partes. Ele contém o fundamento da política seguido por uma lista de estipulações de “O que não fazer”, que são regras específicas sobre os tipos de conteúdo que não podem ser publicados e quando um conteúdo pode ser removido.

O fundamento da política começa declarando que o bullying e o assédio podem assumir várias formas, como mensagens ameaçadoras e contatos mal-intencionados não desejados. Em seguida, ele declara que o Facebook não tolera esse tipo de comportamento porque ele impede que as pessoas se sintam seguras e respeitadas.” O fundamento também explica que o Facebook aborda o bullying e o assédio de indivíduos públicos e não públicos de forma diferente para permitir a discussão aberta de acontecimentos atuais. O fundamento da política acrescenta que, para proteger indivíduos não públicos, o Facebook remove qualquer conteúdo “cujo objetivo é degradar ou constranger as pessoas”.

Uma das regras de "O que não fazer" especificada após o fundamento declara que não é permitido "atacar pessoas adultas não públicas (e a denúncia deve ser feita pelo alvo do ataque)" com "alegações negativas sobre o caráter ou a capacidade de alguém, exceto no contexto de alegações criminais contra adultos". Os Padrões da Comunidade não definem o significado de uma "alegação de caráter negativo". Ademais, o Facebook explicou ao Comitê que “não mantém uma lista exaustiva dos termos que se enquadram na definição de alegações de caráter negativo”. Entretanto “várias das equipes operacionais do Facebook com foco regional mantêm listas dinâmicas e não exaustivas de termos no idioma do mercado relevante, cujo objetivo é orientar sobre os termos que podem ser difíceis de classificar, como os novos ou usados com várias conotações.”

O Facebook também tem documentos mais extensos que detalham os Padrões Internos de Implementação sobre Bullying e Assédio e como aplicar a política. Essas diretrizes não públicas definem os principais termos e oferecem orientações e exemplos ilustrativos aos moderadores sobre o conteúdo que pode ser removido conforme a política. Em um resumo fornecido ao Comitê, uma “alegação de caráter negativo” foi definida como “termos ou descrições específicos que atacam as qualidades mentais ou morais de um indivíduo. Isso abrange: caráter, temperamento, personalidade, capacidade intelectual etc. Alegações exclusivamente sobre as ações de um indivíduo não contam, nem as alegações criminais.”

II. Valores do Facebook

Os valores do Facebook são descritos na introdução aos Padrões da Comunidade.

O valor “Voz” é definido como “fundamental”:

o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.

O Facebook limita a “Voz” com base em quatro valores, e dois são relevantes aqui:

“Segurança”: Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.

“Dignidade” : acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.

III. Padrões de Direitos Humanos

Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em março de 2021, o Facebook anunciou sua Política de Direitos Humanos Corporativos, em que se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  • Liberdade de expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP). Comitê de Direitos Humanos, Comentário Geral n.º 34 (2011); Relator Especial sobre a liberdade de opinião e expressão, A/74/486 (2019); Relator Especial sobre violência contra a mulher, A/HRC/38/47 (2018); Declaração Conjunta sobre Liberdade de Expressão e “Notícias Falsas”, Desinformação e Propaganda, FOM.GAL/3/17 (2017);
  • Direito de reunião pacífica: Artigo 21, PIDCP; Relator Especial sobre o direito à liberdade de reunião e de associação pacíficas A/HRC/20/27 (2012);
  • Direito à saúde: Pacto Internacional dos Direitos Econômicos, Sociais e Culturais (PIDESC), Artigo 12.

5. Declaração do usuário

Na apelação ao Comitê, o Manifestante explicou que seu comentário não era ofensivo e simplesmente refutava as falsas alegações do Crítico do Protesto. O Manifestante alegou que o Crítico do Protesto buscava evitar que as pessoas vissem opiniões contraditórias e estava “impondo as próprias opiniões em muitas publicações”, o que fazia o Manifestante pensar que o Crítico do Protesto era um robô pago sem nenhuma experiência real direta com os protestos.

6. Explicação sobre a decisão do Facebook

O Facebook afirmou que removeu o comentário do Manifestante por violação à política sobre Bullying e Assédio, de acordo com os valores de "Dignidade" e "Segurança" da empresa. O Facebook observou que os Padrões da Comunidade exigem a remoção de conteúdo com alegações de caráter negativo direcionadas a pessoas adultas não públicas sempre que o conteúdo for denunciado pela pessoa-alvo. Um usuário é considerado o alvo da alegação quando seu nome é mencionado no conteúdo. Nesse caso, o Facebook declarou que a palavra “covarde” é “facilmente percebida como uma alegação de caráter negativo” cujo alvo foi o Crítico do Protesto.

O Facebook explicou que remove qualquer conteúdo cujo objetivo é degradar ou constranger indivíduos não públicos se os próprios alvos fizerem uma denúncia. A exigência de que a pessoa-alvo denuncie o conteúdo foi implementada para ajudar o Facebook a entender melhor quando as pessoas se sentem intimidadas ou assediadas.

O Facebook justificou a proibição de ataques ao caráter de um usuário com o fundamento de que esses ataques impedem que as pessoas se sintam seguras e respeitadas na plataforma, o que diminui a probabilidade de se envolverem em debates ou discussões. Citando um artigo de uma instituição de caridade antibullying, a Ditch the Label, o Facebook reiterou que o bullying “mina o direito à liberdade de expressão... e cria um ambiente no qual a autoexpressão das pessoas — geralmente grupos marginalizados — é suprimida.” O Facebook também citou outra pesquisa que sugere que os usuários que sofreram assédio tendem a se autocensurar.

O Facebook afirmou que, ao limitar as remoções de conteúdo a casos em que o alvo é uma pessoa adulta não pública que denuncia o conteúdo considerado prejudicial à sua pessoa, a empresa garante que a "Voz" de todos seja ouvida. Segundo o Facebook, isso é reforçado por um sistema de apelação que permite aos usuários solicitar uma análise do conteúdo removido por violar a política sobre Bullying e Assédio. O objetivo disso é evitar erros de aplicação de regras.

O Facebook também declarou que a decisão estava de acordo com os padrões internacionais de direitos humanos. O Facebook declarou que (a) o acesso à política estava disponível ao público, (b) a decisão de remover o conteúdo era legítima a fim de proteger a liberdade de expressão de terceiros e (c) a remoção do conteúdo era necessária para eliminar o assédio indesejado. Na opinião do Facebook, a decisão foi proporcional, visto que medidas menos severas ainda exporiam o Crítico do Protesto ao assédio e poderiam afetar outras pessoas que vissem a discussão.

7. Envios de terceiros

O Comitê recebeu 23 comentários públicos sobre esse caso. Oito vieram da Europa, 13 dos Estados Unidos e Canadá, um da Ásia e um da América Latina e Caribe. Os envios tratavam de várias questões, entre elas, se o Facebook está contribuindo para silenciar os dissidentes na Rússia e, dessa forma, apoiar o presidente russo Vladimir Putin, o contexto de manipulação das redes sociais domésticas patrocinada pelo Estado na Rússia e se o conteúdo era grave o suficiente para constituir bullying ou assédio.

Organizações e indivíduos diversos enviaram comentários, como ativistas, jornalistas, grupos antibullying e membros da oposição russa.

Para ler os comentários públicos enviados, clique aqui.

8. Análise do Comitê de Supervisão

Esse caso traz à tona a tensão entre as políticas que protegem as pessoas contra bullying e assédio e a necessidade de proteger a liberdade de expressão. Isso é relevante sobretudo no contexto de um protesto político em um país onde há queixas críveis sobre a ausência de mecanismos efetivos e independentes para a proteção dos direitos humanos.

O Comitê busca avaliar se esse conteúdo deve ser restaurado no Facebook com base em três óticas: Padrões da Comunidade do Facebook; os valores da empresa; e suas responsabilidades para com os direitos humanos.

8.1 Conformidade com os Padrões da Comunidade

O Comitê concluiu que a remoção do conteúdo pelo Facebook é consistente com a regra de “O que não fazer”, que proíbe atacar indivíduos não públicos com alegações de caráter negativo. O Padrão da Comunidade sobre bullying e assédio declara que o Facebook remove as alegações de caráter negativo direcionadas a um indivíduo não público quando o alvo denuncia o conteúdo. Se o mesmo conteúdo for denunciado por uma pessoa que não seja o alvo, ele não será removido.

Para o Comitê, o termo “covarde” não parece ser um termo sério ou prejudicial no contexto deste caso, devido ao tom da discussão. Todavia, o Comitê não contesta a conclusão do Facebook de que o Crítico do Protesto é um indivíduo não público e que o termo "covarde" foi uma alegação de caráter negativo.

O Comitê reconhece a importância da política sobre Bullying e Assédio. De acordo com o National Anti-Bullying Research and Resource Centre, o bullying e o assédio são dois conceitos distintos. Não há uma definição amplamente aceita de bullying ou assédio. Contudo, os elementos comuns das definições acadêmicas incluem ataques intencionais e repetidos, bem como desequilíbrios de poder. Esses elementos não estão presentes nos Padrões da Comunidade do Facebook.

Kate Klonick escreveu que, dadas a falta de uma definição clara e a natureza do dano, que é subjetiva e altamente específica ao contexto, o Facebook alegou que tinha duas opções: manter um conteúdo potencialmente prejudicial no interesse da liberdade de expressão ou pecar pela precaução removendo todo discurso potencialmente prejudicial (mesmo que parte do conteúdo não seja). Incentivado por alguns grupos de defesa de interesses sociais e de debates na mídia sobre bullying virtual, o Facebook optou pela última opção. A exigência de que os indivíduos não públicos denunciem o conteúdo que os tem como alvo parece ser uma tentativa de limitar a quantidade de conteúdo não prejudicial removido.

O Comitê reconhece as dificuldades envolvidas na definição de políticas nessa área, bem como a importância de proteger a segurança dos usuários. Isso se aplica sobretudo a mulheres e grupos vulneráveis que correm maiores riscos de bullying e assédio online. No entanto, o Comitê concluiu que, nesse caso, a alegação de caráter negativo foi usada em uma discussão acalorada sobre um tema público e não era pior do que a linguagem usada pelo Crítico do Protesto. O Crítico do Protesto se engajou por vontade própria em um debate sobre um assunto de interesse público. Esse caso ilustra que a abordagem direta e descontextualizada do Facebook pode restringir a liberdade de expressão de forma desproporcional. A aplicação do Padrão da Comunidade não parece conseguir determinar se um único termo é uma alegação de caráter negativo e se foi denunciado pelo usuário alvo da alegação. Não há avaliação do contexto mais amplo da conversa.

Neste caso, o Facebook não levou em consideração a linguagem pejorativa do Crítico do Protesto sobre os manifestantes pró-Navalny. O Facebook também não considerou a intenção do Manifestante de refutar as afirmações falsas sobre os protestos disseminadas pelo Crítico do Protesto, nem fez qualquer tentativa de equilibrar essa intenção com o bullying denunciado. Por sua vez, a empresa declarou que esse exercício de equilíbrio é realizado quando os Padrões da Comunidade são redigidos, de modo que as decisões de moderação sejam tomadas exclusivamente no conteúdo denunciado. Em última análise, as decisões de remoção de conteúdo parecem ser tomadas com base em uma única palavra caso essa palavra seja considerada uma alegação de caráter negativo, independentemente do contexto da interação da qual o conteúdo possa fazer parte.

8.2 Conformidade com os valores do Facebook

O Comitê determinou que decisão do Facebook de remover esse conteúdo não estava em conformidade com os valores da empresa. Ademais, a empresa deixou de fazer o equilíbrio entre os valores de "Dignidade" e "Segurança" e o valor "Voz".

O Comitê concluiu que o discurso político é fundamental para o valor "Voz". Assim sendo, ele só deve ser limitado quando há preocupações claras sobre "Segurança" ou "Dignidade". No contexto de uma discussão política online, deve-se esperar um certo nível de desacordo. O Crítico do Protesto exerceu vigorosamente a própria voz, mas foi confrontado e chamado de "robô covarde". Embora o uso de "covarde" e "robô" por parte do Manifestante possa ser visto como uma alegação de caráter negativo, esses palavras estavam em uma discussão mais ampla sobre um tema de interesse público.

No que tange a questões políticas, ter "Voz" também é especialmente importante em países onde a liberdade de expressão é suprimida com frequência, como na Rússia. O Comitê examinou exemplos bem documentados de atores pró-governo na Rússia que expressam suas opiniões antioposição em espaços online. Apesar de não haver evidências de envolvimento do governo nesse caso, os esforços gerais das autoridades russas para manipular o discurso online e suprimir as vozes da oposição fornecem um contexto crucial para avaliar a decisão do Facebook de limitar a "Voz" no caso em questão.

Os valores de “Segurança” e “Dignidade” evitam que os usuários se sintam ameaçados, silenciados ou excluídos. O bullying e o assédio sempre dependem muito do contexto e podem ter impactos graves na segurança e dignidade das pessoas-alvo. O Comitê observa que "as consequências e danos causados ​​pelas diferentes manifestações de violência online estão intimamente relacionadas ao gênero, uma vez que mulheres e meninas sofrem um estigma particular no contexto de desigualdade estrutural, discriminação e patriarcado." (A/HRC/38/47, parágrafo 25).

Como o Crítico do Protesto não foi convidado a dar a sua opinião, não é possível saber o impacto dessa publicação sobre ele. No entanto, a análise do tópico de comentários mostra que o usuário estava ativamente engajado em uma discussão política contenciosa e se sentia seguro para atacar e ofender Navalny, seus apoiadores e os manifestantes do dia 23 de janeiro. O termo “robô covarde” pode ser considerado, no senso comum, um insulto e ofender a “Dignidade” do usuário que denunciou o conteúdo. Todavia, o Comitê considera que o risco de provável dano ao Crítico do Protesto era mínimo, dado o tom da discussão como um todo.

8.3 Conformidade com as responsabilidades sobre direitos humanos do Facebook

O Comitê concluiu que a remoção do conteúdo do Manifestante com base no Padrão da Comunidade sobre bullying e assédio não era consistente com as responsabilidades de direitos humanos do Facebook.

Liberdade de expressão (Artigo 19 do PIDCP)

O Artigo 19, parágrafo 2, do PIDCP fornece uma ampla proteção à expressão de “todos os tipos”, inclusive o discurso político e “a livre comunicação de informações e ideias sobre questões públicas e políticas entre os cidadãos ... é essencial” (Comentário Geral n.º 34, parágrafo 13). O Comitê de Direitos Humanos da ONU deixou claro que a proteção do Artigo 19 se estende a expressões que podem ser consideradas “extremamente ofensivas” (Comentário Geral n.º 34, parágrafos 11, 12).

Embora o direito à liberdade de expressão seja fundamental, ele não é absoluto. Pode ser restrito, mas as restrições devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (Artigo 19, parágrafo 3, PIDCP). O Facebook deve buscar alinhar suas políticas sobre bullying e assédio a esses princípios (Relator Especial da ONU sobre liberdade de expressão, relatório A/74/486, parágrafo 58(b)).

I. Legalidade

O princípio da legalidade no direito internacional dos direitos humanos exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral nº 34, parágrafo 25). As pessoas precisam compreender o que é permitido e o que não é. Além disso, criar regras com exatidão garante que a expressão não seja limitada de forma seletiva. Aqui, contudo, o Comitê considerou o Padrão da Comunidade do Facebook sobre Bullying e Assédio pouco claro e excessivamente complicado.

No geral, o Padrão da Comunidade está organizado de uma forma difícil de entender e seguir. O fundamento da política oferece um amplo entendimento sobre o que o Padrão visa alcançar, o que inclui fazer com que os usuários se sintam seguros, bem como evitar discursos degradantes ou constrangedores. Depois, o fundamento é seguido por uma série de “O que não fazer” e regras adicionais sob dois sinais de alerta amarelos. Essas regras listam o conteúdo proibido, quando e como o Facebook toma medidas e os graus de proteção que grupos de usuários distintos desfrutam. Não fica claro, nos Padrões da Comunidade, se os objetivos do fundamento servem simplesmente como orientação para as regras específicas que se seguem ou se devem ser interpretados em conjunto com as regras. Além disso, as informações parecem estar organizadas em uma ordem aleatória. Por exemplo, as regras que se aplicam a indivíduos não públicos precedem, seguem e às vezes estão misturadas com as regras relacionadas a figuras públicas.

O Padrão da Comunidade não diferencia bullying de assédio. Conforme mencionado anteriormente, os especialistas no assunto concordam que esses comportamentos são distintos. Além disso, conforme argumentado pelo Artigo 19 da organização da sociedade civil, o Padrão da Comunidade está aquém dos padrões internacionais sobre liberdade de expressão devido à sua falta de orientação sobre como o bullying e o assédio diferem de ameaças ou outros discursos ofensivos. O Comitê julga que a combinação dos conceitos distintos de bullying e assédio em uma única definição e conjunto de regras correspondente resultou na remoção de discurso legítimo.

Além disso, embora a política sobre Bullying e Assédio se aplique de forma diferente a várias categorias de indivíduos e grupos, ela não define essas duas categorias. Outros termos importantes, como “alegação de caráter negativo”, também carecem de definições claras. Como consequência, o Comitê conclui que o Padrão da Comunidade não passou no teste de legalidade.

II. Objetivo legítimo

De acordo com o direito internacional dos direitos humanos, qualquer medida de restrição à liberdade de expressão deve ocorrer por uma finalidade indicada no Artigo 19, parágrafo 3 do PIDCP. Objetivos legítimos incluem a proteção dos direitos ou reputações de terceiros, bem como a proteção da segurança nacional, ordem pública ou saúde pública ou princípios morais (Comentário Geral n.º 34, parágrafo 28).

O Comitê acredita que o Padrão da Comunidade sobre bullying e assédio visa proteger os direitos de terceiros. A liberdade de expressão dos usuários poderá ser prejudicada se eles forem forçados a sair da plataforma por sofrerem bullying e assédio. A política também busca impedir comportamentos que podem causar sofrimento emocional e danos psicológicos significativos, comprometendo o direito dos usuários à saúde. No entanto, o Comitê observa que qualquer medida de restrição à liberdade de expressão deve ser redigida com cuidado, e haver conexão da regra com um objetivo legítimo não é suficiente para satisfazer os padrões de direitos humanos sobre liberdade de expressão. (Comentário Geral n.º 34, parágrafo 28, 30, 31, 32)

III.Necessidade e proporcionalidade

Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, de acordo com o parágrafo 34 do Comentário geral n.º 34.

O Facebook distingue de forma adequada indivíduos não públicos e públicos, mas não reconhece o contexto no qual as discussões podem ocorrer. Por exemplo, em algumas circunstâncias, pessoas não públicas engajadas em debates públicos sobre assuntos de interesse público podem se abrir a críticas relacionadas a suas declarações. Exigindo que o usuário-alvo denuncie o conteúdo, a empresa estreitou o alcance potencial da regra sobre alegações de caráter negativo contra pessoas adultas não públicas. O Comitê observa também que, além da denúncia de conteúdo abusivo, o Facebook permite que os usuários bloqueiem ou silenciem uns aos outros. Essa é uma ferramenta útil, embora limitada, contra o abuso. Como essas opções podem ser vistas como uma medida menos restritiva de limitar a expressão em comparação com outras opções, a remoção do conteúdo neste caso foi desproporcional.

O contexto é essencial para avaliar a necessidade e a proporcionalidade. O Relator Especial da ONU para a liberdade de expressão declarou, em relação ao discurso de ódio, que, "ao avaliar o contexto, pode-se decidir fazer uma exceção em alguns casos, quando o conteúdo deve ser protegido, por exemplo, o discurso político" (A/74/486, parágrafo 47(d)). É possível estender essa abordagem a avaliações de bullying e assédio. Nesse caso, o Facebook deveria ter considerado o ambiente para a liberdade de expressão na Rússia como um todo, especificamente as campanhas governamentais de desinformação contra oponentes e seus apoiadores, inclusive no contexto dos protestos de janeiro. O engajamento do Crítico do Protesto com o Manifestante, neste caso, repetiu a falsa alegação de que os manifestantes de Navalny eram crianças manipuladas. Era improvável que a acusação de “robô covarde” no contexto de uma discussão acalorada sobre essas questões causasse danos, em particular devido às alegações e acusações igualmente hostis feitas pelo Crítico do Protesto.

O Facebook notificou o Comitê de que, em janeiro de 2021, a empresa tinha determinado que possíveis protestos em massa em todo o país em apoio a Navalny constituíam um evento de alto risco e pediu para seus moderadores sinalizarem tendências e conteúdo quando não estivesse claro se os Padrões da Comunidade haviam sido violados. Em março de 2021, o Facebook relatou que removeu 530 contas do Instagram envolvidas em atividades inautênticas coordenadas cujo alvo eram usuários russos pró-Navalny. Portanto, o Facebook estava ciente do contexto mais amplo do conteúdo neste caso, e uma prudência maior deveria ter levado a uma avaliação mais cuidadosa do conteúdo relacionado aos protestos.

Além disso, o conteúdo removido parece não ter elementos que costumam constituir bullying e assédio, como ataques repetidos ou uma indicação de um desequilíbrio de poder. Chamar alguém de covarde pode ser uma alegação de caráter negativo, contudo, o conteúdo culminou de uma acalorada discussão política sobre os eventos atuais na Rússia. Tendo em conta os fatores supramencionados, o Comitê conclui que a decisão do Facebook de remover o conteúdo de acordo com o Padrão da Comunidade sobre bullying e assédio foi desnecessária e desproporcional.

9.Decisão do Comitê de Supervisão

O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja restaurada.

10. Declaração de parecer consultivo

A fim de cumprir os padrões internacionais de direitos humanos, o Facebook precisa revisar e reformular o Padrão da Comunidade sobre bullying e assédio para:

1. Explicar a relação entre o fundamento da política e as estipulações de "O que não fazer", bem como as outras regras seguintes que restringem conteúdo.

2. Diferenciar bullying e assédio e fornecer definições que distinguem as duas ações. Ademais, o Padrão da Comunidade deve explicar aos usuários com clareza como o bullying e o assédio diferem do discurso que somente causa contrariedade e pode estar protegido pelo direito internacional dos direitos humanos.

3. Definir com clareza a sua abordagem para diferentes categorias-alvo de usuários e fornecer exemplos ilustrativos de cada categoria-alvo (ou seja, quem se enquadra na definição de figura pública). Formatar o Padrão da Comunidade sobre bullying e assédio com base nas categorias de usuários relacionadas na política.

4. Incluir exemplos ilustrativos de conteúdo violador e não violador no Padrão da Comunidade sobre bullying e assédio a fim de esclarecer os princípios traçados e como essas distinções podem depender do status de identidade do alvo.

5. Sugerimos que, ao avaliar o conteúdo que tenha uma "alegação de caráter negativo" contra uma pessoa adulta não pública, o Facebook altere o Padrão da Comunidade de modo que exija uma avaliação do contexto social e político do conteúdo. Aconselhamos que o Facebook reconsidere a aplicação dessa regra em debates políticos ou públicos em que a remoção do conteúdo suprimiria o debate.

6. Sempre que o Facebook remover algum conteúdo devido a uma alegação de caráter negativo que seja apenas uma única palavra ou frase em uma publicação maior, o Facebook deve notificar imediatamente o usuário sobre esse fato, para que o usuário possa publicar novamente o material sem a alegação de caráter negativo.

*Nota processual:

As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas