Anulado
Protesto na Índia contra a França
O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação de acordo com seu Padrão da Comunidade sobre violência e incitação.
Para ler esta decisão em híndi, clique aqui.
पूरे फैसले को हिन्दी में पढ़ने के लिए, कृपया यहां क्लिक करें।
Resumo do caso
O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação de acordo com seu Padrão da Comunidade sobre violência e incitação. Embora a empresa tenha considerado que a publicação incluía uma ameaça velada, a maioria dos integrantes do Comitê concluiu que ela deve ser restaurada. Essa decisão deverá ser implementada somente após a notificação ao usuário e o consentimento do mesmo.
Sobre o caso
No final de outubro de 2020, um usuário do Facebook fez uma publicação em um grupo público descrito como um fórum para muçulmanos indianos. A publicação exibia um meme com uma imagem da série de televisão turca “Diriliş: Ertuğrul” exibindo um dos personagens da série em uma armadura de couro segurando uma espada embainhada. O meme tinha um texto sobreposto em híndi. A tradução do texto para o português feita pelo Facebook foi: “se o "kafir" (infiel) falar algo contra o Profeta, a espada deverá ser retirada da bainha”. A publicação também incluía hashtags que se referiam ao presidente da França, Emmanuel Macron, como o diabo, e pediam o boicote dos produtos franceses.
No conteúdo do texto, o Facebook observou que destacava-se a tensão entre o que é considerado discurso religioso e uma possível ameaça de violência, mesmo que não seja explícita.
Principais conclusões
O Facebook removeu a publicação de acordo com o Padrão da Comunidade sobre violência e incitação, o qual afirma que os usuários não devem publicar declarações com mensagens por códigos nas quais “a ameaça é velada ou implícita”. O Facebook identificou o trecho “a espada deverá ser retirada da bainha” como uma ameaça velada contra os “kafirs”, um termo que a empresa interpretou que contém um tom de retaliação contra não-muçulmanos.
Considerando as circunstâncias do caso, a maioria dos membros do Comitê concluiu que essa publicação não causaria grandes danos. Eles questionaram a lógica do Facebook, que indicava que as ameaças de violência contra os muçulmanos diminuíram a tolerância por parte do Facebook perante tais ameaças, e a tolerância na moderação do conteúdo deste grupo também diminuiu.
Embora uma minoria tenha visto a publicação como uma ameaça de alguma forma de resposta violenta à blasfêmia, a maioria considerou as referências ao presidente Macron e o boicote de produtos franceses como incitações que não são necessariamente violentas. Apesar de o personagem da série de televisão segurar uma espada, a maioria interpretou a publicação como uma crítica à fala de Macron sobre violência motivada por religião, e não como uma ameaça concreta de violência.
O Comitê observa que sua decisão de restaurar essa publicação não significa apoio ao conteúdo da mesma.
De acordo com os padrões internacionais de direitos humanos, as pessoas têm o direito de buscar, receber e transmitir ideias e opiniões de todos os tipos, incluindo aquelas que podem ser controversas ou extremamente ofensivas. Portanto, a maioria considerou que, assim como as pessoas têm o direito de criticar religiões ou figuras religiosas, as pessoas religiosas também têm o direito de expressar seu desagrado com tal manifestação.
As restrições à expressão devem ser facilmente compreendidas e acessíveis. Nesse caso, o Comitê observou que o processo e os critérios adotados pelo Facebook para a determinação de ameaças veladas não foram explicados aos usuários nos Padrões da Comunidade.
Por fim, a maioria considerou que, para essa publicação específica, o Facebook não avaliou corretamente todo o contexto das informações e que os padrões internacionais de direitos humanos sobre expressão justificam a decisão do Comitê de restaurar o conteúdo.
A decisão do Comitê de Supervisão
O Comitê revoga a decisão do Facebook de remover o conteúdo, exigindo que a publicação seja restaurada.
Como uma declaração de orientação sobre políticas, o Comitê recomenda que:
- Essa decisão deverá ser implementada somente após a notificação ao usuário e o consentimento do mesmo.
- O Facebook disponibilize aos usuários informações adicionais sobre o escopo e o monitoramento de restrições a ameaças veladas. Isso ajudaria os usuários a entender qual conteúdo é permitido nessa área. O Facebook torne públicos seus critérios de monitoramento. Eles devem considerar a intenção e a identidade do usuário, assim como seu público e o contexto mais abrangente.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão anulou a decisão do Facebook de remover o conteúdo que considerava uma ameaça velada sob os Padrões da Comunidade em relação à Violência e incitação. A maioria dos membros do Comitê constatou que a restauração do conteúdo estaria de acordo com os Padrões da Comunidade do Facebook, seus valores e as normas internacionais de direitos humanos.
2. Descrição do caso
No final de outubro de 2020, um usuário do Facebook postou em um grupo público descrito como um fórum para fornecer informações aos muçulmanos indianos. A publicação exibia um meme com uma imagem da série de televisão turca “Diriliş: Ertuğrul” exibindo um dos personagens da série em uma armadura de couro segurando uma espada embainhada. O meme tinha um texto sobreposto em híndi. A tradução do texto para o português feita pelo Facebook foi: “se o "kafir" (infiel) falar algo contra o Profeta, a espada deverá ser retirada da bainha”. O texto que acompanhava a publicação, também em inglês, afirmava que o Profeta representa a identidade, dignidade, honra e vida do usuário, e continha a sigla "PBUH" (que a paz esteja com ele). A publicação também incluía hashtags que se referiam ao presidente da França, Emmanuel Macron, como o diabo, e pediam o boicote dos produtos franceses. A publicação teve cerca de 30.000 visualizações, menos de 1.000 comentários e menos de 1.000 compartilhamentos.
No início de novembro de 2020, o Facebook removeu a publicação por violar sua política de Violência e Incitação. O Facebook interpretou "infiéis" como um termo pejorativo que se refere a não crentes neste contexto. Ao analisar a foto e o texto, o Facebook concluiu que a publicação era uma ameaça velada de violência contra os "infiéis" e a removeu.
Dois usuários do Facebook haviam denunciado previamente sobre a publicação; um deles se referiu ao Discurso de Ódio e o outro à Incitação à Violência, e o Facebook não removeu o conteúdo. O Facebook foi então alertado por um de seus parceiros que esse conteúdo poderia instigar a violência. O Facebook confirmou que esse parceiro é membro de sua rede de parceiros confiáveis e não está vinculado a nenhum estado. O Facebook explicou que essa rede poderia fornecer um contexto local mais significativo. Segundo o Facebook, a rede é composta por organizações não governamentais, organizações de ajuda humanitária, organizações sem fins lucrativos e outras organizações internacionais. Depois que a publicação foi sinalizada pelo parceiro, o Facebook procurou obter informações contextuais adicionais com sua equipe local de políticas públicas, a qual concordou com o parceiro que a publicação constituía uma potencial ameaça de violência. O Facebook encaminhou o caso ao Comitê de Supervisão em 19 de novembro de 2020. Em sua referência, o Facebook declarou que considerava sua decisão um desafio porque o conteúdo destacava as tensões entre o que considerava discurso religioso e uma possível ameaça de violência, mesmo que não explícita.
3. Autoridade e Escopo
O Comitê de Supervisão tem autoridade para analisar a decisão do Facebook, de acordo com os termos do Artigo 2.1 do seu Estatuto, e pode manter ou reverter essa decisão, conforme o Artigo 3.5. Segundo a análise dessa publicação pelo Comitê de Supervisão: ela não se enquadra em nenhuma categoria de conteúdo excluído definida no Artigo 2, Seção 1.2.1 do Regulamento interno do Comitê nem entra em conflito com as obrigações legais do Facebook, conforme o Artigo 2, Seção 1.2.2, do Regulamento interno.
4. Padrões relevantes
Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:
I. Padrões da Comunidade do Facebook
Os Padrões da Comunidade sobre Violência e Incitação afirmam que o Facebook "tem como objetivo prevenir potenciais ataques na vida real que possam estar relacionados ao conteúdo do Facebook" e que o Facebook restringe a manifestações "quando [ele] acreditar que existe um risco verdadeiro de violência física ou ameaças diretas à segurança pública". Especificamente, os padrões indicam que os usuários não devem publicar declarações veladas " em que o método de violência ou agressão não esteja claramente expresso, mas a ameaça seja velada ou implícita". O Facebook também observa que é necessário um contexto adicional para aplicar essa seção dos padrões.
II. Valores do Facebook
Os valores do Facebook relevantes a este caso são descritos na introdução aos Padrões da Comunidade. O primeiro valor é "Voz", descrito como "fundamental":
o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
O Facebook limita "Vozes” com base em quatro outros valores: “Authenticity,” “Safety,” “Privacy” and “Dignity.” O Comitê considerou que o valor "Segurança" é relevante para esta decisão:
Segurança: temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
III. Padrões relevantes de direitos humanos considerados pelo Comitê
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos ( UNGPs), sancionados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos por parte das empresas privadas. Com base nos UNGPs, os seguintes padrões internacionais de direitos humanos foram considerados neste caso:
- O direito de liberdade de expressão: Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Artigo 19; Comentário Geral N° 34, Comitê de Direitos Humanos (2011) ( GC34); Plano de ação de Rabat.
- Direito à vida e à segurança pessoal: Artigos 6 e 9, parágrafo 1 do PIDCP.
5. Declaração do usuário
O Facebook notificou o usuário que havia encaminhado o caso ao Comitê de Supervisão, o qual deu ao usuário a oportunidade de dar mais detalhes sobre a publicação. O usuário teve um prazo de 15 dias para apresentar sua declaração, desde o momento da citação. O Comitê não recebeu nenhuma resposta do usuário
6. Explicação sobre a decisão do Facebook
O Facebook primeiramente analisou a publicação quanto a uma possível violação da política de discurso de ódio e não removeu o conteúdo. O Facebook descobriu que o termo "kafir" não aparece em nenhuma lista de insultos proibidas e não encontrou indícios de que a publicação tivesse violado a política de discursos de ódio.
Em seguida, o Facebook removeu este conteúdo com base em seus Padrões Comunitários de Violência e Incitação. Sob esses padrões, o Facebook proíbe o conteúdo que cria um "risco genuíno de agressões físicas ou ameaças diretas à segurança pública", incluindo declarações veladas" nas quais "o método de violência ou agressão não é claramente expresso, mas a ameaça é velada ou implícita". O Facebook explicou que, em sua opinião, as ameaças veladas "podem ser tão perigosas para os usuários quanto ameaças mais explícitas de violência". De acordo com o Facebook, as ameaças veladas são removidas quando determinados critérios não públicos se cumprem.
Com base nesses critérios, o Facebook determinou que "a espada deve ser retirada da bainha" era uma ameaça velada contra os "kafirs" em geral. Nesse caso, o Facebook interpretou o termo "kafir" como pejorativo, com um tom de retaliação contra os não-muçulmanos; a referência à espada como uma incitação; e também considerou que se tratava de uma "referência implícita à violência histórica".
O Facebook declarou que era crucial considerar o contexto no qual o conteúdo foi publicado. De acordo com o Facebook, o conteúdo foi publicado em um momento de tensões religiosas na Índia relacionadas aos julgamentos de Charlie Hebdo na França e às eleições no estado indiano de Bihar. O Facebook observou o aumento da violência contra os muçulmanos, como o ataque em Christchurch, na Nova Zelândia, em uma mesquita. Também observou-se a possibilidade de violência retaliatória por parte dos muçulmanos por provocar um aumento da sensibilidade na abordagem de ameaças potenciais tanto contra os muçulmanos quanto por eles.
O Facebook declarou ainda que sua política de Violência e Incitação está alinhada com os padrões internacionais de direitos humanos. De acordo com o Facebook, sua política visa "estritamente defender os direitos humanos e preservar os elementos de 'necessidade e proporcionalidade' necessários para a restrição permitida da liberdade de expressão".
7. Envios de terceiros
O Comitê recebeu seis comentários públicos relacionados a este caso. Os comentários vieram dos seguintes locais: um da Ásia Pacífico e Oceania, um da América Latina e Caribe e quatro dos Estados Unidos e Canadá. As contribuições abordaram vários temas, inclusive: a importância de conhecer a identidade e influência do usuário, incluindo onde foi publicado e em que grupo; a importância de reconhecer quem é o alvo; se o usuário pretendia incentivar o estereótipo prejudicial dos muçulmanos indianos como violentos; se o conteúdo constituía ameaça velada sob os Padrões da Comunidade do Facebook; se a política de Violência e Incitamento era aplicável neste caso; se a publicação poderia ser considerada como discurso violento sob a política sobre discurso de ódio do Facebook; bem como o feedback para melhorar o processo de comentários públicos do Conselho.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8. Análise do Comitê de Supervisão
8.1 Conformidade com os Padrões da Comunidade
A maioria dos membros da Diretoria constatou que a restauração deste conteúdo estaria de acordo com os Padrões da Comunidade do Facebook.
O Facebook apontou que o conteúdo era uma ameaça velada, proibida pelos Padrões da Comunidade de Violência e Incitação. Os padrões estabelecem que os usuários não devem publicar declarações veladas " em que o método de violência ou agressão não estejam claramente enunciados, mas a ameaça esteja velada ou implícita". O Facebook declarou ao Comitê que, segundo sua ótica, se concentra em "agressões físicas iminentes" ao interpretar esta disposição dos padrões.
Os membros do Conselho unanimemente consideraram importante abordar ameaças veladas de violência, e expressaram preocupação em relação aos usuários que utilizam desse meio para evitar a constatação de violação dos Padrões da Comunidade. Os membros também reconheceram os desafios que o Facebook enfrenta para remover tais ameaças em escala, uma vez que elas requerem uma análise de contexto.
Os membros do Comitê divergiram em suas opiniões sobre o nível de clareza a respeito do alvo, o tom da publicação e o risco de agressão física ou violência que este conteúdo representa globalmente e na Índia. A maioria do membros do Conselho considerou que o uso da hashtag para pedir um boicote aos produtos franceses era um apelo ao protesto não violento e fazia parte do discurso sobre eventos políticos atuais. O uso de um meme de um programa de televisão popular dentro deste contexto, embora se referindo à violência, não foi considerado por uma maioria como uma incitação à agressão física.
Em relação à explicação do Facebook, o Conselho notou que o Facebook justificou sua decisão referindo-se às tensões em curso na Índia. Entretanto, os exemplos citados não estavam relacionados a este contexto. Por exemplo, os protestos que ocorreram na Índia em reação à declaração do Presidente Macron após os assassinatos na França em resposta às representações caricatas do Profeta Maomé não foram relatados como sendo violentos. O Facebook também citou as eleições de 7 de novembro de 2020 no estado indiano de Bihar, mas a pesquisa do Comitê indica que essas eleições não foram marcadas pela violência contra pessoas com base em sua religião. O Comitê considerou de forma unânime que a análise do contexto é essencial para compreender as ameaças veladas, mas a maioria não encontrou a fundamentação contextual do Facebook em relação à possível violência na Índia neste caso em particular.
Uma minoria achou que o processo interno do Facebook, que dependia de uma avaliação de um parceiro, era meritório, e diferia da determinação do Facebook de que a publicação apresentava um risco inaceitável de promover a violência. Esta perspectiva reconheceu que o Facebook consultou especialistas regionais e linguísticos, e divulgou a avaliação de que o termo "kafir" era pejorativo. A minoria considerou que o Comitê não tinha uma base sólida para derrubar a ação.
Dito isto, a maioria constatou que a análise independente do Comitê apoiou a restauração da publicação sob aos Padrões da Comunidade em relação à Violência e Incitação.
8.2 Conformidade com os valores do Facebook
A maioria dos membros do Comitê constatou que a restauração deste conteúdo estaria de acordo com os Padrões da Comunidade da empresa. Embora o valor "Segurança" do Facebook seja importante, particularmente devido ao aumento das tensões religiosas na Índia, este conteúdo não representava um risco para a "Segurança" que justificasse a remoção da "Voz". A Diretoria também reconheceu os desafios que o Facebook enfrenta para equilibrar esses valores ao lidar com ameaças veladas. Uma minoria considerou que tais circunstâncias justificavam a remoção da "Voz" no intuito de priorizar a "Segurança" em detrimento da "Voz".
8.3 Conformidade com os Padrões de Direitos Humanos
A maioria dos membros do Comitê concluiu que a restauração deste conteúdo seria condizente com os padrões internacionais de direitos humanos.
De acordo com o Artigo 19 do PIDCP, as pessoas têm o direito de buscar, receber e transmitir ideias e opiniões de todo tipo, inclusive aquelas que possam ser controversas ou profundamente ofensivas (Comentário Geral Nº 34, parágrafo 11). O direito à liberdade de expressão inclui a disseminação de ideias que podem ser consideradas blasfêmicas, assim como a oposição a tal discurso. Neste sentido, a liberdade de expressão inclui a liberdade de criticar religiões, doutrinas religiosas e figuras religiosas (Comentário Geral Nº 34, parágrafo 48). A expressão política é particularmente importante e recebe maior proteção sob a lei internacional de direitos humanos (Comentário Geral No. 34, no parágrafos 34 e 38) e inclui apelos a boicotes e críticas a figuras públicas.
Ao mesmo tempo, o Comitê reconhece que o direito à liberdade de expressão não é absoluto e pode, excepcionalmente, estar sujeito a limitações sob as leis internacionais de direitos humanos. Neste caso, após discutir os fatores do Plano de Ação de Rabat, o Conselho não considerou o cargo como sendo de defesa da intolerância religiosa que atinge o limiar do incitamento à discriminação, hostilidade ou violência, que os estados são obrigados a proibir nos termos do artigo 20, parágrafo 2 do PIDCP. O Artigo 19, parágrafo 3 do PIDCP exige que as restrições de manifestação sejam facilmente compreendidas e acessíveis (princípio de legalidade), que tenham o propósito de avançar um dos vários objetivos listados (requisito de finalidade legítima), e que sejam necessárias e estritamente adaptadas ao objetivo específico (princípio de necessidade e proporcionalidade). O Comitê discutiu a decisão sobre a remoção da publicação por parte do Facebook com base nestes critérios.
I. Legalidade
Sobre a questão de legalidade, o Conselho constatou que o processo e os critérios do Facebook para determinar ameaças veladas não são explicados aos usuários nos Padrões da Comunidade, tornando pouco claro qual "contexto adicional" é necessário para aplicar tal política.
II. Objetivo legítimo
O Comitê considerou ainda que a restrição de expressão neste caso serviria a um objetivo legítimo: a proteção dos direitos de terceiros (os direitos à vida e à integridade das pessoas visadas na publicação).
III. Necessidade e proporcionalidade
A maioria dos membros do Comitê considerou que a remoção da publicação não era necessária, enfatizando a importância de avaliar o contexto específico da publicação.
Eles consideraram que, assim como as pessoas têm o direito de criticar a religião e as figuras religiosas, os adeptos das religiões também têm o direito de expressar sua ofensa a tal manifestação. O Comitê reconheceu a natureza grave da discriminação e da violência contra os muçulmanos na Índia. A maioria também considerou as referências ao Presidente Macron e o boicote aos produtos franceses como incitações não violentas. Neste contexto, embora a publicação se referisse a uma espada, a maioria interpretou que a publicação criticava a posição de Macron em relação à violência por motivos religiosos, em vez de incitar a violência de forma plausível.
O Comitê considerou uma série de fatores para determinar que era improvável que a publicação resultasse em algum tipo de dano. A natureza ampla do alvo ("kafirs") e a falta de clareza em torno de potenciais agressões físicas ou violência, que não parecia iminente, contribuíram para a conclusão da maioria. O usuário claramente não aparentava estar ligado ao estado ou a uma figura pública, ou ter uma influência particular sobre a conduta de terceiros. Além disso, não havia nenhuma referência velada a uma hora ou local específico de qualquer instigação ou ameaça de violência. A pesquisa do Comitê indicou que os protestos na Índia após as declarações de Macron não foram considerados violentos. Neste sentido, alguns membros do Comitê notaram que o grupo do Facebook foi direcionado a indivíduos na Índia e em parte em híndi, o que sugere que o alcance do impacto pode ter sido mais limitado a uma área que não testemunhou reações violentas. Ademais, alguns membros do Comitê consideraram que os exemplos citados pelo Facebook estavam em grande parte relacionados à violência contra a minoria muçulmana na Índia, que os membros do Comitê julgaram ser uma preocupação primordial, e não a violência retaliatória por parte dos muçulmanos. Portanto, a maioria concluiu que, além de não serem iminentes, esses fatores não significavam que a publicação pudesse levar a danos físicos.
Uma minoria interpretou que a publicação era ameaçadora ou que incitava alguma forma de resposta violenta à blasfêmia. Embora a "espada" seja uma referência à violência não específica, a minoria considerou que os assassinatos de Charlie Hebdo e as recentes decapitações na França relacionadas à blasfêmia significam que essa ameaça não pode ser descartada. As hashtags referentes a eventos na França apoiam tal interpretação. Neste caso, a minoria expressou que o Facebook não deveria esperar que a violência se tornasse iminente para remover o conteúdo que ameaça ou intimida aqueles que exercem seu direito à liberdade de expressão, e defendeu a decisão do Facebook.
A maioria, no entanto, descobriu que o Facebook não avaliou com precisão todas as informações contextuais. O Comitê enfatizou que a restauração do conteúdo não implica em consenso com este conteúdo, e apontou as complexidades na avaliação de ameaças veladas ou camufladas. No entanto, para este conteúdo específico, as normas internacionais de direitos humanos de expressão justificam a decisão do Comitê de restaurar o conteúdo.
9. Decisão do Comitê de Supervisão
9.1 Decisão de conteúdo
O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja recuperada.
9.2 Declaração de Orientação de Política
Essa decisão deverá ser implementada somente após a notificação ao usuário e o consentimento do mesmo.
Para garantir que os usuários tenham clareza quanto ao conteúdo permitido, o Comitê recomenda que o Facebook forneça aos usuários informações adicionais sobre o escopo e a aplicação dos Padrões da Comunidade. Os critérios de aplicação devem ser públicos e estar alinhados com os Padrões Internos de Implementação do Facebook. Especificamente, os critérios do Facebook devem abordar a intenção, a identidade do usuário e do público, e o contexto.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por painéis de cinco membros e devem ser aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas