Anulado
Publicação de Mianmar sobre muçulmanos
O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação em conformidade com seu Padrão da Comunidade sobre discurso de ódio.
Para ler esta decisão em português, clique aqui.
ဆုံးဖြတ်ချက် အပြည့်အစုံကို ဗမာဘာသာဖြ ဖြင့် ဖတ်ရှူရန်၊ ဤနေရာကို နှိပ်ပါ-
Resumo do caso
O Comitê de Supervisão revogou a decisão do Facebook de remover uma publicação em conformidade com seu Padrão da Comunidade sobre discurso de ódio. O Comitê considerou que, embora a publicação possa ser considerada ofensiva, ela não chega ao nível de discurso de ódio.
Sobre o caso
Em 29 de outubro de 2020, em Myanmar, um usuário fez uma publicação em birmanês em um grupo do Facebook. A publicação incluía duas fotografias amplamente compartilhadas de um bebê sírio de etnia curda, que se afogou ao tentar chegar à Europa, em setembro de 2015.
O texto dizia que os muçulmanos (ou homens muçulmanos) devem ter algum problema psicológico ou mental. O texto questionou a falta de reação dos muçulmanos, de maneira geral, ao tratamento que os seus compatriotas uigur receberam na China, e fez uma comparação com as mortes na França em reação às caricaturas do profeta Maomé. A publicação conclui que eventos recentes na França reduzem a simpatia do usuário pela criança retratada e parece indicar que a criança poderia se tornar uma extremista quando adulta.
O Facebook removeu esse conteúdo de acordo com o seu Padrão da Comunidade sobre discurso de ódio.
Principais conclusões
O Facebook removeu esse conteúdo porque ele continha a frase “os muçulmanos devem ter algum problema psicológico”. Como seu Padrão da Comunidade sobre discurso de ódio proíbe declarações generalizadas de inferioridade sobre deficiências mentais de um grupo com base na religião, a empresa removeu a publicação.
O Comitê considerou que, embora a primeira parte da publicação, isoladamente, aparente fazer uma generalização ofensiva sobre os muçulmanos (ou homens muçulmanos), a publicação deve ser lida na íntegra, considerando o contexto.
O Facebook traduziu o texto como “realmente, os muçulmanos devem ter algum problema psicológico”, enquanto os tradutores do Comitê sugeriram: “há algo errado com a mentalidade dos homens muçulmanos”. Eles também sugeriram que os termos usados não foram depreciativos nem violentos.
Os especialistas no contexto do Comitê mencionaram que, embora o discurso de ódio contra grupos muçulmanos minoritários seja comum, e às vezes grave, em Myanmar, declarações referindo-se aos muçulmanos como mentalmente doentes ou psicologicamente instáveis não são uma parte considerável dessa retórica.
Considerando-se o contexto, o Comitê acredita que o texto é compreendido de melhor forma como um comentário sobre a aparente inconsistência entre as reações dos muçulmanos aos eventos na França e na China. Essa expressão da opinião é protegida segundo os Padrões da Comunidade do Facebook e não chega ao nível de discurso de ódio.
Conforme os padrões internacionais de direitos humanos sobre limitação da liberdade de expressão, o Comitê considerou que, embora a publicação possa ser considerada pejorativa ou ofensiva em relação aos muçulmanos, ela não defendeu o ódio nem incitou intencionalmente qualquer forma de dano iminente. Sendo assim, o Comitê não considera sua remoção necessária para proteger os direitos das outras pessoas.
O Comitê também enfatizou que a sensibilidade do Facebook em relação ao discurso de ódio antimuçulmano foi compreensível, especialmente por causa do histórico de violência e discriminação contra os muçulmanos, em Myanmar, e do risco maior devido às eleições gerais do país, em novembro de 2020. Entretanto, em relação a esta publicação específica, o Comitê concluiu que o Facebook agiu incorretamente ao remover o conteúdo.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja restaurada.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1.Resumo da decisão
O Comitê de Supervisão revogou a decisão do Facebook de remover o conteúdo que considerou discurso de ódio. O Comitê concluiu que o Facebook categorizou uma publicação como discurso de ódio e ela não chega a esse nível.
2. Descrição do caso
Em 29 de outubro de 2020, um usuário do Facebook, em Myanmar, fez uma publicação em birmanês em um grupo que se autointitula fórum para discussões intelectuais. A publicação incluía duas fotografias amplamente compartilhadas de um bebê sírio de etnia curda, que se afogou no Mar Mediterrâneo, em setembro de 2015. O texto da publicação começa dizendo que os muçulmanos (ou homens muçulmanos) devem ter algum problema psicológico ou mental. O texto questionou a falta de reação dos muçulmanos, de maneira geral, ao tratamento que os seus compatriotas uigur receberam na China, e fez uma comparação com as mortes na França em reação às caricaturas do profeta Maomé. A publicação conclui que eventos recentes na França reduzem a simpatia do usuário pela criança retratada e parece indicar que a criança poderia se tornar uma extremista quando adulta.
O Facebook traduziu a declaração: “os muçulmanos devem ter algum problema psicológico” e considerou-a discurso de ódio de “Nível 2”, de acordo com os seus Padrões da Comunidade. Como seus Padrões proíbem declarações generalizadas de inferioridade sobre deficiências mentais de uma pessoa ou de um grupo com base na religião, o Facebook removeu a publicação.
Antes da remoção, em 3 de novembro de 2020, as duas fotografias incluídas na publicação tinham telas de aviso sobre elas, conforme o Padrão da Comunidade sobre conteúdo violento e explícito. Segundo o Facebook, nada mais na publicação violou suas políticas. O usuário fez uma apelação ao Comitê de Supervisão, argumentando não ter usado discurso de ódio.
3. Autoridade e Escopo
O Comitê de Supervisão tem autoridade para analisar a decisão do Facebook, de acordo com os termos do Artigo 2.1 do seu Estatuto, e pode manter ou reverter essa decisão, conforme o Artigo 3.5. Segundo a análise dessa publicação pelo Comitê de Supervisão: ela não se enquadra em nenhuma categoria de conteúdo excluído definida no Artigo 2, Seção 1.2.1 do Regulamento interno do Comitê nem entra em conflito com as obrigações legais do Facebook, conforme o Artigo 2, Seção 1.2.2, do Regulamento interno.
4. Padrões relevantes
Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:
I. Padrões da Comunidade do Facebook
O Padrão da Comunidade sobre discurso de ódio estabelece que o Facebook: “não permite discurso de ódio no Facebook por criar um ambiente de intimidação e de exclusão que, em alguns casos, pode promover violência no mundo real”. O Facebook define discurso de ódio como um ataque baseado em características protegidas. Os ataquem podem ser “discursos violentos ou degradantes, estereótipos prejudiciais, declarações de inferioridade ou incentivo à exclusão ou segregação” e estão divididos em três níveis de conteúdo proibido. No Nível 2, o conteúdo proibido inclui:
Generalizações afirmando inferioridade (por escrito ou visuais) sob as seguintes formas: [...] deficiências mentais são definidas em termos de: capacidade intelectual [...] escolaridade [...] saúde mental.
As características protegidas são: “raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e deficiência ou doença grave”, com alguma proteção para idade e status de imigração.
II. Valores do Facebook
A introdução aos Padrões da Comunidade aponta que a “Voz” é o valor primordial do Facebook. Porém, a plataforma pode limitar a “Voz” com base em vários outros valores, incluindo “Segurança”. A definição de “Segurança” do Facebook afirma: “Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook”.
III. Padrões relevantes de direitos humanos considerados pelo Comitê
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos ( UNGPs), sancionados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos por parte das empresas privadas. Com base nos UNGPs, os seguintes padrões internacionais de direitos humanos foram considerados neste caso:
- O direito de liberdade de expressão: Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Artigo 19; Comentário Geral N° 34, Comitê de Direitos Humanos (2011) ( Comentário Geral 34). Plano de ação de Rabat. Relatório sobre discurso de ódio online (2019) do Relator Especial da ONU sobre liberdade de expressão ( A/74/486).
- Direito à não discriminação: Artigos 2 e 26 do PIDCP.
- Direito à vida e à segurança: Artigos 6 e 9 do PIDCP.
5. Declaração do usuário
O usuário fez uma apelação contra a decisão do Facebook de remover o conteúdo, em novembro de 2020. O usuário declarou que a sua publicação não violou os Padrões da Comunidade do Facebook e que ele não usou discurso de ódio. O usuário explicou que a publicação dele foi sarcástica e pretendia comparar reações religiosas extremistas em países diferentes. O usuário também afirmou que o Facebook não está apto a diferenciar sarcasmo de discussão séria no idioma e no contexto birmaneses.
6. Explicação sobre a decisão do Facebook
O Facebook removeu o conteúdo com base em seu Padrão da Comunidade sobre discurso de ódio. O Facebook considerou a publicação um ataque de Nível 2, conforme esse padrão, como uma generalização da deficiência mental em relação aos muçulmanos. De acordo com as informações fornecidas pelo Facebook, que atualmente não são de domínio público, generalizações: “são declarações negativas não qualificadas, sem espaço para motivo, rigor factual ou discussão e violam os direitos e a reputação das outras pessoas”. O Facebook afirmou que o único componente da publicação que violou os Padrões da Comunidade foi a declaração de que os muçulmanos devem ter algum problema psicológico.
O Facebook também argumentou que esse Padrão da Comunidade sobre discurso de ódio é consoante aos padrões internacionais de direitos humanos. De acordo com o Facebook, embora o discurso proibido segundo esse padrão talvez não leve à “defesa ou à incitação da violência”, tal expressão pode ser restrita por ter: “capacidade de levar a atos de discriminação, violência ou ódio, especialmente se distribuída de maneira ampla, viral ou em contextos com vários riscos de direitos humanos”. Como contexto para este caso, o Facebook citou o recente ataque em Nice, na França, que matou três pessoas; a detenção contínua dos muçulmanos uigur, na China; a crise dos refugiados sírios e a violência antimuçulmana de maneira geral.
7. Envios de terceiros
O Comitê recebeu 11 comentários públicos relacionados a este caso. Um deles não tinha conteúdo e 10 comentários forneceram informações substanciais sobre este caso. A distribuição regional dos comentários foi: um da Ásia Pacífico e Oceania, quatro da Europa e cinco dos Estados Unidos e Canadá. As informações enviadas abordavam vários temas; por exemplo, se a publicação provocativa e censurável constitui claramente um discurso de ódio; se o conteúdo foi um ataque aos muçulmanos; se a intenção do usuário era mostrar o tratamento dos muçulmanos uigur na China e a crise dos refugiados sírios; se a intenção do usuário era condenar e não promover a morte das pessoas; se o uso de retaliação na publicação poderia incentivar a violência física contra os chineses; bem como feedback para melhorar o processo de comentário público do Comitê.
8. Análise do Comitê de Supervisão
8.1 Conformidade com os Padrões da Comunidade
A publicação não constitui discurso de ódio no contexto do Padrão da Comunidade relevante.
Neste caso, o Facebook indicou que o discurso em questão era um ataque de Nível 2, de acordo com o Padrão da Comunidade sobre discurso de ódio, A característica protegida foi a afiliação religiosa, pois o conteúdo descrevia muçulmanos ou homens muçulmanos. De acordo com o Facebook, o ataque foi uma: “generalização que estabelece inferioridade” sobre “deficiências mentais”. Essa seção proíbe ataques sobre: “saúde mental, incluindo, entre outros, doente mental, retardado, louco e maluco” e “capacidade intelectual, incluindo, entre outros, burro, estúpido e idiota”.
Embora a primeira frase da publicação, considerada isoladamente, possa aparentar fazer uma generalização ofensiva e insultante dos muçulmanos (ou homens muçulmanos), a publicação deve ser lida na íntegra, considerando o contexto.
Organizações de direitos humanos e outros especialistas indicaram que o discurso de ódio contra grupos muçulmanos minoritários, em Myanmar, é comum, e às vezes sério, especialmente durante as eleições gerais, em 8 de novembro de 2020 (documento de briefing do FORUM-ASIA sobre discurso de ódio generalizado e o papel do Facebook em Myanmar, páginas 5 a 8, Relatório da missão internacional investigativa independente da ONU, em Myanmar, A/HRC/42/50, parágrafos 1303, 1312, 1315 e 1317). Contudo, não houve indicação de que as declarações que se referem aos muçulmanos como mentalmente doentes ou psicologicamente instáveis seja uma parte significativa da retórica antimuçulmana em Myanmar. Além disso, o Facebook traduziu a frase como “realmente, os muçulmanos devem ter algum problema psicológico”, enquanto os tradutores do Comitê consideraram: “há algo errado com a mentalidade dos homens muçulmanos”. Os tradutores também sugeriram que, embora os termos usados possam demonstrar intolerância, eles não foram depreciativos nem violentos.
Portanto, a publicação pode ser lida, considerando-se o contexto, como um comentário indicando a aparente inconsistência entre as reações dos muçulmanos aos eventos na França e na China. Essa expressão da opinião é protegida pelos Padrões da Comunidade e não chega ao nível de discurso de ódio, que justificaria a remoção.
8.2 Conformidade com os valores do Facebook
A decisão do Facebook de remover o conteúdo não está em conformidade com os valores da empresa. Embora o valor de “Segurança” do Facebook seja importante, especialmente em Myanmar, devido ao contexto de discriminação e violência contra os muçulmanos, esse conteúdo não impunha risco à “Segurança” que justificasse a substituição da “Voz”.
8.3 Conformidade com os Padrões de Direitos Humanos
A restauração da publicação é consistente com os padrões internacionais de direitos humanos.
Conforme o Artigo 19 do PIDCP, as pessoas têm o direito de buscar e receber informações, incluindo informações polêmicas e profundamente ofensivas (Comentário Geral nº 34). Alguns membros do Comitê mencionaram o relatório de 2019 sobre discurso de ódio do Relator Especial da ONU sobre liberdade de expressão, que afirma que a lei internacional de direitos humanos: “protege os direitos de ofender e zombar” (parágrafo 17). Alguns membros do Comitê demonstraram preocupação de que os comentários sobre a situação dos muçulmanos uigures possam ser suprimidos ou informados de forma incompleta nos países com fortes alianças com a China.
Ao mesmo tempo, o Comitê reconhece que o direito à liberdade de expressão não é absoluto e pode estar sujeito a limitações nos termos da lei internacional de direitos humanos.
Primeiramente, o Comitê avaliou se o conteúdo estava sujeito a uma restrição obrigatória nos termos da lei internacional de direitos humanos. O Comitê considerou que o conteúdo não estava defendendo o ódio religioso, constituindo incentivo à discriminação, hostilidade ou violência, que os estados são obrigados a proibir conforme o Artigo 20, parágrafo 2 do PIDCP. O Comitê considerou os fatores citados no Plano de Ação de Rabat da ONU, incluindo o contexto, o conteúdo da publicação e a probabilidade de danos. Embora a publicação tivesse um tom pejorativo, o Comitê não a considerou defensora do ódio nem um incentivo intencional de qualquer forma de dano iminente.
O Comitê também discutiu se esse conteúdo poderia sofrer restrição pelo Artigo 19, parágrafo 3 do PIDCP. Essa cláusula da lei internacional de direitos humanos exige que as restrições sobre a liberdade de expressão sejam definidas e facilmente entendidas (requisito de legalidade), tenham a finalidade de promover um dos vários objetivos listados (requisito de objetivo legítimo) e sejam necessárias e estreitamente adaptadas ao objetivo específico (requisito de necessidade e proporcionalidade).
O Comitê reconhece que a restrição do Facebook tinha um objetivo legítimo: resguardar os direitos das outras pessoas à vida, à segurança (lesões físicas ou mentais) e à proteção contra a discriminação. O Comitê reconhece que o discurso de ódio online, em Myanmar, tem estado vinculado a graves danos reais, incluindo acusações de possíveis crimes contra a humanidade e genocídio. Sendo assim, o Comitê reconheceu a importância de proteger os direitos das pessoas que podem estar sujeitas à discriminação e à violência e das que podem estar sujeitas até mesmo a atrocidades.
Apesar disso, o Comitê concluiu que, embora algumas pessoas possam considerar a publicação ofensiva e insultante para os muçulmanos, o Comitê não considera sua remoção necessária para proteger os direitos das outras pessoas.
O Comitê reconhece que o discurso de ódio online é uma questão difícil de moderar e as características linguísticas e culturais, como o sarcasmo, tornam tudo ainda mais difícil. Neste caso, não houve indicações de que a publicação contivesse ameaças contra pessoas que pudessem ser identificadas.
O Comitê reconhece ser difícil para o Facebook avaliar a intenção por trás de cada publicação quando a moderação de conteúdo é feita em grande escala e em tempo real. Embora não seja decisivo, o Comitê considerou a reclamação contida na apelação do usuário de que é contrário a todas as formas de extremismo religioso. O fato de a publicação estar em um grupo alegadamente para discussão intelectual e filosófica, e de ter chamado a atenção para a discriminação contra os muçulmanos uigur na China, apoia a reclamação do usuário. Ao mesmo tempo, alguns membros do Comitê consideraram insensíveis as referências do usuário à criança refugiada que morreu.
O Comitê enfatiza que a restauração de qualquer publicação específica não indica concordância com seu conteúdo. Mesmo em circunstâncias em que a discussão de religião ou identidade seja sensível e possa causar ofensa, a discussão aberta continua sendo importante. É improvável que a remoção de conteúdo reduza as tensões ou proteja as pessoas contra a discriminação. Há maneiras mais eficientes de incentivar o entendimento entre grupos diferentes.
O Comitê também enfatiza ser compreensível a sensibilidade do Facebook diante da possibilidade do discurso de ódio antimuçulmano, em Myanmar, devido ao histórico de violência e discriminação contra os muçulmanos nesse país, ao contexto de risco maior durante as eleições, bem como às informações limitadas disponíveis na época. Nessas circunstâncias, os cuidados do Facebook demonstraram um reconhecimento geral das responsabilidades da empresa perante os direitos humanos. Contudo, neste conteúdo específico, o Comitê concluiu que o Facebook agiu incorretamente ao removê-lo.
9. Decisão do Comitê de Supervisão
9.1 Decisão de conteúdo
O Comitê de Supervisão revoga a decisão do Facebook de remover o conteúdo e exige que a publicação seja recuperada.
O Comitê reconhece que as fotos terão novamente uma tela de aviso, conforme o Padrão da Comunidade sobre conteúdo explícito e violento.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por painéis de cinco membros e devem ser aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas