Mantido
Armênios no Azerbaijão
O Comitê de Supervisão manteve a decisão do Facebook de remover uma publicação que contém uma calúnia degradante que violou os Padrões da Comunidade do Facebook sobre discurso de ódio.
Esta decisão também está disponível em Armênio, Azerbaijano e Russo.
Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.
Qərarın tam mətnini oxumaq üçün bura klikləyin.
Чтобы прочесть полное решение на русском языке, нажмите здесь.
Resumo do caso
O Comitê de Supervisão manteve a decisão do Facebook de remover uma publicação que continha insulto e humilhação que violavam os Padrões da Comunidade do Facebook sobre discurso de ódio.
Sobre o caso
Em novembro de 2020, um usuário publicou um conteúdo que incluía fotos históricas mostrando igrejas em Baku no Azerbaijão. O texto em russo afirmava que os armênios construíram Baku e que esse patrimônio, incluindo as igrejas, foi destruído. O usuário usou o termo russo “тазики” (“taziks”) para descrever os azerbaijanos, os quais o usuário alegou serem nômades e não terem histórico comparado aos armênios.
O usuário incluiu hashtags na publicação pedindo o fim da agressão e do vandalismo no Azerbaijão. Outra hashtag exigiu o reconhecimento de Artsakh, o nome armênio da região de Nagorno-Karabakh, que está no centro do conflito entre a Armênia e o Azerbaijão. A publicação recebeu mais de 45 mil visualizações e foi publicada durante o recente conflito armado entre os dois países.
Principais conclusões
O Facebook removeu a publicação por violar os Padrões da Comunidade sobre discurso de ódio, alegando que a publicação usou um insulto para descrever um grupo de pessoas com uma característica protegida (nacionalidade).
A publicação usava o termo "тазики" (“taziks”) para descrever os azerbaijanos. Embora possa ser traduzido literalmente do russo como "lavatório", também pode ser entendido como um jogo de palavras com a palavra russa "азики" ("aziks"), um termo depreciativo para os azerbaijanos que aparece na lista interna de termos de difamação do Facebook. Uma análise linguística independente contratada em nome do Comitê confirma o entendimento do Facebook de "тазики" como um insulto desumano de ataque à nacionalidade.
O contexto em que o termo foi usado deixa claro que sua intenção era desumanizar o alvo. Por isso, o Comitê acredita que a publicação violou os Padrões da Comunidade do Facebook.
O Comitê também constatou que a decisão do Facebook de remover o conteúdo estava de acordo com os valores da empresa. Apesar de o Facebook considerar "Vozes" um valor primordial, os valores da empresa também incluem "Segurança" e "Dignidade".
De setembro a novembro de 2020, as disputas pelo território de Nagorno-Karabakh geraram a morte de milhares de pessoas, sendo que o conteúdo foi publicado pouco antes de um cessar-fogo.
Tendo em vista a natureza desumana do insulto e o perigo de que tais insultos possam se transformar em violência física, o Facebook foi autorizado, neste caso, a priorizar a "Segurança" e a "Dignidade" das pessoas em vez do valor "Vozes" do usuário.
A maioria do Comitê concluiu que a remoção desta publicação era consistente com os padrões internacionais de direitos humanos sobre a limitação da liberdade de expressão.
O Comitê acreditava que era aparente para os usuários que o uso do termo “тазики” para descrever os azerbaijanos seria um rótulo desumano para um grupo pertencente a uma determinada nacionalidade, e que o Facebook tinha o objetivo legítimo de remover a publicação.
A maioria do Comitê também considerou a remoção da publicação do Facebook como necessária e adequada para proteger os direitos dos outros. Os insultos desumanos podem criar um ambiente de discriminação e violência que pode silenciar outros usuários. Durante um conflito armado, os riscos aos direitos das pessoas à igualdade, à segurança pessoal e, potencialmente, à vida são especialmente notórios.
Embora a maioria do Comitê tenha concluído que esses riscos tornavam a resposta adequada do Facebook, uma minoria acreditava que a ação do Facebook não atendia aos padrões internacionais e não era adequada. Uma minoria considerou que o Facebook deveria ter tomado outras medidas de coação além da remoção.
Decisão do Comitê de Supervisão
O Comitê mantém a decisão do Facebook de remover o conteúdo.
Em uma declaração de parecer consultivo, o Comitê recomenda ao Facebook:
- Confirme se os usuários serão sempre notificados sobre os motivos de qualquer execução dos Padrões da Comunidade contra eles, inclusive a regra específica aplicada pelo Facebook. Nesse caso, o usuário foi informado de que a publicação violava os Padrões da Comunidade do Facebook sobre discurso de ódio, mas não foi informado de que o ocorrido foi por conta de uma publicação que continha um insulto que atacava a nacionalidade. A falta de transparência do Facebook deixou aberta uma crença equivocada de que a empresa removeu o conteúdo porque o usuário expressou uma opinião com a qual discordava.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão manteve a decisão do Facebook de remover a publicação de um usuário sobre a suposta destruição de igrejas no Azerbaijão por violar os Padrões da Comunidade sobre discurso de ódio.
Uma análise independente contratada pelo Comitê confirma a avaliação do Facebook de que a publicação continha um insulto menosprezando azerbaijanos, o que viola os Padrões da Comunidade. Embora a publicação contenha discurso político, o Facebook foi autorizado a proteger a segurança e a dignidade dos usuários ao remover a publicação, especialmente no contexto de um conflito armado contínuo entre a Armênia e o Azerbaijão.
A remoção da publicação também foi consistente com os padrões internacionais de direitos humanos, que permitem algumas restrições personalizadas à expressão com o objetivo de proteger os direitos de terceiros.
O Comitê também aconselha o Facebook a oferecer mais detalhes sobre o motivo pelo qual as publicações foram removidas para maior clareza e aviso aos usuários.
2. Descrição do caso
Em novembro de 2020, um usuário publicou conteúdo que incluía fotos históricas mostrando igrejas em Baku no Azerbaijão. O texto em russo afirmava que os armênios construíram Baku e que esse patrimônio, incluindo as igrejas, foi destruído. O usuário usou o termo “т.а.з.и.к.и” (“taziks”) para descrever os azerbaijanos, que o usuário alegou serem nômades e não terem história em comparação com os armênios. “Tazik”, que significa “lavatório” em russo, parece ter sido usado na publicação como uma brincadeira com “azik”, um termo depreciativo para os azerbaijanos.
O usuário incluiu hashtags na publicação pedindo o fim da agressão e do vandalismo no Azerbaijão. Outra hashtag exigiu o reconhecimento de Artsakh, o nome armênio da região de Nagorno-Karabakh, que está no centro do conflito entre a Armênia e o Azerbaijão. A publicação recebeu mais de 45 mil visualizações e foi publicada durante o recente conflito armado entre os dois países. O Facebook removeu a publicação por violar os Padrões da Comunidade sobre discurso de ódio. O usuário enviou uma solicitação de revisão ao Comitê de Supervisão.
3. Autoridade e Escopo
O Comitê tem autoridade para analisar a decisão do Facebook de acordo com os termos do Artigo 2 (Autoridade para análise) do Regimento do Comitê e pode manter ou reverter essa decisão de acordo com o Artigo 3, Seção 5 (Procedimentos de análise: Resolução) do Regimento. O Facebook não apresentou motivos para o conteúdo ser excluído de acordo com o Artigo 2, Seção 1.2.1 (Conteúdo não disponível para análise do Comitê) dos Estatutos do Comitê, nem o Facebook indicou que considera o caso inelegível de acordo com o Artigo 2, Seção 1.2.2 (Obrigações legais) do Estatuto Social.
4. Padrões relevantes
Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:
I. Padrões da Comunidade do Facebook:
Os Padrões da Comunidade do Facebook sobre discurso de ódio definem o discurso como um ataque direto a pessoas com base no que chamamos de características protegidas: raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença ou deficiência grave. O conteúdo proibido inclui “o conteúdo que descreve ou negativamente atinge pessoas por meio de difamação, em que se define difamação como palavras comumente usadas como rótulos ofensivos”.
O fundamento da política do Facebook diz que tal discurso não é permitido “por criar um ambiente de intimidação e de exclusão que, em alguns casos, pode promover violência real.”
II. Valores do Facebook:
Os valores do Facebook relevantes a este caso são descritos na introdução aos Padrões da Comunidade. O primeiro é "Vozes", que é descrito como "fundamental":
o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
O Facebook limita "Vozes” com base em quatro outros valores. O Comitê considerou que dois desses valores são relevantes para esta decisão:
Segurança:Temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
Dignidade: acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.
III. Padrões de direitos humanos considerados pelo Comitê:
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos ( UNGPs), sancionados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos por parte das empresas privadas. O Grupo de Trabalho da ONU sobre Direitos Humanos e Corporações Transnacionais, encarregado de monitorar a implementação dos UNGPs, abordou sua aplicabilidade em situações de conflito ( A/75/212, 2020). Com base nos UNGPs, os seguintes padrões internacionais de direitos humanos foram considerados neste caso:
- O direito de liberdade de expressão: Pacto Internacional dos Direitos Civis e Políticos ( PIDCP), Artigos 19 e 20; conforme interpretado pelo Comentário Geral n° 34, Comitê de Direitos Humanos (2011) ( Comentário Geral 34); Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/69/335 (2014); A/HRC/38/35 (2018); A/73/348 (2018), A/74/486 (2019) e A/HRC/44/49 (2020); e o Plano de Ação de Rabat, OHCHR, (2012);
- Direito à não discriminação: PIDCP Artigos 2 e 26; Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial ( ICERD), Artigos 1, 4 e 5; conforme interpretado pelo Comitê sobre a Eliminação de Discriminação Racial, Recomendação Geral n° 35 (2013) ( GR35);
- Direito à vida: PIDCP Artigo 6; conforme interpretado pelo Comentário Geral N° 36, Comitê de Direitos Humanos (2018) (GC36);
- Direito à segurança das pessoas: Artigo 9, parágrafo 1 do PIDCP; conforme interpretado pelo Comentário Geral N° 35, parágrafo 9, Comitê de Direitos Humanos (2014).
5. Declaração do usuário
Em sua declaração ao Comitê, o usuário alegou que sua publicação não era um discurso de ódio, mas sim uma demonstração da destruição do patrimônio cultural e religioso de Baku. Também alegou que a publicação só foi removida porque os usuários azerbaijanos que “odeiam a Armênia e os armênios” estão relatando o conteúdo publicado pelos armênios.
6. Explicação sobre a decisão do Facebook
O Facebook removeu a publicação por violar os Padrões da Comunidade sobre discurso de ódio, alegando que a publicação usava difamação para descrever uma pessoa ou grupo de pessoas com base em uma característica protegida (nacionalidade). O Facebook declarou que removeu o conteúdo por usar o termo "тазики" (“taziks”) para descrever os azerbaijanos. Esta palavra pode ser traduzida literalmente do russo como "tigela", mas também pode ser entendida como um jogo de palavras com a palavra russa "азики" ("aziks") e o Facebook explicou ao Comitê que essa palavra está em sua lista interna de termos de difamação compilada após a consulta de especialistas regionais e organizações da sociedade civil. Depois de avaliar toda a publicação e o contexto em que foi feito, o Facebook determinou que o usuário publicou a difamação para insultar os azerbaijanos.
7. Envios de terceiros
O Comitê de Supervisão considerou 35 comentários públicos relacionados a este caso. Dois dos comentários enviados eram da Ásia Central e do Sul, seis da Europa e 24 da região dos Estados Unidos e Canadá.
Os envios incluíam os seguintes temas: o uso de insultos e linguagem depreciativa que violam os Padrões da Comunidade; a exatidão real das declarações da publicação; se a publicação constitui discussão política ou histórica legítima; e a importância de avaliar a situação e contexto anteriores, incluindo o conflito em Nagorno-Karabakh.
8. Análise do Comitê de Supervisão
8.1 Conformidade com os Padrões da Comunidade
A publicação do usuário violou os Padrões da Comunidade do Facebook sobre discurso de ódio. Estes Padrões da Comunidade proíbem explicitamente o uso de difamação com base na etnia ou nacionalidade. O Comitê contratou uma análise linguística independente que suporta o entendimento deste termo pelo Facebook como uma difamação. O relatório linguístico confirma que a publicação implica uma conexão entre “тазики,” ou “lavatório” e “азики”, um termo frequentemente usado para descrever os azerbaijanos de forma depreciativa.
Pode haver casos em que palavras que são degradantes em um contexto podem ser mais benignas, ou mesmo fortalecedoras, em outro contexto. Os Padrões da Comunidade do Facebook sobre discurso de ódio reconhece que, em alguns casos, "palavras ou termos que possam violar [seus] padrões são usados de forma autorreferencial ou fortalecedora." O contexto em que “тазики” foi usado nesta publicação deixa claro, no entanto, que, ao relacionar os azerbaijanos a lavatórios, pretendia desumanizar seu alvo.
8.2 Conformidade com os valores do Facebook
O Comitê considerou que a remoção foi consistente com os valores de "Segurança" e "Dignidade" do Facebook, que, neste caso, substituíram o valor de "Vozes".
Os valores do Facebook priorizam o valor "Vozes", pois os usuários da plataforma devem poder se expressar livremente. Os valores do Facebook também incluem "Segurança" e "Dignidade". Por outro lado, o discurso protegido pode ser restrito ao deixar este conteúdo e outras publicações semelhantes na plataforma e o que torna o Facebook menos seguro e, consequentemente, prejudica a dignidade e igualdade das pessoas. A proibição do Facebook sobre o uso de insultos direcionados à nacionalidade tem como objetivo impedir que os usuários publiquem o conteúdo com o objetivo de silenciar, excluir, assediar ou degradar outros usuários. Deixando o acúmulo de tal conteúdo, pode criar um ambiente em que atos de discriminação e violência são mais prováveis.
Nesse caso, o Facebook foi autorizado a tratar o uso de insulto como uma interferência séria nos valores de "Segurança" e "Dignidade". O conflito entre a Armênia e o Azerbaijão, vizinhos no sudeste do Cáucaso, é antigo. Mais recentemente, de setembro a novembro de 2020, as disputas pelo território disputado de Nagorno-Karabakh geraram a morte de milhares de pessoas. O conteúdo em questão foi publicado no Facebook pouco antes de um cessar-fogo entrar em vigor. Esse contexto foi especialmente relevante para o Comitê. Embora a linguagem direta possa fazer parte das interações humanas, particularmente em situações de conflito, o perigo de insultos desumanos disseminado de uma forma que se transforma em atos de violência é algo que o Facebook deve levar a sério.
8.3 Conformidade com os Padrões de Direitos Humanos
- Liberdade de expressão (Artigo 19 PIDCP)
O Facebook reconheceu suas responsabilidades de respeitar os direitos humanos de acordo com os Princípios Orientadores das Nações Unidas sobre Negócios e Direitos Humanos e indicou que espera autoridades como o PIDCP e o Plano de Ação de Rabat tomarem decisões sobre o conteúdo, inclusive em situações de conflito armado.
O Comitê concorda com o Relator Especial da ONU sobre liberdade de expressão que embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão ”(A/74/486, parágrafo 41). Esclarecer a natureza dessas perguntas e julgar se as respostas do Facebook estão dentro da área exigida pelos Princípios Orientadores da ONU é a principal tarefa enfrentada pelo Comitê.
O ponto de partida do Comitê é que o escopo do direito à liberdade de expressão é amplo. De fato, o Artigo 19, parágrafo 2, do PIDCP oferece maior proteção à expressão em questões políticas e à discussão de alegações históricas, inclusive no que se refere a locais religiosos e herança cultural de povos. Essa proteção permanece mesmo quando essas alegações podem ser imprecisas ou contestadas e mesmo quando podem causar uma ofensa. O Artigo 19, parágrafo 3, do PIDCP exige limites à liberdade de expressão para satisfazer o teste de três partes de legalidade, legitimidade e necessidade e proporcionalidade.
A maioria do Comitê concluiu que a remoção desta publicação do Facebook da plataforma atendeu a esse teste.
a. Legalidade
Para satisfazer o requisito de “legalidade”, qualquer regra que estabeleça uma restrição à expressão deve ser clara e acessível. As pessoas devem ter informações suficientes para determinar se e como seu discurso pode ser limitado e ajustar seu comportamento em conformidade. Este requisito protege contra a censura arbitrária (Comentário Geral nº 34, parágrafo 25).
Os Padrões da Comunidade do Facebook sobre discurso de ódio especificam que os "insultos" são proibidos e que são definidos como "palavras que são inerentemente ofensivas e usadas como rótulos vulgares" em relação a uma série de "características protegidas", inclusive etnia e nacionalidade.
Nesse caso, o Comitê concluiu que o requisito de legalidade foi atendido. Pode haver situações em que um insulto tenha vários significados ou possa ser colocado de forma que não seja considerado um "ataque". Em situações mais contestadas, os conceitos de "inerentemente ofensivo" e "vulgar" podem ser considerados muito subjetivos e levantar questões de legalidade (A/74/486, parágrafo 46). A aplicação da regra neste caso não gera essa preocupação. A escolha de palavras do usuário se enquadra diretamente na proibição de discurso desumano, que o Comitê considera claramente declarado e facilmente disponível para os usuários. O uso de "т.а.з.и.к.и", que se relaciona a uma identidade nacional a um objeto impuro inanimado, que claramente se qualifica como um "rótulo insultuoso".
Embora a compreensão subjetiva do usuário das regras não seja determinante da legalidade, o Comitê concluiu que o usuário tentou ocultar o insulto das ferramentas de detecção automatizadas do Facebook colocando pontuação entre cada letra. Isso tende a confirmar que o usuário estava ciente de que estava usando uma linguagem proibida pelo Facebook.
b. Legitimidade
Qualquer restrição à liberdade de expressão também deve ter um "objetivo legítimo". Esses objetivos estão listados no PIDCP e incluem o objetivo de proteger “os direitos dos outros” (Comentário Geral nº 34, parágrafo 28). A proibição de calúnias no Facebook visa proteger os direitos das pessoas à igualdade e não discriminação (Artigo 2, parágrafo 1, PIDCP), exercer sua liberdade de expressão na plataforma sem assédio ou ameaça (Artigo 19 PIDCP), proteger o direito à segurança das pessoas contra danos previsíveis e intencionais (Artigo 9, PIDCP, Comentário Geral No. 35, parágrafo 9), e até mesmo o direito à vida (Artigo 6 do PIDCP).
c. Necessidade e Proporcionalidade
A necessidade e a proporcionalidade exigem que o Facebook mostre que sua restrição à liberdade de expressão foi necessária para enfrentar a ameaça, neste caso a ameaça aos direitos de terceiros, e que não era muito ampla (Comentário Geral n° 34, parágrafo 34). O Comitê observa que o direito internacional dos direitos humanos permite proibições de "insultos, ridicularização ou difamação de pessoas ou grupos ou justificativa de ódio, desprezo ou discriminação" se tal expressão "for claramente uma incitação ao ódio ou discriminação" com base na raça, cor, descendência ou origem nacional ou étnica (A/74/486, parágrafo 17; GR35, para. 13).
Os Padrões da Comunidade sobre discurso de ódio do Facebook proíbem algumas expressões discriminatórias, incluindo difamações, na ausência de qualquer requisito de que a expressão incite atos violentos ou discriminatórios. Embora essas proibições possam causar preocupações se impostas por um Governo em um nível mais amplo (A/74/486, parágrafo 48), particularmente se aplicadas por meio de sanções criminais ou civis, o Relator Especial indica que as entidades envolvidas na moderação de conteúdo como o Facebook podem regular esse discurso:
A escala e a complexidade de abordar a expressão de ódio apresentam desafios de longo prazo e podem levar as empresas a restringir essa expressão, mesmo que não esteja claramente ligada a resultados adversos (já que a defesa de ódio está relacionada à incitação no Artigo 20(2) do PIDCP). No entanto, empresas devem articular as bases para tais restrições e demonstrar a necessidade e proporcionalidade de quaisquer ações de conteúdo. (A/HRC/38/35, para. 28)
A maioria do Comitê considerou o insulto usado neste caso como discurso de ódio e degradante. Embora não constitua um incentivo, o potencial para resultados adversos estava presente. O contexto é fundamental. O Comitê dá as boas-vindas à explicação do Facebook de que a designação deste termo como um insulto ocorreu após consultas com especialistas locais e organizações da sociedade civil cientes de seu uso contextual. A maioria notou que a publicação, lida como um todo, deixou clara que a escolha do usuário de insulto não foi acidental, mas central para o argumento do usuário de que o grupo-alvo era inferior. Além disso, a publicação em questão foi amplamente divulgada no auge de um conflito armado entre o Estado do usuário e o Estado cujos nacionais atacaram a publicação. O uso de linguagem degradante neste contexto pode ter efeitos virtuais, incluindo a criação de um ambiente discriminatório que mina a liberdade de expressão de outras pessoas. Em situações de conflito armado em particular, o risco de expressões de ódio e desumanas se acumularem e se espalharem em uma plataforma, levando a ações no mundo real, com impacto no direito à segurança pessoal e potencialmente à vida, é especialmente notório. Neste caso específico, para a maioria do Comitê, a presença desses riscos e a responsabilidade dos direitos humanos do Facebook de evitar contribuir significava que tinha permissão para remover o insulto.
Além disso, o Comitê concluiu que a remoção foi adequada. Intervenções menos severas, como rótulos, telas de aviso ou outras medidas para reduzir a disseminação, não teriam fornecido a mesma proteção. Particularmente, o Facebook não tomou medidas mais severas também disponíveis, como suspender a conta do usuário, apesar de o usuário aparentemente publicar novamente o conteúdo ofensivo várias vezes. Isso ilustra que, apesar da remoção deste conteúdo específico, o usuário permaneceu livre para se envolver em discussões sobre os mesmos problemas dentro dos limites dos Padrões da Comunidade.
Uma minoria concluiu que a exclusão da publicação pelo Facebook não foi adequada, já que os riscos citados pela maioria eram muito remotos e não eram previsíveis. Opções alternativas de aplicação menos intrusivas deveriam, portanto, ter sido consideradas. Os exemplos incluem afixar uma tela de aviso ou de sensibilidade ao conteúdo, reduzindo seu efeito viral, o que promove contra-mensagens ou outras técnicas. Para esta minoria, a remoção de toda publicação por causa de insulto levou à remoção do discurso sobre um assunto de interesse público, e a necessidade e proporcionalidade dessa restrição não foram estabelecidas.
Outra opinião minoritária era que a referência a um objeto inanimado era ofensiva, mas não desumana. Esta opinião considerou que o insulto não contribuiria para ação militar ou outra ação violenta.
9. Decisão do Comitê de Supervisão
9.1 Decisão do Conteúdo
O Comitê mantém a decisão do Facebook de remover a publicação do usuário.
9.2 Declaração Consultiva sobre a Política
O Comitê recomenda que o Facebook:
- Confirme se os usuários serão sempre notificados sobre os motivos de qualquer execução dos Padrões da Comunidade contra eles, inclusive a regra específica aplicada pelo Facebook. Isso permitiria que o Facebook encorajasse expressões que cumprissem seus Padrões da Comunidade, em vez de adotar uma postura antagônica em relação aos usuários. Nesse caso, o usuário foi informado de que a publicação violava os Padrões da Comunidade sobre discurso de ódio, mas não foi informado de que a publicação violou o padrão porque continha um insulto direcionado à nacionalidade. O Facebook satisfez o princípio da legalidade neste caso, mas a falta de transparência do Facebook deixou sua decisão suscetível à crença equivocada de que havia removido a publicação porque o usuário estava abordando um assunto polêmico ou expressando um ponto de vista com o qual o Facebook discordava.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por painéis de cinco membros e devem ser aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas