Anulado
Ressignificação de palavras em árabe
O Comitê de Supervisão anulou a decisão original da Meta de remover uma publicação do Instagram que, segundo o usuário, mostrava fotos de palavras em árabe que podem ser usadas de forma depreciativa para se referir a homens com trejeitos afeminados.
O Comitê de Supervisão anulou a decisão original da Meta de remover uma publicação do Instagram que, segundo o usuário, mostrava fotos de palavras em árabe que podem ser usadas de forma depreciativa para se referir a homens com “effeminate mannerisms” (“trejeitos afeminados”). O conteúdo estava protegido por uma exceção à política da Meta sobre discurso de ódio e não deveria ter sido removido.
Sobre o caso
Em novembro de 2021, uma conta pública do Instagram, descrita como um espaço para discussão de narrativas “queer” na cultura árabe, publicou uma série de fotos em um carrossel (uma única publicação do Instagram que pode conter até dez imagens com apenas uma legenda). A legenda, escrita em árabe e em inglês, explicava que cada imagem mostra uma palavra diferente que pode ser usada de forma pejorativa para se referir a homens com “effeminate mannerisms” (trejeitos afeminados) no mundo árabe, incluindo os termos “zamel”, “foufou” e “tante”/“tanta”. O usuário afirmou que a publicação pretendia “to reclaim [the] power of such hurtful terms” (“ressignificar [o] poder de tais termos ofensivos”).
A Meta inicialmente removeu o conteúdo por violação da política sobre discurso de ódio, mas o restaurou depois da apelação do usuário. Depois da denúncia de outro usuário, a Meta removeu o conteúdo novamente por violação à política sobre discurso de ódio. De acordo com a Meta, antes de o Comitê selecionar este caso, o conteúdo foi encaminhado para análise interna adicional, que determinou, de fato, que não violava a política sobre discurso de ódio da empresa. Por isso, a Meta restaurou o conteúdo no Instagram. A Meta explicou que suas decisões iniciais de remover o conteúdo foram baseadas em análises das fotos que continham os termos “z***l” e “t***e/t***a.”
Principais conclusões
O Comitê considera a remoção deste conteúdo um erro claro que não estava de acordo com a política sobre discurso de ódio da Meta. Embora a publicação contenha insultos, o conteúdo é protegido por uma exceção de discurso “usado de forma autorreferencial ou empoderadora”, bem como uma exceção que permite a citação de discurso de ódio para “condená-lo ou aumentar a conscientização”. As declarações do usuário de que não “condone or encourage the use” (“tolerou ou encorajou o uso”) de insultos e que seu objetivo era “to reclaim [the] power of such hurtful terms” (“ressignificar [o] poder de tais termos ofensivos”) deveriam ter chamado a atenção do moderador para a possibilidade de ser aplicada uma exceção.
Para as comunidades LGBTQIA+ nos países que penalizam sua expressão, as redes sociais são, muitas vezes, um dos únicos meios para se expressar livremente. A moderação exagerada do discurso por usuários de grupos minoritários perseguidos é uma séria ameaça à liberdade de expressão. Dessa forma, o Comitê está preocupado que a Meta não esteja aplicando as exceções de forma consistente na política sobre discurso de ódio à expressão de grupos marginalizados.
Neste caso, os erros, que incluíram três moderadores diferentes para determinar se o conteúdo violava a política sobre discurso de ódio, indicam que as instruções dadas pela Meta aos moderadores que analisam referências a termos pejorativos podem ser insuficientes. O Comitê está preocupado que os analistas podem não ter recursos suficientes em termos de capacidade ou treinamento para evitar o tipo de erro observado neste caso.
É um grande desafio dar instruções em inglês aos moderadores sobre como analisar um conteúdo em idiomas diferentes do inglês, que é o que a Meta faz hoje em dia. Para que os moderadores possam avaliar melhor quando aplicar exceções para conteúdo que contenha insultos, o Comitê recomenda que a Meta traduza suas instruções internas para os dialetos árabes usados por seus moderadores.
O Comitê também acredita que, para elaborar listas diferenciadas de insultos e oferecer instruções adequadas aos moderadores sobre o uso de exceções à sua política de termos ofensivos, a Meta deve buscar informações de minorias alvo de insultos em um país e em um nível cultural específico. A Meta também deve ser mais clara no que diz respeito à criação, aplicação e auditoria das listas de insultos específicas do mercado.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
Como recomendação de política, o Comitê aconselha que a Meta faça o seguinte:
- Traduza os Padrões de Implementação Interna e as Perguntas Frequentes em dialetos do árabe usados por seus moderadores de conteúdo. Dessa forma, é possível reduzir o monitoramento exagerado em regiões de língua árabe, o que ajuda os moderadores a avaliar melhor se as exceções para conteúdo contendo insultos foram justificadas.
- Publique uma explicação clara de como suas listas de insultos específicas do mercado são criadas. Essa explicação deve incluir os processos e critérios que definem os insultos e os países atribuídos a cada lista específica de mercado.
- Publique uma explicação clara de como as listas de insultos específicas do mercado são aplicadas. Essa explicação deve incluir os processos e critérios para determinar com precisão quando e onde será aplicada a proibição de insultos, seja em relação a publicações com origem geográfica dessa região, oriundas de fora, mas relacionadas à tal região e/ou em relação a todos os usuários de tal região, independente da origem geográfica da publicação.
- Publique uma explicação clara de como a auditoria das listas de insultos específicas do mercado é feita. Essa explicação deve incluir os processos e critérios para remover insultos ou mantê-los nas listas específicas de mercado da Meta.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1.Resumo da decisão
O Comitê de Supervisão anula a decisão original da Meta de remover uma publicação do Instagram de uma conta que explora “queer narratives in Arabic history and popular culture” (“narrativas queer na história árabe e na cultura popular”). O conteúdo se enquadra em uma exceção na política sobre discurso de ódio da Meta, pois denuncia, condena e discute o uso negativo de insultos homofóbicas por terceiros e usa em um contexto expressamente positivo.
2. Descrição do caso e histórico
Em novembro de 2021, uma conta pública do Instagram identificada como um espaço para discussão de narrativas “queer” na cultura árabe publicou uma série de fotos em um carrossel (uma única publicação do Instagram que pode conter até dez imagens com apenas uma legenda). A legenda, escrita pelo usuário em árabe e em inglês, explicava que cada imagem mostra uma palavra diferente que pode ser usada de forma pejorativa para se referir a homens com “effeminate mannerisms” (trejeitos afeminados) no mundo árabe, incluindo os termos “zamel”, “foufou” e “tante”/“tanta”. Na legenda, o usuário declarou que não "condone or encourage the use of these words" ("tolerou ou encorajou o uso dessas palavras"), mas explicou que já tinha sido agredido com um desses insultos e que a publicação tinha a intenção de "to reclaim [the] power of such hurtful terms" ("ressignificar [o] poder de tais termos ofensivos") Os especialistas externos do Comitê confirmaram que os termos citados no conteúdo são normalmente usados como insultos.
O conteúdo foi visualizado aproximadamente 9.000 vezes e recebeu cerca de 30 comentários, além de quase 2.000 reações. Três horas após a publicação do conteúdo, um usuário o denunciou como “nudez adulta ou atividade sexual”, e outro usuário o denunciou como “proposta de cunho sexual”. Cada denúncia foi tratada separadamente por diferentes moderadores humanos. O moderador, que analisou a primeira denúncia, não tomou nenhuma ação, mas o moderador que analisou a segunda denúncia removeu o conteúdo por violar a política sobre discurso de ódio da Meta. O usuário fez uma apelação dessa remoção e um terceiro moderador restaurou o conteúdo na plataforma. Após o conteúdo ser restaurado, outro usuário o denunciou como “discurso de ódio” e outro moderador conduziu uma quarta análise, removendo o conteúdo mais uma vez. O usuário fez uma nova apelação e, depois da quinta análise, outro moderador manteve a decisão de remover o conteúdo. Depois que a Meta enviou uma notificação desta decisão, o usuário apresentou uma apelação ao Comitê de Supervisão. A Meta confirmou posteriormente que todos os moderadores que analisaram o conteúdo eram falantes fluentes de árabe.
A Meta explicou que as decisões iniciais de remover o conteúdo foram baseadas em análises das fotos que continham os termos “z***l” e “t***e/t***a.” Em resposta a uma pergunta do Comitê, a Meta também observou que a empresa considera outro termo usado no conteúdo, “moukhanath”, como um insulto.
De acordo com a Meta, após o usuário fazer uma apelação ao Comitê, mas antes de o Comitê selecionar o caso, o conteúdo foi encaminhado para análise interna adicional independente, que determinou que não violava a política sobre discurso de ódio. Em seguida, o conteúdo foi restaurado na plataforma.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).
De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 e 4 da Seção 4 do Estatuto .
Quando o Comitê seleciona casos como este, nos quais a Meta concorda que cometeu um erro, o Comitê analisa a decisão original para ajudar a ampliar a compreensão do motivo dos erros e fazer observações ou recomendações que podem contribuir para reduzir os erros e melhorar o processo.
4.Fontes de autoridade
O Comitê de Supervisão considerou as seguintes como fontes de autoridade:
I.Decisões do Comitê de Supervisão:
As decisões mais importantes do Comitê para este caso incluem:
- A “Decisão Cinto Wampum” (2021-012-FB-UA): Nesta decisão, o Comitê destacou a importância de proteger a expressão de grupos marginalizados, observando que a Meta deve garantir que não removerá o conteúdo que se enquadra em uma exceção da política sobre discurso de ódio.
- A “Decisão de palavras ofensivas na África do Sul” (2021-011-FB-UA): Nesta decisão, o Comitê considerou que a Meta deve ser mais clara nos procedimentos e critérios usados para desenvolver as listas de insultos. O Comitê também recomendou que a Meta priorize a melhoria da justiça processual no monitoramento da política sobre discurso de ódio para que os usuários possam entender melhor o motivo pelo qual o conteúdo é removido.
- A “Decisão do Bot de Mianmar” (2021-007-FB-UA): Nesta decisão, o Comitê enfatizou a importância do contexto para avaliar se o conteúdo se enquadra nas exceções à política sobre discurso de ódio.
O Comitê também se refere às recomendações feitas em: A “Decisão de isolamento de Ocalan” (2021-006-IG-UA), a “Decisão do meme de dois botões” (2021-005-FB-UA) e a “Decisão de nudez e sintomas de câncer” (2020-004-IG-UA).
II. Políticas de conteúdo da Meta:
Este caso envolve as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook. A Central de Transparência da Meta afirma que “o Facebook e o Instagram compartilham políticas de conteúdo. Isso significa que, se um conteúdo é considerado como uma violação no Facebook, ele também é considerado como uma violação no Instagram”.
As Diretrizes da Comunidade do Instagram declaram que:
Queremos promover uma comunidade positiva e diversificada. Removemos conteúdo que contenha ameaças reais ou discurso de ódio...Nunca é aceitável incentivar a violência ou atacar alguém com base em raça, etnia, nacionalidade, sexo, gênero, identidade de gênero, orientação sexual, religião, deficiências ou doenças. Podemos permitir a divulgação de um discurso de ódio quando for compartilhado como forma de desafiá-lo ou para aumentar a conscientização. Nesses casos, pedimos que você expresse as suas intenções claramente.
Os Padrões da Comunidade do Facebook definem o discurso de ódio como “um ataque direto a pessoas com base no que chamamos de características protegidas: raça, etnia, nacionalidade, religião, orientação sexual, casta, sexo, gênero, identidade de gênero e doença ou deficiência grave”. A Meta divide os ataques em três níveis. A seção Calúnia da política contra discurso de ódio proíbe “conteúdo que descreva ou insulte pessoas com calúnias, definidas como palavras intrinsecamente ofensivas e usadas para lançar afrontas segundo as características acima”. Os outros três níveis proíbem conteúdo direcionado a pessoas segregadas ou excluídas.
Como parte do fundamento da política, a Meta explica que:
Reconhecemos que as pessoas às vezes compartilham conteúdos que incluem discursos de ódio de outra pessoa para condenar ou promover a conscientização sobre algum fato. Em outros casos, o discurso que poderia violar nossas normas pode ser usado de forma autorreferencial ou empoderadora. Nossas políticas visam dar espaço para estes tipos de discurso, mas exigimos que as pessoas indiquem claramente sua intenção. Se a intenção não for clara, poderemos remover o conteúdo.
III. Os valores da Meta:
Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook, em que o valor “Voz” é descrito como “essencial”:
o objetivo de nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
A Meta limita a “Voz” com base em quatro valores, e dois são relevantes aqui:
“Segurança”: temos o compromisso de fazer com que o Facebook seja um lugar seguro. Manifestações contendo ameaças podem intimidar, excluir ou silenciar pessoas e isso não é permitido no Facebook.
"Dignidade": acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem outras pessoas.
IV. Padrões internacionais dos direitos humanos:
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o seu compromisso com relação aos direitos humanos de acordo com os UNGPs. Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise feita pelo Comitê das responsabilidades da Meta em termos de direitos humanos que são aplicados na Seção 8 desta decisão:
- Os direitos à liberdade de opinião e de expressão: Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos (PIDCP); Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011; Comunicação 488/1992, Toonen vs. Austrália, Comitê de Direitos Humanos, 1992; Resolução 32/2, Conselho de Direitos Humanos, 2016; Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/74/486 (2019); Alto Comissariado das Nações Unidas para Direitos Humanos, relatório: A/HRC/19/41 (2011).
- Direito a não discriminação: Artigo 2, parágrafo 1 e Artigo 26 PIDCP;
5. Envios de usuário
Em sua declaração ao Comitê, o usuário descreveu a conta como um lugar “to celebrate queer Arab culture” (“para celebrar a cultura árabe queer”). Ele explica que, embora seja um “safe space”(“espaço seguro”), conforme aumenta o número de seguidores, maior é o alvo de provocadores homofóbicos que fazem comentários abusivos e conteúdo denúncia em massa.
O usuário declarou que a publicação tinha como intuito celebrar “effeminate men and boys” (“homens e garotos afeminados”) na sociedade árabe, que muitas vezes são ofendidos com palavras pejorativas destacadas na publicação. Ele explicou ainda que era uma tentativa de reivindicar essas palavras depreciativas usadas contra eles como uma forma de resistência e empoderamento e argumentou que estava claro no conteúdo da publicação que o uso das palavras das fotos como insultos não é tolerado ou encorajado. O usuário também afirmou que acredita que o conteúdo está de acordo com as políticas de conteúdo da Meta, que reconhece o uso de termos proibidos quando usados de forma autorreferencial ou empoderadora.
6. Envios da Meta
A Meta explicou que, em seu fundamento, o conteúdo foi originalmente removido de acordo com a política sobre discurso de ódio, já que continha uma palavra proibida na lista de insultos da Meta, que é “um termo depreciativo para a comunidade gay”. Por fim, a Meta reverteu sua decisão original e restaurou o conteúdo, já que o uso da palavra se enquadra nas exceções da Meta para “conteúdos que condenam insultos ou discurso de ódio, discutem o uso de insultos, incluindo denúncias ou ocasiões em que foram usados, ou debatem sobre quando é aceitável seu uso”. A Meta aceitou que o contexto indicava que o usuário estava chamando a atenção para a natureza ofensiva da palavra e, portanto, não se tratava de uma violação.
Em resposta às perguntas do Comitê sobre como a importância do contexto para a aplicação das exceções da política sobre discurso de ódio, a Meta afirmou que “discurso de ódio e insultos são permitidos” quando são ridicularizados, condenados, discutidos, denunciados ou usados de forma autorreferencial e que o usuário tem a responsabilidade de deixar clara sua intenção ao mencionar um insulto.
Em resposta à outra pergunta do Comitê, a Meta afirmou que “não questionou” o motivo pelo qual o conteúdo foi removido de forma equivocada, já que seus moderadores de conteúdo não registraram as razões de suas decisões.
O Comitê fez um total de 17 perguntas à Meta. Destas, 16 foram respondidas integralmente e uma foi parcialmente respondida.
7. Comentários públicos
O Comitê recebeu três comentários públicos relacionados a este caso. Um dos comentários era dos Estados Unidos e Canadá, um do Oriente Médio e Norte da África e um da América Latina e Caribe.
Os envios abordaram os seguintes temas: Segurança LGBT nas principais plataformas de redes sociais, a consideração do contexto local no monitoramento da política contra discurso de ódio e a mudança de significado das palavras em árabe.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
Além disso, como parte dos esforços contínuos de engajamento das partes interessadas, os membros do Comitê realizaram discussões informativas e enriquecedoras com organizações que trabalham com a liberdade de expressão e os direitos das pessoas LGBTQIA+, incluindo falantes de árabe. Essa discussão teve como destaque questões que incluem: a dificuldade em definir uma ofensa de forma que seja categoricamente ressignificada e universalmente inofensiva quando ela continua sendo um insulto para alguns públicos, independente da intenção do falante; os problemas causados pela falta de informações sobre a política de conteúdo para grupos de defesa LGBTQIA+ e comunidades não falantes de inglês; e os riscos de uma moderação de conteúdo que não é suficientemente sensível ao contexto.
8.Análise do Comitê de Supervisão
O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.
O Comitê selecionou este caso já que uma moderação exagerada do discurso pelos usuários de grupos minoritários perseguidos é uma séria e ampla ameaça à liberdade de expressão. Os espaços de expressão online são importantes principalmente para grupos que enfrentam perseguição e seus direitos exigem atenção redobrada para obter proteção das empresas de redes sociais. Este caso também demonstra o cuidado da Meta na busca de proteger as minorias do discurso de ódio, ao mesmo tempo em que tenta criar um espaço onde as minorias possam se expressar perfeitamente, inclusive ressignificando insultos.
8.1 Conformidade com as políticas de conteúdo da Meta
I.Regras sobre conteúdo
O Comitê considera que, apesar dessas palavras ofensivas serem usadas, o conteúdo não é um discurso de ódio porque se enquadra em uma exceção da política sobre discurso de ódio para palavras ofensivas que são “usadas de forma autorreferencial ou empoderadora”, bem como exceção por citar discursos de ódio para “condená-los ou aumentar a conscientização”.
Nas decisões do “Cinto Wampum” e “Meme de dois botões”, o Comitê observou que não é necessário que um usuário declare explicitamente sua intenção em uma publicação para que atenda aos requisitos de exceção à política sobre discurso de ódio. Basta que um usuário deixe claro no contexto da publicação que está usando a terminologia de discurso de ódio da forma permitida pela política.
No entanto, o conteúdo neste caso incluiu as declarações do usuário de que não “condone or encourage” (“tolerou ou encorajou”) o uso ofensivo de tais termos, mas que a publicação era, em vez disso, “an attempt to resist and challenge the dominant narrative” (“uma tentativa de resistir e desafiar a narrativa dominante”) e de “to reclaim the power of such hurtful terms” (“ressignificar o poder de tais termos ofensivos”). Embora as declarações claras de intenção nem sempre sejam necessárias ou suficientes para legitimar o uso ou a citação de discurso de ódio, elas devem alertar o moderador sobre a possibilidade de uma exceção. Nesse caso, o Comitê considera que a declaração de intenção, aliada ao contexto, deixa claro que o conteúdo se enquadra de forma equivocada na exceção.
Apesar disso, inicialmente, a Meta removeu o conteúdo, após três moderadores separados determinarem que o conteúdo violava a política sobre discurso de ódio. Apesar de existir uma série de razões possíveis para que vários moderadores não tenham classificado o conteúdo de forma adequada, a Meta não conseguiu apresentar explicações específicas para o erro, pois a empresa não exige que os moderadores registrem a justificativa de suas decisões. Conforme observado na decisão "Cinto Wampum", os tipos de erros e as pessoas ou comunidades atingidas por eles mostram as escolhas na elaboração de sistemas de monitoramento na plataforma e que correm o risco de prejudicar os direitos de liberdade de expressão de membros de grupos perseguidos. Quando a Meta observa um padrão de monitoramento exagerado persistente de conteúdo em relação a um grupo perseguido ou marginalizado, como neste caso, seria adequado investigar a justificativa por trás das decisões de monitoramento e considerar quais alterações nas regras de moderação ou se mais treinamento ou supervisão em relação às regras existentes são necessários para evitar um monitoramento extremamente zeloso, o que sobrecarrega os membros de grupos cujos direitos expressivos estão em risco.
II.Ação de monitoramento
Em resposta às perguntas do Comitê, a Meta explicou que o conteúdo somente foi restaurado na plataforma porque um funcionário da Meta sinalizou um nível de análise encaminhado. “Encaminhado para análise” significa que, em vez de a decisão ser revisada pela análise em grande escala, que muitas vezes é terceirizada, ela segue para uma equipe interna da Meta. Portanto, parece que foi necessário que um funcionário da Meta tenha notado a remoção do conteúdo, e então tenha preenchido e enviado um formulário interno na web que destacava o problema. Além do elemento de risco, sistemas deste tipo apenas conseguem identificar erros no conteúdo aos quais a equipe da Meta está pessoalmente exposta. Assim, o conteúdo que não está em inglês, que não foi publicado por contas com muitos seguidores nos EUA ou que foi criado para e por grupos que não são bem representados na Meta tem menor probabilidade de ser notado, sinalizado e receber a atenção devida.
Como parte de seu alcance, o Comitê tomou conhecimento das questões levantadas pelas partes interessadas de que o monitoramento adequado das exceções à política sobre discurso de ódio exige um grau de especialização no assunto e conhecimento local que a Meta pode não ter ou nem sempre conseguir aplicar. A não ser que a Meta procure regularmente informações de grupos minoritários alvos de insultos em um nível específico de um país, o Comitê compartilha que ela não conseguirá elaborar listas diferenciadas de insultos designados e oferecer a seus moderadores instruções adequadas sobre a aplicação das exceções à política de insultos.
8.2 Conformidade com os valores da Meta
O Comitê considera que a decisão original de remover este conteúdo era inconsistente com os valores de "Voz" e "Dignidade" da Meta e não atendia ao valor de "Segurança". Apesar de estar de acordo com os valores da Meta de impedir o uso de insultos contra pessoas em suas plataformas, o Comitê está preocupado com o fato de a Meta não aplicar de forma consistente as exceções da política à expressão de grupos marginalizados.
No contexto deste caso, a “Voz”, que busca promover a liberdade de expressão de membros de um grupo marginalizado, é de extrema importância. A Meta tem o direito de tentar restringir o uso de insultos que possam depreciar e intimidar seus alvos e também permitir tentativas de boa-fé do uso dessas palavras com impacto negativo por meio de reivindicação.
O Comitê reconhece que a circulação de insultos afeta a “Dignidade”. Particularmente, os insultos podem intimidar, incomodar ou ofender os usuários de forma que inibam a expressão online, quando usados com a intenção de ofender ou por falta de evidências contextuais que comprovem que não estão sendo usados para insultar. Se houver provas contextuais concretas de que o insulto é mencionado para condenar, conscientizar ou mencionado de forma autorreferencial ou empoderadora, o valor "Dignidade" não determina que a palavra deve ser removida da plataforma. Pelo contrário, o monitoramento exagerado que rejeita as exceções afeta particularmente grupos minoritários e marginalizados. Conforme recomendado pelo Comitê sobre a decisão "Meme de dois botões", a Meta deve garantir que seus moderadores tenham recursos e suporte suficientes para que o contexto relevante possa ser avaliado de forma adequada. É importante que os moderadores consigam distinguir entre referências permitidas de insultos e usos não permitidos para proteger a "Voz" e "Dignidade" de seus usuários, especialmente aqueles de comunidades marginalizadas.
Como a “Dignidade” e a “Segurança” das comunidades marginalizadas estão em um alto nível de risco nas plataformas de redes sociais, a responsabilidade de proteção desses valores é ainda maior para as plataformas. O Comitê já tinha recomendado na decisão do “Cinto Wampum” que a Meta deveria realizar avaliações de precisão sobre a aplicação da permissão da política sobre discurso de ódio. É possível melhorar a precisão com o treinamento de moderadores para que possam identificar conteúdos que envolvam comunidades discriminadas e receber instruções para avaliar cuidadosamente se as exceções à política sobre discurso de ódio se aplicam. Uma avaliação do conteúdo, junto com provas contextuais complementares, deve ser o fator desencadeante para a aplicação dessas exceções.
Com relação à “Segurança”, o Comitê também observa a importância de espaços online seguros e a moderação cuidadosa para comunidades marginalizadas e ameaçadas. A população LGBTQIA+ falante de árabe enfrenta um grau de perigo ao se expressar abertamente online, especialmente na região Oriente Médio e Norte da África. A Meta deve equilibrar a necessidade de ter áreas de apoio para essa expressão com a garantia de que não modere de forma exagerada e silencie as pessoas que já enfrentam censura e opressão. Embora o Comitê reconheça a complexidade da moderação nessa área, especialmente em grande escala, é essencial que as plataformas invistam recursos para que seja feito da forma correta.
8.3 Conformidade com as responsabilidades sobre direitos humanos da Meta
O Comitê conclui que a decisão inicial da Meta de remover o conteúdo não estava de acordo com suas responsabilidades de direitos humanos como empresa. A Meta se comprometeu a respeitar os direitos humanos de acordo com os Princípios Orientadores da ONU (UNGPs) sobre Empresas e Direitos Humanos. A Política Corporativa de Direitos Humanos do Facebook afirma que também inclui o Pacto Internacional dos Direitos Civis e Políticos (PIDCP).
1. Liberdade de expressão (Artigo 19 do PIDCP)
O Artigo 19 do PIDCP prevê ampla proteção à expressão, entre elas a discussão de direitos humanos e a expressão que possa ser considerada “extremamente ofensiva” ( Comentário Geral 34, parágrafo 11). O direito à liberdade de expressão é garantido a todas as pessoas, sem discriminação de “sexo” ou “outro status” (Artigo 2, parágrafo 1, PIDCP). Isso inclui orientação sexual e identidade de gênero ( Toonen vs. Austrália (1992); A/HRC/19/41, para. 7).
Esta publicação está relacionada a questões sociais importantes de discriminação de pessoas LGBTQIA+. O Alto Comissariado das Nações Unidas para os Direitos Humanos destacou problemas com as restrições à liberdade de expressão decorrentes de limitações discriminatórias na defesa dos direitos LGBTQIA+ ( A/HRC/19/41, parágrafo 65).
O artigo 19 exige que, quando um estado impõe restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (artigo 19, parágrafo 3, PIDCP). Com base no quadro dos UNGPs, o Relator Especial da ONU sobre Liberdade de Opinião e Expressão exortou as empresas de redes sociais a assegurar que suas regras sobre conteúdo sejam orientadas pelos requisitos do Artigo 19, parágrafo 3, PIDCP ( A/HRC/38/35, parágrafos 45 e 70).
I. Legalidade (clareza e acessibilidade das regras)
O requisito de legalidade determina que qualquer restrição à liberdade de expressão deve ser acessível e clara o suficiente para entender o que é ou não permitido.
O Comitê recomendou no caso “Nudez e sintomas de câncer de mama” (2020-004-IG-UA, Recomendação Nº 9), no caso “Isolamento de Ocalan” (2021-006-IG-UA, Recomendação Nº 10) e no Parecer consultivo sobre a política que, ao compartilhar informações residenciais privadas (Recomendação nº 9), a Meta deve esclarecer aos usuários do Instagram que os Padrões da Comunidade do Facebook se aplicam ao Instagram da mesma forma que se aplicam ao Facebook, com algumas exceções. No Parecer Consultivo sobre a Política, o Comitê recomendou que a Meta concluísse essa questão em 90 dias. O Comitê salienta a resposta da Meta ao Parecer Consultivo sobre a Política de acordo com a qual, embora esta recomendação seja totalmente implementada, a Meta ainda está trabalhando na elaboração das Diretrizes da Comunidade do Instagram de forma mais abrangente e esclarecendo sua relação com os Padrões da Comunidade do Facebook e não pode se comprometer com o prazo de 90 dias. Após reiterar essa recomendação em várias ocasiões, o Comitê acredita que a Meta teve tempo suficiente para se preparar para essas alterações. A relação indefinida entre as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook gera confusão frequente para os usuários das plataformas da Meta. Atualmente, embora as Diretrizes da Comunidade do Instagram contenham um link para os Padrões da Comunidade do Facebook sobre discurso de ódio, não ficou claro para o usuário que todo o Padrão da Comunidade do Facebook sobre discurso de ódio, inclusive a proibição de insultos e exceções, se aplica ao Instagram. Atualizações adequadas e gerais das Diretrizes da Comunidade do Instagram continuam sendo uma das principais prioridades do Comitê.
Com relação ao desenvolvimento da lista de insultos, o Comitê reitera a questão levantada no caso “Ofensas na África do Sul” ( 2021-011-FB-UA) que a Meta deveria ser mais transparente nos procedimentos e critérios para o desenvolvimento da lista. Nesse caso, a Meta explicou que define as listas de insultos para cada mercado com base na “análise e verificação de parceiros internos relevantes, como equipes de processos, mercados e políticas de conteúdo”. A Meta também afirmou que seus especialistas de mercado fazem auditoria da lista de insultos todo ano, sendo cada termo avaliado qualitativa e quantitativamente, e diferenciando “palavras que são naturalmente ofensivas, mesmo que escritas por eles mesmo, e palavras que não são naturalmente ofensivas”. Não ficou claro para o Comitê quando ocorre essa análise anual, mas depois que selecionou esse caso, a Meta fez uma auditoria do uso da palavra "z***l". Após essa auditoria, a palavra foi removida da lista em “árabe”, permanecendo na lista de insultos para o “mercado magrebino”. O Comitê não sabe se essa auditoria fez parte de procedimentos regulares ou uma análise específica em resposta à seleção deste caso pelo Comitê. Em termos mais gerais, não ficou claro para o Comitê o que significam as avaliações qualitativas e quantitativas nas análises anuais.
As informações sobre os processos e critérios para o desenvolvimento da lista de insultos e a designação de mercado, principalmente sobre como os mercados linguísticos e geográficos são diferenciados, não estão disponíveis para os usuários. Sem essas informações, os usuários podem ter dificuldade em avaliar as palavras que podem ser consideradas insultos, com base apenas na definição de ofensas da política sobre discurso de ódio que usa conceitos subjetivos, como ofensividade inerente e natureza ofensiva ( A/74/486, parágrafo 46; consulte também A/HRC/38/35, parágrafo 26).
Com relação à aplicação da lista de insultos, a Meta afirmou no caso "Ofensas na África do Sul" ( 2021-011-FB-UA) que a “proibição de ofensas é global, mas a designação de ofensas é específica do mercado”. A Meta explicou que “se um termo aparece na lista de insultos de um mercado, a política sobre discurso de ódio proíbe seu uso nesse mercado”. A explicação da Meta é confusa em relação às práticas de monitoramento, que podem ser de escopo global, significando que as ofensas designadas pelo mercado também são proibidas em todo o mundo. A Meta explicou que definiu um mercado como “uma combinação de país(es) e idioma(s)/dialeto(s)” e que “a divisão entre (…) mercados é baseada principalmente em uma combinação de idioma/dialeto e país do conteúdo”. Os analistas de conteúdo da Meta são “designados para o mercado com base na sua aptidão linguística e conhecimento cultural e de mercado”. De acordo com a Meta, esse conteúdo incluía os mercados árabe e magrebino na lista de insultos. O conteúdo era direcionado para esses mercados “com base em uma combinação de diversos sinais, como localização, idioma e dialeto detectados no conteúdo, o tipo de conteúdo e o tipo de denúncia”. Não ficou suficientemente claro para o Comitê como os múltiplos sinais funcionam juntos e determinam os mercados a que um conteúdo seria direcionado e se o conteúdo, contendo uma palavra ofensiva em um determinado mercado, seria removido apenas se estivesse voltado a esse mercado ou seria removido em todo o mundo. Os Padrões da Comunidade não explicam esse processo.
A Meta deve emitir uma explicação geral de como os insultos são aplicados na plataforma. Existem várias áreas obscuras na política atual, inclusive se os insultos direcionados a regiões específicas são removidos da plataforma apenas quando publicados ou visualizados nessas regiões, ou independentemente do local publicado ou visualizado. A Meta também deve explicar como lida com palavras que são consideradas insultos em algumas áreas, mas que têm um significado totalmente diferente, que não viola nenhuma das políticas da Meta em outros lugares.
A estrutura dos Padrões da Comunidade sobre discurso de ódio também pode causar confusão. Apesar da proibição de insultos aparecer abaixo do título do discurso de ódio em três níveis, o Comitê não esclareceu se a proibição pertence ao nível três, pois as ofensas não necessariamente são direcionadas a pessoas segregadas ou excluídas, que são o foco do restante desse nível.
II.Objetivo legítimo
Qualquer restrição na expressão deve perseguir um dos objetivos legítimos listados no PIDCP, que incluem os “direitos dos outros”. Nesse caso, a política atendeu o objetivo legítimo de proteger os direitos de outras pessoas ( Comentário Gera Nº 34, parágrafo 28) à igualdade, proteção contra a violência e discriminação com base na orientação sexual e identidade de gênero (Artigo 2, parágrafo 1, Artigo 26 PIDCP; Comitê de Direitos Humanos da ONU, Toonen vs. Austrália (1992); Resolução 32/2 do Conselho de Direitos Humanos da ONU sobre a proteção contra a violência e a discriminação baseada na orientação sexual e na identidade de gênero).
III. Necessidade e proporcionalidade
O princípio da necessidade e da proporcionalidade requer que qualquer restrição à liberdade de expressão “sejam apropriadas para cumprir sua função protetora; sejam o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; e sejam proporcionais ao interesse a ser protegido” ( Comentário geral n.º 34, parágrafo 34).
Nesse caso, não foi necessário remover o conteúdo, pois a remoção foi um erro claro que não estava de acordo com a exceção das políticas de discurso de ódio da Meta. A remoção também não foi o instrumento menos intrusivo para atingir o objetivo legítimo já que, em cada revisão que resultava na remoção, todo o carrossel contendo 10 fotos era retirado por supostas violações de política em apenas uma das fotos. Mesmo que o carrossel tivesse incluído apenas uma imagem com insultos proibidos não protegidos por uma exceção, a remoção de todo o carrossel não seria a resposta adequada.
A Meta explicou ao Comitê que “a publicação é considerada uma violação quando qualquer foto contém uma violação dos Padrões da Comunidade” e “diferente do Facebook, a Meta não consegue remover uma única imagem de uma publicação com várias fotos no Instagram”. A Meta afirmou que uma atualização na ferramenta de análise de conteúdo foi proposta com o objetivo de que os analistas pudessem remover apenas a foto com violação em um carrossel de fotos, mas a atualização não teve prioridade. O Comitê não considera essa explicação clara e acredita que a falta de prioridade dada à atualização pode levar a um monitoramento sistêmico exagerado, onde carrosséis inteiros são retirados, mesmo que apenas algumas partes sejam consideradas violação. O Comitê também observa que, quando um usuário publica a mesma série de fotos no Facebook e no Instagram, os diferentes tratamentos desse tipo de conteúdo nas duas plataformas levariam a resultados inconsistentes, que não são justificados por nenhuma diferença de política adequada: se uma das fotos estiver em violação, levará a remoção de todo o carrossel no Instagram, mas não no Facebook.
2.Não discriminação
Pela importância da ressignificação de termos pejorativos para a comunidade LGBTQIA+, o Comitê espera que a Meta seja particularmente sensível à possibilidade de remoção indevida do conteúdo neste caso e de conteúdo semelhante no Facebook e Instagram. Conforme observado na decisão “Cinto Wampum” ( 2021-012-FB-UA) em relação à expressão artística de povos indígenas, não basta avaliar o desempenho do monitoramento da Meta da política sobre discurso de ódio do Facebook como um todo, já que devem ser levados em consideração os efeitos em determinados grupos marginalizados. De acordo com os UNGPs, "as empresas devem prestar atenção especial a qualquer impacto específico aos direitos humanos em indivíduos de grupos ou povos que possam estar em maior risco de vulnerabilidade ou marginalização" (UNGPs, Princípios 18 e 20). Para as comunidades LGBTQIA+ em países que penalizam sua expressão, as redes sociais são, muitas vezes, um dos únicos meios que ainda é possível se expressar livremente. É exatamente o caso do Instagram, onde as Diretrizes da Comunidade permitem que os usuários não usem seu nome verdadeiro. O Comitê observa que as mesmas liberdades não são oferecidas aos usuários do Facebook nos Padrões da Comunidade. A Meta deveria demonstrar que realizou a devida diligência em direitos humanos para garantir que seus sistemas funcionem de forma justa e não contribuam para a discriminação (UNGPs, Princípio 17). O Comitê declara que a Meta avalia geralmente a precisão de seus sistemas de monitoramento ao lidar com o discurso de ódio (“Decisão do Cinto Wampum”). No entanto, essas avaliações não são divididas em avaliações de precisão que medem especificamente a capacidade da Meta distinguir discurso de ódio proibido de um conteúdo permitido que tenta ressignificar insultos.
Neste caso, os erros indicam que a orientação da Meta para os moderadores avaliarem as referências a estes termos pejorativos pode ser insuficiente. O Comitê está preocupado que os analistas podem não ter recursos suficientes em termos de capacidade ou treinamento para evitar o tipo de erro observado nesse caso, especialmente em relação ao conteúdo permitido para as exceções da política. Nesse caso, a Meta informou ao Comitê que as Perguntas Frequentes e os Padrões de Implementação Interna estão disponíveis apenas em inglês para “garantir o monitoramento global padronizado” de suas políticas e que “todos os moderadores de conteúdo são fluentes em inglês”. Na decisão do caso “Bot de Mianmar” ( 2021-007-FB-UA), o Comitê recomendou que a Meta deveria garantir que os Padrões de Implementação Interna estejam disponíveis na língua em que os moderadores analisam o conteúdo. A Meta não tomou mais nenhuma ação sobre esta recomendação, dando uma resposta semelhante de que seus moderadores de conteúdo eram fluentes em inglês. O Comitê observa que é um grande desafio oferecer treinamento em inglês para os analistas de como moderar o conteúdo em idiomas diferentes do inglês. Os Padrões de Implementação Interna e as Perguntas Frequentes geralmente são baseadas nas estruturas do inglês-americano que podem não se aplicar a outros idiomas, como o árabe.
Na decisão do “Cinto Wampum” ( 2021-012-FB-UA, Recomendação Nº 3), o Comitê recomendou que a Meta realize avaliações de precisão com foco nas exceções da política sobre discurso de ódio, que incluem a expressão de violações de direitos humanos (por exemplo, condenação, conscientização, uso autorreferencial, uso empoderado) e que a Meta deve compartilhar os resultados da avaliação, inclusive como esses resultados indicarão melhorias nas operações de monitoramento e no desenvolvimento de políticas. O Comitê emitiu esta recomendação com base em seu entendimento de que os custos da remoção desnecessária de expressões sobre violações de direitos humanos são particularmente altos. O Comitê observa os problemas da Meta em relação à recomendação na avaliação da viabilidade, entre elas: (a) a falta de categorias específicas nas políticas sobre exceções para áreas como violações de direitos humanos e (b) a falta de uma amostra facilmente identificada de conteúdo que se enquadre nas exceções do discurso de ódio. O Comitê acredita que esses desafios podem ser superados, já que a Meta pode focar a análise nas exceções existentes de discurso de ódio e priorizar a identificação de amostras de conteúdo. O Comitê incentiva a Meta a se comprometer a implementar a recomendação no caso "Cinto Wampum" ( 2021-012-FB-UA) e recebe atualizações da Meta em seu próximo relatório trimestral.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
10. Declaração de parecer consultivo
Monitoramento
1. A Meta deve traduzir os Padrões de Implementação Internos e as Perguntas Frequentes para o árabe moderno padrão. Dessa forma, é possível reduzir o monitoramento exagerado em regiões de língua árabe, o que ajuda os moderadores a avaliar melhor se as exceções para conteúdo contendo insultos foram justificadas. O Comitê observa que a Meta não tomou outras medidas em resposta à recomendação do caso “Bot de Mianmar” (2021-007-FB-UA) e que a Meta deveria garantir que os Padrões de Implementação Interna estejam disponíveis na língua em que os moderadores analisam o conteúdo. O Comitê considerará que esta recomendação foi implementada quando a Meta informar ao Comitê que a tradução para o árabe moderno padrão foi concluída.
Transparência
2. A Meta deve publicar uma explicação clara de como cria suas listas de insultos específicas do mercado. Essa explicação deve incluir os processos e critérios que definem os insultos e os países atribuídos a cada lista específica de mercado. O Comitê considerará a implementação quando as informações forem publicadas no Centro de Transparência.
3. A Meta deve publicar uma explicação clara de como aplica suas listas de insultos específicas do mercado. Essa explicação deve incluir os processos e critérios para determinar com precisão quando e onde será aplicada a proibição de insultos, seja em relação a publicações com origem geográfica dessa região, oriundas de fora, mas relacionadas à tal região e/ou em relação a todos os usuários de tal região, independente da origem geográfica da publicação. O Comitê considerará a recomendação implementada quando as informações forem publicadas na Central de Transparência da Meta.
4. A Meta deve publicar uma explicação clara de como audita suas listas de insultos específicas do mercado. Essa explicação deve incluir os processos e critérios para remover termos ofensivos ou mantê-los nas listas específicas de mercado da Meta. O Comitê considerará a recomendação implementada quando as informações forem publicadas na Central de Transparência da Meta.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas