Anulado
Menção do Talibã na divulgação de notícias
O Comitê de Supervisão anulou a decisão original da Meta de remover uma publicação do Facebook de um veículo de notícias relatando um anúncio positivo do regime Talibã no Afeganistão sobre a educação de mulheres e meninas.
Esta decisão também está disponível em Urdu (na guia “Idioma” acessada no menu no topo desta tela), em Pashto (aqui) e em Dari ( aqui).
په پښتو ژبه د دغې پريکړې د لوستلو لپاره دلته کليک وکړئ.
برای خواندن اين تصميم اينجا فشار دهيد.
Resumo do caso
O Comitê de Supervisão anulou a decisão original da Meta de remover uma publicação do Facebook de um veículo de notícias relatando um anúncio positivo do regime Talibã no Afeganistão sobre a educação de mulheres e meninas. A remoção da publicação não condizia com o Padrão da Comunidade do Facebook sobre organizações e indivíduos perigosos, que permite a denúncia de grupos terroristas, nem com as responsabilidades da Meta em relação aos direitos humanos. O Comitê determinou que a Meta deveria proteger melhor a liberdade de expressão dos usuários quando se trata de noticiar sobre regimes terroristas e faz recomendações políticas para ajudar nisso.
Sobre o caso
Em janeiro de 2022, um popular jornal em urdu baseado na Índia fez uma publicação na sua Página do Facebook. Ela informava que Zabiullah Mujahid, membro do regime Talibã no Afeganistão e seu porta-voz oficial, anunciou que as escolas e faculdades femininas reabririam em março de 2022. A publicação tinha um link para um artigo no site do jornal e teve quase 300 visualizações.
A Meta determinou que a publicação violava a política de organizações e indivíduos perigosos que proíbe "elogios" a entidades consideradas "envolvidas em sérios danos no meio físico", incluindo organizações terroristas. A Meta removeu a publicação, aplicou “advertências” contra o administrador da página que havia publicado o conteúdo e limitou seu acesso a certos recursos do Facebook (como fazer uma transmissão ao vivo no Facebook).
O usuário fez uma apelação, e, depois que um segundo analista humano avaliou a publicação como violadora, ele foi colocado na fila do sistema de Anulação de Falso Positivo de Alto Impacto (HIPO, pelas iniciais em inglês). O HIPO é um sistema que a Meta utiliza para identificar casos em que ela agiu incorretamente, por exemplo, removendo conteúdo erroneamente. Entretanto, como havia menos de 50 analistas falantes urdu alocados ao HIPO na época e a publicação não era considerada de alta prioridade, ela nunca foi revisada nesse sistema.
Quando o Comitê selecionou o caso, a Meta decidiu que a publicação não deveria ter sido removida, pois as regras permitem “noticiar” sobre as organizações terroristas. Ele restaurou o conteúdo, reverteu a advertência e removeu as restrições da conta do usuário.
Principais conclusões
O Comitê de Supervisão conclui que a remoção desta publicação não está de acordo com o Padrão da Comunidade do Facebook sobre organizações e indivíduos perigosos nem com os valores da Meta ou com as responsabilidades da empresa em relação aos direitos humanos.
O Padrão da Comunidade sobre organizações e indivíduos perigosos proíbe "elogios" a entidades designadas, incluindo organizações terroristas. "Elogio" é definido de forma ampla tanto no Padrão da Comunidade quanto nas diretrizes para os moderadores. Como resultado, o Comitê entende o motivo por qual dois analistas interpretaram o conteúdo como um elogio. Entretanto, o Padrão da Comunidade permite conteúdo que "noticia" sobre organizações perigosas. O Comitê considera que esta permissão se aplica a este caso.
O Comitê também conclui que a remoção da publicação não condiz com as responsabilidades da Meta em matéria de direitos humanos: ela restringe injustificadamente a liberdade de expressão, que engloba o direito de transmitir e receber informações, inclusive sobre grupos terroristas. Isso é particularmente importante em tempos de conflito e crise, inclusive quando grupos terroristas exercem o controle sobre um país.
O Comitê está preocupado que os sistemas e políticas da Meta interfiram na liberdade de expressão quando se trata de noticiar sobre regimes terroristas. Os Padrões da Comunidade do Facebook e as diretrizes internas para os moderadores não são claras sobre como se aplicam a proibição de elogios e a permissão de notícias e qual a relação entre elas. O fato de dois analistas terem considerado a publicação como violadora sugere que esses pontos não são bem compreendidos. O Comitê preocupa-se com o fato de que o padrão da Meta seja remover conteúdo nos termos da política de organizações e indivíduos perigosos se os usuários não tiverem deixado claro que sua intenção é "noticiar". Ele também ressalta o fato de o conteúdo não ter sido analisado pelo sistema HIPO.
Esse caso pode indicar um problema mais amplo. O Comitê considerou uma série de reclamações sobre erros na aplicação da política de organizações e indivíduos perigosos, particularmente em outros idiomas que não o inglês. Isso suscita sérias preocupações, especialmente para jornalistas e defensores dos direitos humanos. Além disso, as sanções por violação da política são pouco claras e severas.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover a publicação.
O Comitê recomenda que a Meta:
- Investigue por que as mudanças na política de organizações e indivíduos perigosos não foram traduzidas dentro do prazo estabelecido e evite que tais atrasos se repitam;
- Torne a explicação pública do seu sistema de "advertências" mais abrangente e acessível;
- Detalhe a definição de "elogio" nas Perguntas Conhecidas (diretrizes internas para moderadores), removendo o exemplo de conteúdo que "procura fazer com que outros pensem de forma mais positiva sobre" organizações perigosas;
- Revise os Padrões de Implementação (diretrizes internas para moderadores) para esclarecer que a permissão para notícias na política de organizações e indivíduos perigosos autoriza declarações positivas; As Perguntas Conhecidas devem esclarecer a importância de proteger a divulgação de notícias em situações de conflito ou crise;
- Avalie a precisão com que os analistas aplicam a permissão de notícia da política de organizações e indivíduos perigosos para identificar a causa dos erros;
- Realize uma análise do sistema HIPO para examinar se ele pode priorizar mais efetivamente os potenciais erros na aplicação de exceções à política de organizações e indivíduos perigosos; e
- Aumente a capacidade alocada à revisão do HIPO em todos os idiomas.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão anula a decisão original da Meta de remover uma publicação do Facebook na página de um popular jornal em língua urdu na Índia. Essa publicação noticia um comunicado de um membro proeminente e porta-voz do regime Talibã no Afeganistão a respeito da educação das mulheres e meninas no país. A Meta reverteu sua decisão como resultado da seleção deste caso pelo Comitê, assim como reverteu as sanções na conta do administrador. O Comitê conclui que a publicação não viola o Padrão da Comunidade sobre organizações e indivíduos perigosos, pois a política permite "noticiar" sobre as entidades designadas. O Comitê está preocupado com a definição ampla de "elogio" da Meta e com a falta de clareza dos analistas sobre como aplicar exceções à política de divulgação de notícias sobre ações tomadas por entidades designadas que exercem o controle de um país. Isso interfere na capacidade dos veículos de notícias de informar sobre as ações e declarações de entidades designadas em situações como essa, em que o regime Talibã removeu à força o governo reconhecido do Afeganistão. O Comitê conclui que a Meta não cumpriu com suas responsabilidades de evitar ou mitigar erros ao aplicar estas exceções de política. A decisão recomenda que a Meta altere sua política e seus processos de aplicação do Padrão da Comunidade sobre organizações e indivíduos perigosos.
2. Descrição do caso e histórico
Em janeiro de 2022, a Página do Facebook de um veículo de notícias sediado na Índia compartilhou uma publicação em urdu contendo um link para um artigo no seu próprio site. A Meta afirma que a publicação foi visualizada cerca de 300 vezes. A publicação noticiou que Zabiullah Mujahid, atuando como "Ministro da Cultura e Informação" e porta-voz central oficial do regime Talibã no Afeganistão, havia anunciado que as escolas e faculdades para meninas e mulheres abririam no início do Ano Novo afegão, em 21 de março. O artigo vinculado contém uma versão mais completa sobre o comunicado.
O veículo de notícias é um jornal em urdu com sede em Hyderabad, Índia, uma cidade com um alto número de residentes falantes de urdu. É o maior jornal urdu em circulação no país e alcança uma audiência de mais de um milhão de pessoas por dia. Existem aproximadamente 230 milhões de falantes de urdu em todo o mundo.
Nenhum estado deu reconhecimento diplomático formal ao regime Talibã no Afeganistão desde que o grupo tomou o poder em agosto de 2021. As escolas e faculdades para meninas e mulheres não abriram no início do Ano Novo afegão como o porta-voz anunciou, e as meninas com 12 anos ou mais (a partir da sexta série) e as mulheres continuam impedidas de frequentar a escola no momento da decisão do Comitê sobre este caso.
Em 20 de janeiro de 2022, um usuário do Facebook clicou em "denunciar publicação" no conteúdo, mas não concluiu a reclamação. Isso acionou um classificador (uma ferramenta de aprendizado de máquina treinada para identificar violações dos Padrões da Comunidade da Meta) que avaliou o conteúdo como uma possível violação da política de organizações e indivíduos perigosos e o enviou para análise humana. Um analista falante de urdu determinou que o conteúdo violava a política de organizações e indivíduos perigosos e a removeu no mesmo dia em que ela foi publicada. A Meta explicou a remoção como um “elogio” a uma organização designada. O Talibã é uma organização terrorista designada Nível 1 nos termos da política de organizações e indivíduos perigosos da Meta. Como resultado da violação, a Meta também aplicou tanto uma advertência severa quanto uma advertência padrão contra o administrador da página. Em geral, embora o conteúdo publicado nas páginas do Facebook parece vir da própria página (por exemplo, o veículo de notícias), ele é de autoria dos administradores de página com contas pessoais no Facebook. Após as advertências, a Meta impõe restrições temporárias à capacidade dos usuários de executar funções essenciais na plataforma (como compartilhar conteúdo), conhecidas como "limites de recursos", ou pode até desativar a conta. Advertências severas resultam em penalidades mais rígidas. Nesse caso, as advertências significaram a imposição de um limite de recursos de três dias e um limite adicional, mais longo, contra o administrador da página. O primeiro impedia o usuário de criar novos conteúdos públicos e de criar ou entrar em salas do Messenger. O último impedia que o usuário fizesse uma transmissão ao vivo no Facebook, usasse produtos de anúncios e criasse salas ou entrasse em salas do Messenger. Além disso, o próprio veículo de notícias também recebeu uma advertência padrão e uma advertência severa.
Em 21 de janeiro, o administrador da página do veículo de notícias ("o usuário") fez uma apelação quanto à remoção do conteúdo da Meta. O conteúdo foi revisado por outro analista falante de urdu que também considerou que o conteúdo violava o Padrão da Comunidade sobre organizações e indivíduos perigosos. Embora o conteúdo tenha sido colocado em uma fila para identificar e reverter erros "falsos positivos" (conteúdo erroneamente acionado por violar os Padrões da Comunidade), conhecida como Anulação de Falso Positivo de Alto Impacto (HIPO, pelas iniciais em inglês), ele não recebeu nenhuma análise adicional. De acordo com a Meta, o motivo disso foi o número de analistas falantes de urdu do sistema HIPO em meados de 2022 e porque o conteúdo, após a remoção, não recebeu uma pontuação de prioridade pelos sistemas automatizados da Meta tão alta quanto outros conteúdos da fila do HIPO naquela época.
Como resultado da seleção da apelação do usuário para a análise do Comitê, a Meta determinou que sua decisão original de remoção estava errada porque os Padrões da Comunidade permitem "noticiar" sobre as organizações e indivíduos designados. Em 25 de fevereiro de 2022, a Meta restaurou posteriormente o conteúdo. A Meta também removeu o limite de recursos mais longo que tinha imposto e reverteu as advertências contra a conta do administrador e a página.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos). De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 e 4 da Seção 4 do Estatuto .
4. Fontes de autoridade
O Comitê de Supervisão considerou as seguintes autoridades e padrões:
I. Decisões do Comitê de Supervisão:
As decisões anteriores mais importantes do Comitê de Supervisão incluem:
- “Publicação compartilhada da Al Jazeera” (Decisão sobre o caso 2021-009-FB-UA): O Comitê recomendou que a Meta fornecesse critérios e exemplos públicos no Padrão da Comunidade sobre organizações e indivíduos perigosos para as seguintes permissões à política: "discussão neutra"; "divulgação de notícias" e "condenação".
- “Isolamento do Öcalan” (Decisão sobre o caso 2021-006-IG-UA): O Comitê recomendou que a Meta esclarecesse nos Padrões da Comunidade públicos sobre organizações e indivíduos perigosos como os usuários podem deixar clara sua intenção ao publicar. Ele reiterou as recomendações para que a Meta divulgue a lista completa de indivíduos e organizações designadas ou uma lista ilustrativa. O Comitê também solicitou uma maior transparência na divulgação das taxas de erro para aplicar a proibição de elogios e apoio a indivíduos e organizações designados, com detalhamento por região e idioma.
- “Preocupação de Punjab com a RSS na Índia” (Decisão sobre o caso 2021-003-FB-UA): O Comitê recomendou que a Meta deveria tornar seus Padrões da Comunidade acessíveis em todos os idiomas amplamente falados por seus usuários. O Comitê também expressou preocupação com o fato de que as regras da Meta sobre as restrições estão espalhadas em muitos locais e nem todas são encontradas nos Padrões da Comunidade, como seria esperado.
- “Citação nazista” (Decisão sobre o caso 2020-005-FB-UA): O Comitê recomendou que a Meta forneça exemplos de "elogios", "apoio" e "representação" no Padrão da Comunidade sobre organizações e indivíduos perigosos.
II. Políticas de conteúdo da Meta:
Os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos determinam que o Facebook “não permite que organizações ou indivíduos que anunciem uma missão violenta ou estejam envolvidos com violência tenham presença no Facebook".
A Meta divide suas designações de entidades "perigosas" em três níveis, explicando que elas “indicam o nível de monitoramento do conteúdo, com o Nível 1 resultando no monitoramento mais extensivo, porque a Meta afirma que essas entidades têm laços mais diretos com os danos no meio físico”. As designações de Nível 1 são focadas em "entidades que se envolvem em sérios danos no meio físico", incluindo "organizações terroristas, de ódio e criminosas". A Meta remove “elogios”, “apoio substancial” e “representação” de entidades de Nível 1, bem como de seus líderes, fundadores ou membros proeminentes. A Meta designa o Talibã como uma entidade de Nível 1.
Os Padrões da Comunidade definem “elogio” como o seguinte: “falar positivamente sobre uma entidade ou evento designado”; “atribuir uma sensação de conquista a uma entidade ou um evento designado”; “legitimar a causa de uma entidade designada, alegando que sua conduta intolerante, violenta ou criminosa é legal, moral ou, de outra forma, justificada ou aceitável”; e “alinhar-se ideologicamente com uma entidade ou um evento designado”.
A Meta reconhece que os “usuários podem compartilhar conteúdo que inclui referências a organizações e indivíduos perigosos designados com a finalidade de denunciar, condenar ou discutir de forma neutra sobre eles ou suas atividades”. A Meta diz que suas políticas são projetadas para "dar espaço para esses tipos de discussão e, ao mesmo tempo, limitar os riscos de possíveis danos no meio físico". Entretanto, ela exige que "as pessoas indiquem claramente sua intenção ao criar ou compartilhar tal conteúdo. Se a intenção de um usuário for ambígua ou pouco clara, o conteúdo será removido por padrão".
III. Os valores da Meta:
O valor "Voz" é definido como "fundamental":
O objetivo de nossos Padrões da Comunidade é criar um lugar em que as pessoas possam se expressar e tenham voz. A Meta quer que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que seja sobre temas que gerem controvérsias e objeções.
O Facebook limita "Voz" com base em quatro valores. A “Segurança” é o mais importante neste caso:
Temos o compromisso de fazer do Facebook um lugar seguro. Removemos conteúdo que possa contribuir para o risco de danos à segurança física das pessoas. Conteúdo com ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
IV. Padrões internacionais dos direitos humanos:
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, pelas iniciais em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o seu compromisso com relação aos direitos humanos de acordo com os UNGPs. Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise que o Comitê fez das responsabilidades da Meta em termos de direitos humanos.
- O direito de liberdade de opinião e expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP). Comitê de Direitos Humanos, Comentário Geral N° 34 (2011); Conselho de Direitos Humanos, Resolução sobre a segurança de jornalistas, A/HRC/RES/45/18, (2020); Declaração de Brisbane da UNESCO sobre a Liberdade de Informação: o direito de saber; Relator Especial da ONU sobre a liberdade de opinião e expressão, A/74/486, 2019.
- O direito à educação: Artigo 12 do Pacto Internacional dos Direitos Econômicos, Sociais e Culturais; Artigo 10 da Convenção sobre a Eliminação de Todas as Formas de Discriminação Contra as Mulheres; Artigos 28 e 29 da Convenção sobre os Direitos da Criança; a Convenção da UNESCO sobre a Discriminação na Educação, 1960.
- Direito à não discriminação: Artigos 2 e 26 do PIDCP.
- Direito à vida: PIDCP Artigo 6; Comitê de Direitos Humanos, Comentário Geral N° 36, 2018.
- Direito à segurança das pessoas: O Artigo 9 do PIDCP; conforme interpretado pelo Comentário Geral N° 35, parágrafo 9, Comitê de Direitos Humanos, 2014.
5. Envios de usuário
Na declaração ao Comitê, o usuário afirmou que é representante de uma organização de mídia e não apoia o extremismo. Segundo o usuário, os artigos são baseados em fontes de mídia nacionais e internacionais, e o conteúdo em questão foi compartilhado para fornecer informações sobre a educação de meninas e mulheres no Afeganistão. Além disso, o usuário diz que sempre garante que o conteúdo que compartilha é do interesse público e é aceitável de acordo com os Padrões da Comunidade da Meta.
6. Envios da Meta
Ao reexaminar sua decisão original, a Meta decidiu que, neste caso, o conteúdo não deveria ter sido removido como elogio a uma organização designada de acordo com a política de organizações e indivíduos perigosos. A Meta explicou que o contexto subjacente das notícias implicava que o conteúdo deveria ter sido beneficiado da permissão da política para usuários divulgarem notícias sobre entidades designadas.
Além disso, a Meta explicou que a publicação e o artigo vinculado incluem informações sobre datas e detalhes da reabertura de escolas, que é uma questão de interesse público. De acordo com a Meta, a política sobre organizações e indivíduos perigosos permite a divulgação de notícias que mencionam entidades designadas. Para se beneficiar das permissões incorporadas na política correspondente, a Meta esclareceu que "exigimos que as pessoas indiquem claramente sua intenção". Se a intenção de um usuário for ambígua ou pouco clara, o conteúdo será removido por padrão". A Meta também explicou que prefere que seus analistas não infiram intenções, pois isso "ajuda a reduzir a subjetividade, o viés e a aplicação desigual durante a análise de conteúdo, mantendo a escalabilidade das nossas políticas".
A Meta informou ao Comitê que não conseguiu explicar por que dois analistas humanos removeram incorretamente o conteúdo e não aplicaram corretamente a permissão para divulgação de notícias. A empresa observou que os moderadores não são obrigados a documentar as razões da sua decisão além de classificar o conteúdo como parte de sua análise, neste caso, como uma violação da política da Meta sobre organizações e indivíduos perigosos por razão de “elogios”.
Em resposta ao questionamento do Comitê se “elogios” a organizações perigosas podem ser comunicados como parte de divulgação de notícias, a Meta declarou que sua política "permite a divulgação de notícias em que uma pessoa pode elogiar organizações e indivíduos perigosos".
Respondendo à pergunta do Comitê sobre a diferença entre advertências padrões e severas, a Meta explicou que o sistema de advertências contém duas linhas para a aplicação dos Padrões da Comunidade: uma que se aplica a todos os tipos de violação (padrões), e outra que se aplica às violações mais graves (severas). A Meta afirma que todas as violações da política sobre organizações e indivíduos perigosos são tratadas como severas. A empresa explicou ao Comitê que advertências severas são aquelas que aplicam penalidades mais severas contra danos mais graves e limitam o acesso a serviços de alto risco, como anúncios e vídeos do Facebook Live. A Meta também citou uma página na Central de Transparência sobre "Restrição de contas" (atualizada em 11 de fevereiro de 2022) que explica a abordagem dela às advertências.
Em resposta às perguntas do Comitê, a Meta forneceu mais explicações sobre seus sistemas de correção de erros de aplicação e como eles tiveram impacto nesse caso, levando ao Comitê fazer várias perguntas de acompanhamento. O conteúdo neste caso foi automaticamente detectado e enviado para um canal de Anulação de Falso Positivo de Alto Impacto (chamado de HIPO pela Meta). Este é um sistema projetado para corrigir potenciais falsos positivos após uma ação ser tomada sobre o conteúdo. A Meta esclareceu ao Comitê que esse sistema faz contraste com o sistema de Análise Secundária Geral (parte do programa de verificação cruzada), que é projetado para prevenir falsos positivos antes de medidas sobre o conteúdo serem tomadas. O conteúdo enviado para o canal do HIPO entra em uma fila para análise adicional, o que ocorrerá dentro da capacidade permitida. A posição do conteúdo na fila depende de uma pontuação de prioridade atribuída automaticamente. A Meta explicou que o conteúdo é priorizado para a análise do HIPO com base em fatores que incluem: sensibilidade do tópico (se um tópico está em alta ou é sensível); probabilidade de falso positivo; alcance previsto (o número estimado de visualizações que o conteúdo pode obter); e sensibilidade da entidade (a identidade do grupo ou do usuário que compartilha o conteúdo). A Meta explicou que o conteúdo pode ser restaurado de duas maneiras: ou o conteúdo específico é analisado por moderadores e considerado não violador; ou os sistemas automatizados da Meta descobrem que o conteúdo é semelhante a outros conteúdos que foram revisados e determinados como não violadores.
A página do veículo de notícias foi previamente sujeita à verificação cruzada, mas, por causa de uma atualização geral do sistema desse tipo de verificação, ela não passou por esse processo quando o conteúdo do caso foi analisado. Logo, a verificação cruzada não teve impacto na análise do conteúdo do caso. De acordo com a Meta, a verificação cruzada agora inclui dois sistemas: A Análise Secundária Geral se aplica a todo o conteúdo orgânico no Facebook e Instagram; A Análise Secundária de Resposta Inicial aplica-se a todos os conteúdos postados por entidades específicas listadas, incluindo alguns veículos de notícias. A Meta afirmou que, quando o conteúdo dessas entidades específicas é identificado como uma violação de uma política, ele é enviado para análise adicional. Primeiro, é enviado para a Equipe de Mercados da Meta. Se um analista dessa equipe determinar que o conteúdo não é violador, o processo será encerrado e o conteúdo permanecerá na plataforma. Caso contrário, o conteúdo é encaminhado para outra equipe. Essa equipe, a Equipe de Resposta Antecipada, é composta por analistas de conteúdo especializados da Meta. Um membro dessa equipe precisaria determinar que o conteúdo viola as políticas para que ele possa ser removido.
No momento em que o conteúdo do caso foi identificado como violador, a página do veículo de notícias não estava na lista de Análise Secundária de Resposta Inicial no atual sistema de verificação cruzada. Além disso, o conteúdo do caso em questão não foi analisado como parte do sistema de Análise Geral Secundária, o que também envolveria uma análise adicional antes da aplicação. De acordo com a Meta, o conteúdo foi enviado ao canal do HIPO após ter sido removido, mas não foi priorizado para análise humana. Ele não passou por uma análise humana adicional "devido à capacidade alocada ao mercado" e porque o conteúdo deste caso não recebeu dos sistemas automatizados da Meta uma pontuação de prioridade tão alta quanto outros conteúdos presentes na fila do HIPO naquele momento. O conteúdo priorizado pelo HIPO só é analisado por analistas terceirizados após uma ação de aplicação ser tomada. A Meta aloca analistas do idioma urdu a diferentes fluxos de trabalho de acordo com a necessidade. Esses analistas participam de vários tipos de análise, o que significa que não são dedicados a um único fluxo de trabalho. Em meados de 2022, o fluxo de trabalho do HIPO da Meta tinha menos de 50 analistas falantes de urdu com base na necessidade do momento.
O Comitê fez 34 perguntas à Meta. A Meta respondeu totalmente a 30 delas, parcialmente a três e se recusou a responder a uma. As respostas parciais foram concedidas para perguntas sobre: a porcentagem de remoções segundo a política sobre organizações e indivíduos perigosos que são restauradas após a apelação ou a segunda análise; as taxas de precisão para aplicar as proibições relacionadas a elogios e apoio em uma análise; e como Meta determina a intenção para aplicar a permissão para divulgação de informações e fatores contextuais aplicáveis. A Meta não respondeu uma das perguntas sobre o volume de conteúdo relacionado a organizações e indivíduos perigosos que é removido pelos sistemas automatizados e por meio de análise humana, com o argumento de que não foi possível verificar os dados solicitados em tempo hábil.
7. Comentários públicos
O Comitê de Supervisão recebeu e examinou seis comentários públicos relacionados a este caso. Um dos comentários foi enviado da Ásia Pacífico e Oceania, quatro da Europa e um dos Estados Unidos e Canadá.
Os envios falavam sobre a importância do acesso às redes sociais para as pessoas que vivem no Afeganistão ou perto dele, preocupações sobre as limitações na discussão sobre os grupos designados e o interesse público em permitir uma gama mais ampla de reportagens da mídia sobre as ações do Talibã. Vários comentários públicos argumentaram que o uso dos termos vagos “elogios” e “apoio” na política de organizações e indivíduos perigosos da Meta pode suprimir a discussão política crítica e afetar desproporcionalmente as comunidades minoritárias e o hemisfério sul do mundo. Comentários públicos também criticaram a Meta por usar a lei dos EUA como uma "desculpa" para proibir "elogios" de grupos designados, em vez de deixar claro que é uma escolha política de Meta restringir a expressão mais do que a lei dos EUA exige.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8. Análise do Comitê de Supervisão
Este caso é significativo porque mostra que a falta de clareza na definição de “elogios” parece estar resultando em incerteza entre os analistas e usuários. Também destaca questões de moderação de conteúdo, pois se aplica a conflito e discriminação de gênero. Esse caso é difícil porque existe um interesse em evitar que os grupos terroristas ou seus apoiadores usem as plataformas para fins de propaganda e recrutamento. Entretanto, esse interesse, quando aplicado de forma muito ampla, pode levar à censura de conteúdos que noticiem sobre esses grupos. O Comitê examinou se o conteúdo deveria ser restaurado e as implicações mais amplas da abordagem da Meta à moderação de conteúdo por meio de três perspectivas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades em relação aos direitos humanos.
8.1 Conformidade com as políticas de conteúdo da Meta
I. Regras sobre conteúdo
O Comitê conclui que o conteúdo se enquadra na permissão que diz que "os usuários podem compartilhar conteúdo que inclui referências a organizações perigosas designadas (...) para noticiar (...) sobre elas ou suas atividades" e, portanto, não está em violação. Apesar da definição ampla de “elogios” fornecida nos Padrões da Comunidade disponíveis ao público, o conteúdo não viola a política, mesmo que possa ser entendido como um elogio de uma ação de uma entidade designada, o Talibã, e que possa dar a ela "uma sensação de conquista". O Comitê observa que a interpretação de “elogios” é ainda mais vaga nas diretrizes de Perguntas Conhecidas disponíveis aos moderadores. Elas instruem os analistas a remover o conteúdo devido a “elogio” se ele "fizer com que as pessoas vejam de forma mais positiva" um grupo designado, tornando o significado de "elogio" menos ligado à intenção do orador e mais ligado aos efeitos no público. Noticiar sobre as supostas intenções de uma entidade designada de permitir o acesso de mulheres e meninas à educação, por mais duvidosas que fossem essas alegações, faria com que as pessoas vissem esse grupo de forma mais positiva. Dadas as instruções, o Comitê entende por que dois analistas humanos interpretariam erroneamente o conteúdo como um “elogio”.
O Comitê aceita a intenção da Meta de dar espaço nos Padrões da Comunidade sobre organizações e indivíduos perigosos para notícias sobre entidades designadas como perigosas pela empresa, mesmo que as notícias também se encaixem na definição de “elogio”. Entretanto, o Comitê não considera que a linguagem dos Padrões da Comunidade ou das Perguntas Conhecidas esclareça essa definição. De fato, sem especificação, o termo “elogio” continua vago. Os Padrões da Comunidade não fornecem nenhum exemplo do que constituiria uma reportagem de notícias aceitável. Também não há nenhuma orientação interna para os moderadores sobre como interpretar essa permissão.
II. Ação de aplicação
O Comitê observa que, neste caso, a ação da moderação ocorreu depois que um usuário começou o processo de denúncia de conteúdo, mas nunca o concluiu. Um sistema automatizado é acionado quando esse processo é iniciado, mesmo que o usuário não conclua a denúncia. Por isso, o conteúdo foi enviado para análise humana. O usuário denunciante não foi informado de que a ação dele poderia desencadear consequências mesmo que decidisse não concluir a denúncia. Ele só seria avisado se a concluísse e a enviasse. A Meta argumenta nas respostas que a "denúncia automatizada não está vinculada ao usuário [denunciante]", mas o Comitê considera essa informação importante uma vez que o processo deste caso começou após um usuário iniciar a denúncia. Além disso, o Comitê está preocupado que o botão de denúncia não fornece aos usuários informações suficientes sobre as consequências de clicar nele.
As ações de aplicação realizadas neste caso (remoção do conteúdo, advertências e limitações de recursos) não deveriam ter sido impostas, pois não houve violação subjacente dos Padrões da Comunidade. O Comitê também está preocupado com a ineficácia dos sistemas da Meta para evitar erros de aplicação desse tipo, particularmente dada a gravidade das sanções impostas.
O Comitê observa, neste caso, que a página do veículo de notícias foi previamente sujeita à verificação cruzada, mas, por causa de uma atualização geral do sistema desse tipo de verificação, ela não passou por verificação cruzada quando o conteúdo do caso foi analisado, e, portanto, ela não teve impacto na análise do conteúdo. No atual sistema de verificação cruzada da Meta, uma análise humana secundária é garantida aos usuários na Lista de Análise Secundária de Resposta Inicial. Embora algumas Páginas do Facebook de alguns veículos de notícias estejam nessa lista, esta página específica não está. Estar em uma Lista de Análise Secundária de Resposta Inicial também garante que os funcionários da Meta, e não os analistas em escala façam a análise do conteúdo antes que seja removido. O Comitê considera improvável que esse conteúdo tivesse sido removido se a página estivesse na Lista de Análise Secundária de Resposta Inicial.
Ainda, o Comitê elogia a Meta pela introdução do sistema HIPO, mas está preocupado com o fato de não ter sido feita uma análise secundária de uma publicação que estava em conformidade com os Padrões da Comunidade da Meta. O conteúdo neste caso não passou por uma análise humana adicional "devido à capacidade alocada ao mercado" e porque ele não recebeu dos sistemas automatizados da Meta uma pontuação de prioridade tão alta quanto outros conteúdos presentes na fila do HIPO daquele momento. Dada a natureza de interesse público da notícia neste caso e a identificação da página que publicou o conteúdo como um veículo de notícias, a pontuação deveria ter sido alta o suficiente para que uma análise adicional tivesse sido feita. Como explicado pela Meta, o fator "sensibilidade da entidade" leva em conta a identidade da entidade que publica o conteúdo e, assim, veículos de notícias podem ter uma pontuação mais alta, especialmente aqueles que noticiam eventos mundiais significativos. Pelas mesmas razões, o Comitê está preocupado com o fato de haver apenas 50 analistas para a fila do idioma urdu em meados de 2022. O Comitê também pontua que, devido ao tamanho do mercado da Índia, ao número de grupos designados pela Meta como perigosos naquela região e à importância ainda maior de vozes independentes, a empresa precisa investir ainda mais na correção (e, idealmente, na prevenção) de erros em questões tão importantes.
8.2 Conformidade com os valores da Meta
Conteúdo contendo elogios a grupos perigosos pode ameaçar a "Segurança" dos usuários da Meta e de terceiros devido à relação com a violência no meio físico e seu potencial para "intimidar, excluir ou silenciar outras pessoas". Entretanto, não há nenhuma questão de segurança significativa neste caso, pois o conteúdo apenas informa sobre o comunicado de uma organização designada. O valor "Voz" é particularmente importante para os veículos de notícias, pois eles fornecem informações essenciais ao público e desempenham um papel crucial na responsabilização de governos. A remoção do conteúdo neste caso não contribuiu materialmente para a "Segurança" e foi uma restrição desnecessária do valor “Voz.”.
8.3 Conformidade com as responsabilidades sobre direitos humanos da Meta
O Comitê conclui que a remoção do conteúdo da plataforma foi inconsistente com as responsabilidades da Meta em relação aos direitos humanos e que a Meta deveria ter sistemas mais eficazes para prevenir e corrigir tais erros. O cumprimento pela Meta das próprias responsabilidades de direitos humanos é particularmente importante no contexto de crise ou conflito. Após a tomada forçada de um governo por um grupo conhecido por abusos dos direitos humanos e dada a importância de informar o público sobre os atos de tais grupos designados, a empresa deve estar particularmente atenta para proteger a divulgação de notícias sobre esse grupo.
Liberdade de expressão (Artigo 19 do PIDCP)
O Artigo 19 do PIDCP prevê a proteção do direito à liberdade de expressão e abrange o direito de todos os indivíduos de transmitir e receber informações. O direito internacional dos direitos humanos destaca especialmente o valor do jornalismo em disponibilizar informações de interesse público. O Comitê de Direitos Humanos da ONU declarou que "ter uma imprensa ou outros meios de comunicação livres, sem censura e sem obstáculos é essencial em qualquer sociedade para garantir a liberdade de opinião e expressão e o gozo de outros direitos do Pacto" (Comentário Geral Nº 34, parágrafo 13). As plataformas de redes sociais como o Facebook se tornaram um veículo para transmitir notícias de jornalistas em todo o mundo, e a Meta reconheceu, na sua política corporativa de direitos humanos, as responsabilidades da empresa perante os jornalistas e defensores dos direitos humanos.
O direito à liberdade de expressão abrange a capacidade dos usuários da Meta de acessar informações sobre eventos de interesse público no Afeganistão, especialmente quando um grupo perigoso designado removeu à força o governo reconhecido. É essencial que os usuários, incluindo comentaristas sobre o Afeganistão localizados dentro e fora do país, e o público em geral tenham acesso a notícias em tempo real sobre a situação no país. A abordagem do Talibã à liberdade de imprensa no país torna o papel das reportagens internacionais ainda mais importante. A informação neste caso seria essencial para as pessoas que se preocupam com o direito das meninas e das mulheres à igualdade de acesso à educação. Esse continua sendo o caso, mesmo quando o Talibã não cumpre os compromissos.
O Artigo 19, parágrafo 3 do PIDCP, conforme interpretado pelo Comitê de Direitos Humanos no Comentário Geral Nº 34, afirma que as restrições à expressão impostas por um estado devem atender às exigências de legalidade, objetivo legítimo, necessidade e proporcionalidade. O Comitê aplica esses padrões internacionais para avaliar se a Meta cumpriu com suas responsabilidades em matéria de direitos humanos.
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as leis usadas pelos Estados para limitar a expressão sejam claras e acessíveis para que as pessoas entendam o que é permitido e o que não é. Além disso, ele exige que as leis que restringem a expressão sejam específicas, de modo a garantir que os encarregados de sua aplicação não tenham discricionariedade (Comentário Geral 34, parágrafo 25). O Comitê de Direitos Humanos advertiu que "delitos de elogiar, glorificar ou justificar o terrorismo” devem ser claramente definidos para garantir que não levem a interferências desnecessárias ou desproporcionais na liberdade de expressão. Restrições excessivas ao acesso à informação também devem ser evitadas". (Comentário Geral Nº 34, parágrafo 46; consulte também: Relator Especial da ONU sobre a luta contra o terrorismo e os direitos humanos nos parágrafos 36 e 37 (Relatório A/HRC/40/52)).
Seguindo sua abordagem em casos anteriores, o Comitê aplica esses princípios às regras de conteúdo da Meta. Embora o Comitê reconheça que as políticas da Meta sobre organizações e indivíduos perigosos contenham mais detalhes agora do que quando ele emitiu suas primeiras recomendações sobre esse tópico, sérias preocupações permanecem.
Para os usuários que fazem reportagens sobre o Talibã, não está claro se ele continua sendo uma entidade perigosa designada quando removeu à força o governo reconhecido do Afeganistão. O Comitê recomendou anteriormente que a Meta divulgasse uma lista completa ou ilustrativa de entidades designadas para esclarecer a questão aos usuários (casos "Citação nazista" e "Isolamento de Öcalan"). O Comitê lamenta a falta de progressos quanto a essa recomendação e observa que, embora a empresa não tenha divulgado essas informações de forma proativa, os denunciantes e jornalistas têm procurado informar o público divulgando uma versão da lista “secreta”.
Como observado anteriormente nessa decisão (ver seção 8.1), a definição de "elogio" nos Padrões da Comunidade voltados para o público como "falar positivamente sobre" uma entidade designada é muito vaga. Para as pessoas que trabalham com divulgação de notícias, não está claro como essa regra se relaciona à permissão para divulgação de reportagens incorporada na mesma política. De acordo com Meta, essa permissão autoriza a divulgação de notícias mesmo quando um usuário elogia a entidade designada na mesma publicação. O Comitê conclui que a relação entre a permissão de "divulgação de notícias" na política de organizações e indivíduos perigosos e a permissão global para conteúdo de interesse jornalístico permanece pouco clara para os usuários. No caso “Publicação compartilhada da Al Jazeera”, o Comitê recomendou que a Meta fornecesse critérios e exemplos ilustrativos nos Padrões da Comunidade sobre o que constitui divulgação de notícias. A Meta respondeu no relatório de implementação do 1º trimestre de 2022 que estava trabalhando com várias equipes internamente para desenvolver critérios que ajudariam os usuários a entender o que constitui divulgação de notícias. Ela disse que espera concluir esse processo até o 4º trimestre de 2022.
O Comitê continua preocupado com o fato de que as mudanças nos Padrões da Comunidade relevantes não sejam traduzidas para todos os idiomas disponíveis e que haja inconsistências entre eles. Seguindo a decisão do Comitê para o caso "Publicação compartilhada da Al Jazeera", a versão em inglês dos EUA da política sobre organizações e indivíduos perigosos foi alterada em dezembro de 2021, mudando a frase "podemos remover o conteúdo” para “removeremos o conteúdo por padrão” quando as intenções de um usuário não estivessem claras. Entretanto, outras versões dos Padrões da Comunidade, inclusive em urdu e inglês britânico, não refletem essa mudança. Embora a empresa tenha declarado publicamente em resposta às recomendações anteriores do Comitê (Atualização trimestral do 4º trimestre de 2021 sobre o Comitê de Supervisão da Meta) que pretende completar as traduções para todos os idiomas disponíveis dentro de quatro a seis semanas, parece que a linha da política relevante para este caso não foi completada após cinco meses. Portanto, a política não está igualmente acessível a todos os usuários, dificultando que eles entendam o que é permitido e o que não é.
O Comitê também está preocupado com o fato de a Meta não ter esclarecido aos usuários como funciona o sistema de advertências. Embora uma página em "Restrição de contas" na Central de Transparência da Meta contenha alguns detalhes, ela não lista de forma abrangente as limitações de recursos que a empresa pode aplicar e a duração delas. Também não menciona os "períodos de tempo definidos" para as advertências severas, assim como faz para as advertências normais. Isso é especialmente preocupante porque as advertências severas acarretam penalidades mais significativas e não existe nenhum mecanismo para fazer uma apelação para as sanções no nível de conta separadamente da decisão quanto ao conteúdo. Mesmo quando o conteúdo é restaurado, nem sempre as limitações de recursos podem ser totalmente revertidas. Neste caso, por exemplo, o usuário já havia enfrentado vários dias de limitação de recursos que não foram totalmente retificados quando a Meta reverteu sua decisão.
O fato de dois falantes de urdu terem avaliado esse conteúdo como violador indica ainda mais que a proibição de “elogios” e sua relação com as permissões de divulgação de informações não são claras para os responsáveis por fazer cumprir as regras. Os analistas de conteúdo recebem orientação interna sobre como interpretar as regras (as Perguntas Conhecidas e os Padrões de Implementação). O documento de Perguntas Conhecidas define “elogios” como conteúdo que "faz com que as pessoas vejam de forma mais positiva" um grupo designado. Isso é indiscutivelmente mais vago do que a definição nos Padrões da Comunidade voltados ao público, tornando o significado de "elogio" menos sobre a intenção do orador, mas mais sobre os efeitos no público. Além disso, nem os Padrões da Comunidade nem o documento de Perguntas Conhecidas restringem a discrição do analista quanto à restrição da liberdade de expressão. As definições do dicionário padrão de “elogios” não são tão amplas, e, da forma em que está formulada, a regra inclui declarações de fatos, incluindo declarações jornalísticas imparciais e opiniões. Em resposta às perguntas do Comitê, a Meta esclareceu que a permissão de divulgação de informações permite que qualquer um, e não apenas jornalistas, falem positivamente sobre uma organização designada no contexto informativo. No entanto, essa clareza não é transmitida aos analistas nas diretrizes internas. A Meta admite que essa diretriz não disponibiliza a eles uma definição de como interpretar "divulgação de informações".
II. Objetivo legítimo
O Comitê de Supervisão já reconheceu anteriormente que a política de organizações e indivíduos perigosos busca proteger os direitos das pessoas, incluindo o direito à vida, à segurança e à igualdade e não discriminação (Artigo 19, parágrafo 3 do PIDCP, decisão do Comitê de Supervisão "Questão de Punjab com a RSS na Índia"). O Comitê reconhece ainda que a propaganda de entidades designadas, inclusive por meio de representantes que se apresentam como mídia independente, pode representar riscos de danos aos direitos de terceiros. Mitigar esses danos por meio desta política é um objetivo legítimo.
III. Necessidade e proporcionalidade
Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido” (Comentário geral n.º 34, parágrafo 34). A Meta reconheceu que a remoção de conteúdo neste caso não era necessária, e, portanto, sanções adicionais não deveriam ter sido impostas ao usuário.
O Comitê entende que, ao moderar o conteúdo em grande escala, serão cometidos erros. Entretanto, o Comitê recebe reclamações sobre erros na aplicação da política de organizações e indivíduos perigosos que afetam a divulgação de informações, particularmente em outros idiomas além do inglês, o que levanta sérias preocupações (ver decisão "Compartilhamento de publicação da Al Jazeera", "Isolamento do Öcalan"). O Comitê de Direitos Humanos da ONU enfatizou que "a mídia desempenha um papel crucial na informação ao público sobre atos de terrorismo e sua capacidade de operar não deve ser indevidamente restringida. Sendo assim, os jornalistas não devem ser penalizados por realizarem suas atividades legítimas" (Comentário Geral 34, parágrafo 46). A Meta, portanto, tem a responsabilidade de prevenir e mitigar o impacto negativo das suas plataformas sobre os direitos humanos na divulgação de notícias.
O Comitê está preocupado que o tipo de erro de aplicação neste caso possa ser indicativo de falhas mais amplas a este respeito. As pessoas envolvidas em comentários regulares sobre as atividades de organizações e indivíduos perigosos de Nível 1 enfrentam riscos maiores de erros de aplicação que levam suas contas a enfrentar severas sanções. Isso pode minar seu sustento financeiro e negar ao público o acesso à informação em momentos importantes. O Comitê preocupa-se que a política de remover conteúdo por padrão quando a intenção de noticiar sobre entidades perigosas não é claramente indicada pelo usuário pode estar levando à remoção excessiva de conteúdo não violento, mesmo quando as indicações contextuais deixam claro que o objetivo da publicação é noticiar. Além disso, o sistema de prevenção e correção de erros não beneficiou este usuário como deveria. Isso indica problemas de como o classificador dentro do sistema HIPO priorizou a decisão de conteúdo para análise adicional, ou seja, ele nunca chegou à frente na fila. Também levanta questões como os recursos alocados para a análise humana da fila do HIPO são insuficientes para o conteúdo de idioma urdu. Neste caso, o erro de aplicação da lei e a falha em corrigi-lo negaram a vários usuários do Facebook o acesso às informações sobre assuntos de importância global e dificultaram para um veículo de notícias cumprir com sua função jornalística de informar o público.
Os jornalistas podem fazer reportagens de notícias sobre eventos de uma forma imparcial que evite o tipo de condenação explícita que os analistas procuram. Para evitar remoções de conteúdo e sanções de contas, os jornalistas podem praticar autocensura, podendo até mesmo ser incentivados a se afastar de suas responsabilidades profissionais éticas. Além disso, tem havido relatos de usuários anti-Talibã no Facebook evitando mencionar essa organização em publicações porque têm receio de serem sujeitos a sanções errôneas.
O Comitê também observa que Meta emitiu o que chama de exceções ao "espírito da política" em relação ao Talibã. Isso indica que a Meta reconhece que, às vezes, sua abordagem sob a política de organizações e indivíduos perigosos está produzindo resultados inconsistentes com os objetivos da política e, portanto, não atendem ao requisito de necessidade. Os materiais internos da empresa obtidos pelos jornalistas revelam que, em setembro de 2021, a empresa criou uma exceção "para permitir conteúdo compartilhado pelo Ministério do Interior [do Afeganistão]" relacionado a assuntos como novas regras de trânsito e “para permitir duas publicações específicas do Ministério da Saúde em relação à COVID-19”. Outras exceções foram mais direcionadas e de curtíssimo prazo. Durante 12 dias, em agosto de 2021, "figuras governamentais" puderam reconhecer o Talibã como o "governo oficial do Afeganistão [sic]" sem correr o risco de sanções de contas. Entre fim de agosto de 2021 e 3 de setembro, os usuários puderam "publicar as declarações públicas do Talibã sem ter que 'discutir de forma neutra, denunciar ou condenar' essas declarações". Os porta-vozes da Meta reconheceram que algumas exceções ad hoc foram feitas. Em um Fórum de Políticas sobre o Protocolo de Política de Crise, em 25 de janeiro de 2022, a Meta afirmou que implantará "alavancas políticas" em situações de crise e forneceu o exemplo de permitir "elogios a uma organização designada específica (por exemplo, um grupo guerrilheiro assinando um tratado de paz)". Essas exceções à proibição geral de elogios podem causar mais incerteza para os analistas, bem como para os usuários que podem não estar cientes se ou quando uma exceção se aplica. Elas mostram que há situações em que a Meta reconheceu que se justifica uma abordagem diferenciada ao conteúdo ao lidar com uma entidade designada que derruba um governo legítimo e assume o controle territorial.
O Comitê considera que a remoção do conteúdo da plataforma é uma medida desnecessária e desproporcional. O volume desses erros de aplicação, seus efeitos na atividade jornalística e a falha dos sistemas de prevenção de erros da Meta contribuíram para essa conclusão.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
10. Declaração de parecer consultivo
Política de conteúdo
1. A Meta deve investigar por que as mudanças de dezembro de 2021 na política de organizações e indivíduos perigosos não foram atualizadas no prazo de seis semanas e garantir que tais atrasos ou omissões não se repitam. O Comitê pede à Meta que informe dentro de 60 dias sobre as conclusões da investigação e as medidas que ela adotou para evitar atrasos de tradução no futuro.
2. A Meta deve tornar a explicação pública do sistema de advertências de duas linhas mais abrangente e acessível, especialmente para as "advertências severas". Ela deve incluir todas as violações de política que resultam em advertências severas, devido aos quais os recursos da conta podem ser limitados, e especificar as durações aplicáveis. As políticas que resultam em advertências severas também devem ser claramente identificadas nos Padrões da Comunidade, contendo um link para a explicação "Restrição de contas" do sistema de advertências. O Comitê pede à Meta que informe, em até 60 dias, a atualização da explicação sobre o sistema de advertências na Central de Transparência e a inclusão dos links para essa explicação em todas as políticas de conteúdo que resultem em advertências severas.
Monitoramento
3. A Meta deve especificar a definição de "elogio" nas diretrizes de Perguntas Conhecidas para analistas, removendo o exemplo de conteúdo que "procura fazer com que outros pensem de forma mais positiva sobre" uma entidade designada, atribuindo a ela valores positivos ou endossando suas ações. O Comitê pede à Meta que forneça, dentro de 60 dias, a versão completa do documento atualizado de Perguntas Conhecidas relacionadas a organizações e indivíduos perigosos.
4. A Meta deve revisar seus Padrões de Implementação internos para deixar claro que a permissão de "divulgação de informações" na política de organizações de indivíduos perigosos autoriza declarações positivas sobre entidades designadas como parte de notícias e como distinguir isso de "elogios" proibidos. O documento de Perguntas Conhecidas deve ser ampliado para esclarecer a importância da divulgação de notícias em situações de conflito ou crise e fornecer exemplos relevantes, destacando que isso pode incluir declarações positivas sobre entidades designadas, como a reportagem sobre o Talibã, neste caso. O Comitê pede à Meta que o envie os Padrões de Implementação atualizados dentro de 60 dias.
5. A Meta deve avaliar a precisão dos analistas que aplicam a permissão para “divulgação de informações” de acordo com a política de organizações e indivíduos perigosos a fim de identificar questões sistêmicas que causam erros de aplicação. O Comitê pede que a Meta informe, em até 60 dias, os resultados detalhados da sua análise desta avaliação ou das avaliações de precisão que a Meta já conduz em relação à política de organizações e indivíduos perigosos, incluindo como eles levarão a melhorias nas operações de monitoramento, inclusive para o HIPO.
6. A Meta deve conduzir uma análise do classificador do HIPO para examinar se ele pode priorizar de forma mais eficiente os erros potenciais na aplicação das permissões para a política de organizações e indivíduos perigosos. Essa análise deve examinar se o classificador do HIPO precisa ser mais sensível ao conteúdo de divulgação de notícias, cuja probabilidade de remoções falso-positivas que impactam a liberdade de expressão parece ser alta. O Comitê pede à Meta que informe, em até 60 dias, os resultados de sua análise e as melhorias que fará para evitar erros desse tipo no futuro.
7. A Meta deve aumentar a capacidade alocada à revisão do HIPO nos vários idiomas para garantir que mais decisões de conteúdo que possam ser erros de aplicação recebam análise humana adicional. O Comitê pede à Meta que informe, em até 60 dias, os aumentos de capacidade planejados.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. O Comitê foi auxiliado por um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas