Anulado
Educação de meninas no Afeganistão
Um usuário apelou da decisão da Meta de remover uma publicação do Facebook que discutia a importância da educação de meninas no Afeganistão.
Esta é uma decisão sumária. As decisões sumárias examinam os casos em que a Meta reverteu a decisão original dela sobre um conteúdo depois que o Comitê o levou à atenção da empresa. Essas decisões incluem informações sobre os erros reconhecidos da Meta e são aprovadas por um painel de Membros do Comitê, não pelo Comitê inteiro. Elas não envolvem um processo de comentários públicos e não têm valor precedente para o Comitê. As decisões sumárias dão transparência às correções da Meta e destacam áreas em que a empresa poderia melhorar a aplicação de suas políticas.
Resumo do caso
Um usuário apelou da decisão da Meta de remover uma publicação do Facebook que discutia a importância da educação de meninas no Afeganistão. Esse caso destaca um erro na aplicação, por parte da empresa, da Política sobre Organizações e Indivíduos Perigosos. Depois que o Comitê levou a apelação à atenção da Meta, a empresa reverteu a decisão original e restaurou a publicação.
Descrição do caso e histórico
Em julho de 2023, um usuário do Facebook no Afeganistão publicou um texto em pachto descrevendo a importância da educação de meninas no país. O usuário pediu que as pessoas continuassem expressando suas preocupações e destacou as consequências de não levar essas preocupações ao conhecimento do Talibã. Além disso, o usuário afirma que impedir o acesso das meninas à educação será uma perda para a nação.
A Meta removeu originalmente a publicação do Facebook, citando sua Política sobre Organizações e Indivíduos Perigosos, na qual se baseia para remover conteúdo que “elogia, apoia substancialmente ou representa” indivíduos e organizações que a empresa designa como perigosos, incluindo o Talibã. A política permite conteúdo que discuta uma organização ou indivíduo perigoso de forma neutra ou que condene suas ações.
Depois que o Comitê trouxe esse caso à atenção da Meta, a empresa determinou que o conteúdo não violava a Política sobre Organizações e Indivíduos Perigosos e que a remoção da publicação estava incorreta. A empresa então restaurou o conteúdo.
Autoridade e escopo do Comitê
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
Quando a Meta reconhece que cometeu um erro e reverte a decisão em um caso sob consideração para análise do Comitê, ele pode selecionar esse caso para uma decisão sumária (Artigo 2, Seção 2.1.3 dos Regulamentos Internos). O Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo envolvido, reduzir erros e aumentar a justiça para os usuários do Facebook e do Instagram.
Significância do caso
Esse caso destaca erros na aplicação da Política sobre Organizações e Indivíduos Perigosos da Meta, o que pode ter um impacto negativo na capacidade dos usuários de compartilhar comentários políticos nas plataformas da Meta. Neste caso, tratava-se especificamente de uma discussão sobre a educação das mulheres no Afeganistão após a tomada do controle pelo Talibã.
Em um caso anterior, o Comitê recomendou que a Meta "adicionasse critérios e exemplos ilustrativos à sua Política sobre Organizações e Indivíduos Perigosos para aumentar a compreensão das exceções para discussões neutras, condenações e reportagens" (Decisão sobre a publicação compartilhada da AI Jazeera, recomendação nº 1). A Meta informou, em sua atualização trimestral do 2º trimestre de 2023, que essa recomendação foi totalmente implementada. Além disso, o Comitê recomendou que a Meta “implemente um procedimento de auditoria interna para analisar continuamente uma amostra estatisticamente representativa de decisões automatizadas de remoção de conteúdo para reverter e aprender com os erros de aplicação” (Decisão sobre sintomas de câncer de mama e nudez, recomendação n.º 5). A Meta informou que está implementando essa recomendação, mas não publicou informações que demonstrem a implementação.
Decisão
O Comitê revoga a decisão original da Meta de remover o conteúdo. Além disso, após levar o caso ao conhecimento da empresa, ele reconhece que ela corrigiu o erro inicial. O Comitê também pede à Meta que acelere a implementação das recomendações ainda em aberto para reduzir esses erros.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas