O Comitê de Supervisão publica o relatório de transparência do terceiro trimestre de 2021
9 de Dezembro de 2021
Em 28 de outubro de 2021, o Facebook anunciou que mudaria o nome da empresa para Meta. Neste texto, Meta refere-se à empresa, e Facebook continua a se referir ao produto e às políticas associadas ao aplicativo específico.
Hoje, estamos emitindo um relatório de transparência sobre o terceiro trimestre de 2021.
Como parte do compromisso do Comitê de Supervisão com a transparência em nosso trabalho, todo trimestre, compartilhamos detalhes sobre os casos que recebemos dos usuários, as decisões que tomamos e as nossas recomendações para a Meta. Nossos primeiros relatórios de transparência, divulgados em outubro deste ano, incluem o último trimestre de 2020 e os dois primeiros de 2021.
De acordo com o relatório, no terceiro trimestre de 2021 (de 1º de julho a 30 de setembro), o volume de apelações feitas por usuários do Facebook e do Instagram ao redor do mundo aumentou de forma exponencial, com cerca de 339 mil casos enviados ao Comitê.
Ao longo do terceiro trimestre, o Comitê publicou seis decisões, que envolvem desde manifestações políticas ao confinamento devido à pandemia de COVID-19. Em quatro dessas decisões, o Comitê anulou o parecer da Meta sobre o conteúdo, enquanto nós o mantivemos duas vezes.
Como parte do processo de decisão, recebemos mais de 100 comentários públicos. Nessas seis decisões, emitimos 25 recomendações de políticas, das quais a Meta se comprometeu a implementar a maioria.
Destaques do relatório de transparência do terceiro trimestre do Comitê
1. O número de casos enviados ao Comitê cresceu de forma significativa
De julho a setembro, estimamos que os usuários enviaram cerca de 339 mil casos ao Comitê. Isso representa um crescimento de 64% em relação ao segundo trimestre do mesmo ano, que registrou 207 mil casos enviados.
As melhorias feitas no aplicativo para celular do Facebook com relação a como os usuários podem fazer apelações, bem como o crescente perfil do Comitê, podem ter contribuído para esse aumento. Desde que o Comitê começou a aceitar casos em outubro, recebemos mais de 860 mil solicitações de usuários para investigar decisões da Meta sobre a moderação de conteúdos.
2. Aumento nos casos relacionados a violência e incitação
De julho a setembro, os usuários que solicitaram a restauração de conteúdos fizeram apelações principalmente relacionadas às regras do Facebook sobre bullying e assédio (34%), violência e incitação (30%) e discurso de ódio (23%). Entre o segundo e o terceiro trimestres deste ano, a porcentagem de casos relacionados às regras sobre violência e incitação aumentou em dois terços, passando de 18% para 30%.
3. Em cerca de metade dos casos selecionados pelo Comitê no terceiro trimestre de 2021, a Meta chegou à conclusão de que a decisão original de remover os conteúdos estava incorreta
Após a identificação e a análise pelo Comitê de seleção dos casos, solicitamos que a Meta confirme que os conteúdos são qualificáveis para revisão de acordo com os regulamentos internos. Nessa etapa, ocasionalmente a Meta entende que a decisão original de remover o conteúdo estava incorreta. Isso aconteceu em cerca de metade (13 de 28) dos casos listados pelo Comitê de seleção no terceiro trimestre de 2021. Por sua vez, a Meta restaurou esses conteúdos no Instagram ou no Facebook.
Às vezes, mesmo com a mudança de posição da Meta, o Comitê emite uma decisão completa quando o caso tem valor precedente significante. Isso aconteceu em dois casos divulgados no terceiro trimestre de 2021 (Isolamento de Ocalan e Publicação compartilhada da Al-Jazeera). Sem a intervenção do Comitê, as decisões incorretas da Meta provavelmente continuariam em vigor.
4. A Meta se comprometeu a implementar “totalmente” ou “em parte” mais de metade das recomendações feitas pelo Comitê no terceiro trimestre de 2021
Nas seis decisões publicadas de julho a setembro, o Comitê fez 25 recomendações à Meta. Destas, a empresa assumiu o compromisso de implementar nove “totalmente” e quatro apenas “em parte”. Segundo a Meta, cinco dessas recomendações “estavam sendo avaliadas quanto à viabilidade”, enquanto outras cinco representavam “o trabalho que a empresa já faz”. A Meta afirmou, ainda, que “não era necessário agir” sobre duas recomendações.
Em resposta às recomendações feitas pelo Comitê no terceiro trimestre, a Meta assumiu uma série de compromissos a fim de aumentar a transparência para os usuários.
Por exemplo, a Meta concordou em fornecer informações na Central de Transparência sobre conteúdo removido por violar os Padrões da Comunidade do Facebook, incluindo o número de solicitações recebidas, após um relatório formal de um governo.
Além disso, a Meta afirmou que iria “implementar totalmente” nossa recomendação de definir uma entidade independente, não associada a nenhum dos lados do conflito israelense-palestino, para conduzir uma análise completa a fim de verificar se a moderação de conteúdo em hebraico e árabe, incluindo o uso de automação, foi aplicada sem parcialidade.
Orientando a Meta para uma maior transparência
Além de emitir o relatório de transparência do terceiro trimestre, também publicamos duas novas decisões sobre casos, que refletem a necessidade de tornar mais transparentes as políticas da Meta e a forma como são aplicadas.
Na decisão sobre a ayahuasca, uma cocção psicoativa destinada a práticas religiosas, reiteramos à Meta que explicasse aos usuários que isso está de acordo com os Padrões da Comunidade do Facebook no Instagram, com algumas exceções específicas.
Na nossa decisão sobre o cinto wampum, uma peça de arte indígena norte-americana, solicitamos à Meta que avaliasse com que precisão os analistas aplicavam exceções de expressão artística e expressão sobre violações dos direitos humanos. Além disso, pedimos que averiguasse como a localização do analista pode afetar a capacidade de avaliar com precisão o “contradiscurso”, no qual o discurso de ódio é referenciado para resistir à opressão e à discriminação.
Conforme a Meta responde a essas e outras recomendações, vamos monitorar se e como a empresa cumpre as promessas que fez.
Com o tempo, acreditamos que o impacto combinado de nossas recomendações levará a Meta a ser mais transparente e a beneficiar os usuários.
Como responsabilizamos a Meta, nossa independência é essencial. Nossos trustees desempenham um papel fundamental na proteção da independência do Comitê. E é com grande honra que hoje anunciamos Stephen Neal, presidente emérito e consultor sênior do escritório de advocacia Cooley, e Presidente da Hewlett Foundation, como nosso novo trustee.
Atualização no caso 2021-017-FB-UA
No último mês, anunciamos três novos casos, incluindo um que discutia o domínio do Talibã no Afeganistão. Devido à ação do usuário, o caso não está mais disponível para análise pelo Comitê. O usuário que fez a apelação do caso ao Comitê excluiu a publicação, e esta, por sua vez, foi removida da plataforma.
Como os usuários do Facebook têm o direito de excluir os conteúdos que publicam, esperamos que eventos desse tipo aconteçam às vezes. Quando a ação do usuário resultar na remoção de um caso, anunciaremos o quanto antes.
Próximo passo
Como parte do nosso compromisso com a transparência, continuaremos a publicar esses relatórios a cada trimestre. Além disso, no próximo ano, emitiremos um relatório anual que avaliará o desempenho da Meta quanto à implementação das nossas decisões e recomendações.