O Comitê de Supervisão exige mais transparência do Facebook
21 de Outubro de 2021
Nas últimas semanas, os meios de comunicação atraíram uma atenção renovada para a maneira aparentemente inconsistente com que o Facebook toma decisões e por que uma maior transparência e supervisão independente do Facebook são tão importantes para os usuários.
Desde a publicação de suas primeiras decisões em janeiro, o Comitê de Supervisão pressionou o Facebook a revelar mais informações sobre como isso funciona e tratar seus usuários de maneira justa. Até agora, recebemos 20 casos importantes e emitimos 17 decisões abordando tópicos desde discurso de ódio até desinformação sobre a Covid-19. Recebemos cerca de 10.000 comentários públicos de pessoas em todo o mundo e fizemos mais de 75 recomendações para o Facebook.
Como parte de nosso compromisso com a transparência, estamos publicando hoje nossos primeiros relatórios trimestrais de transparência.
Estes relatórios abrangem o quarto trimestre de 2020, assim como o primeiro e o segundo trimestres de 2021. Eles fornecem novos detalhes sobre os casos que estamos recebendo dos usuários, as decisões que tomamos e nossas recomendações ao Facebook. Daqui em diante, publicaremos um relatório de transparência o mais rápido possível após o término de cada trimestre. Também publicaremos relatórios anuais, que fornecerão uma avaliação qualitativa mais detalhada de como o Facebook está implementando as decisões e recomendações do Comitê.
Os relatórios atuais concluem que o Facebook não foi totalmente cooperativo com o Comitê em seu sistema de "verificação cruzada", que a empresa usa para analisar as decisões de conteúdo relacionadas a usuários de alto perfil. O Comitê também anunciou que aceitou um pedido do Facebook, na forma de uma opinião consultiva sobre políticas, para revisar seu sistema de verificação cruzada e fazer recomendações sobre como ele pode ser alterado. Como parte dessa análise, o Facebook concordou em compartilhar com o Comitê os documentos relativos ao sistema de verificação cruzada, conforme relatado no Wall Street Journal.
Seis destaques dos relatórios trimestrais do Comitê
1.Mais de meio milhão de recursos de usuários enviados ao Comitê
Entre outubro de 2020 e o final de junho de 2021, os usuários do Facebook e do Instagram enviaram cerca de 524.000 casos ao Comitê. Os recursos dos usuários aumentaram em cada trimestre, com cerca de 114.000 casos no quarto trimestre de 2020, 203.000 casos no primeiro trimestre de 2021 e cerca de 207.000 casos no segundo trimestre de 2021.
2. Dois terços dos recursos, nos quais os usuários queriam que seu conteúdo fosse restaurado, estão relacionados a discurso de ódio ou bullying
Até o final de junho de 2021, estimamos que mais de um terço dos casos enviados ao Comitê (36%) estava relacionado a conteúdo referente às regras do Facebook sobre discurso de ódio. Estimamos que bullying e assédio representaram outro terço (31%) dos casos enviados, com violência e incitação (13%), nudez e atividade sexual adulta (9%) e pessoas e organizações perigosas (6%) constituindo a maioria dos casos restantes. Esses números não incluem apelos de usuários para remover conteúdo do Facebook, que foram introduzidos a partir de meados de abril.
3. Quase metade dos recursos de usuários veio dos Estados Unidos e Canadá
Até o final de junho, estimamos que quase metade dos casos enviados (46%) vieram dos Estados Unidos e Canadá, enquanto 22% dos casos vieram da Europa e 16% da América Latina e Caribe. Estimamos que 8% dos casos vieram da região da Ásia Pacífico e Oceania, 4% vieram do Oriente Médio e Norte da África, 2% vieram da Ásia Central e Sul da Ásia e 2% vieram da África Subsaariana.
Não acreditamos que isso represente a distribuição real dos problemas de conteúdo do Facebook pelo mundo. Na verdade, temos motivos para acreditar que os usuários na Ásia, África Subsaariana e Oriente Médio enfrentam mais, e não menos, problemas com o Facebook do que partes do mundo que apresentam mais recursos.
Estamos expandindo nosso alcance nessas áreas para garantir que a supervisão do Comitê se estenda aos usuários em todos os lugares e pedimos que os usuários e organizações da sociedade civil na Ásia, África Subsaariana e Oriente Médio tomem conhecimento de nossa preocupação e apresentem recursos quando sofrerem os efeitos da fraca moderação de conteúdo por parte do Facebook em suas regiões.
4. Os processos mais amplos do Comitê levaram o Facebook a restaurar mais de 30 partes de conteúdo que abordam casos significativos
Como parte do processo do Comitê para casos de lista restrita, pedimos ao Facebook para confirmar se os casos são elegíveis para revisão de acordo com o regulamento. Como resultado desse processo, no final de junho, o Facebook identificou 38 casos pré-selecionados nos quais sua decisão original sobre o conteúdo estava incorreta.
Em 35 desses casos, o Facebook tomou medidas em relação ao conteúdo, enquanto, em três casos, isso não foi possível porque o conteúdo foi excluído pelo usuário.
Quase metade dos casos nos quais o Facebook identificou sua decisão original como incorreta estava relacionada ao padrão da comunidade para discurso de ódio, enquanto quase um terço era referente a pessoas e organizações perigosas.
5. O Facebook está respondendo à maioria das perguntas do Comitê, mas não a todas
Para ajudar a tomar nossas decisões e fazer com que o Facebook seja o mais transparente possível, enviamos perguntas ao Facebook sobre casos específicos. Das 156 perguntas enviadas ao Facebook sobre as decisões que publicamos até o final de junho, o Facebook respondeu 130, respondeu parcialmente 12 e se recusou a responder 14.
Ao fazer perguntas específicas e incluir os detalhes em nossa decisão final, esperamos fornecer aos usuários e pesquisadores o máximo de informações possível sobre como a empresa trabalha.
Em nossos relatórios, damos exemplos dos tipos de perguntas que o Facebook se recusou a responder e as razões da empresa para fazê-lo. Por exemplo, em vários casos, o Facebook se recusou a responder a perguntas sobre o antigo comportamento do usuário no Facebook, que a empresa alegou ser irrelevante para a determinação do Comitê sobre o caso em questão.
6. O Facebook não foi totalmente cooperativo com o Comitê na verificação cruzada
Após divulgações recentes no Wall Street Journal, o Comitê se comprometeu a verificar se o Facebook tem cooperado em suas respostas no sistema de verificação cruzada, que a empresa usa para analisar as decisões de conteúdo relacionadas a usuários de alto perfil.
Na opinião do Comitê, a equipe do Facebook, encarregada de fornecer informações, não foi totalmente cooperativa na verificação cruzada. Em algumas ocasiões, o Facebook não forneceu informações relevantes ao Comitê, enquanto, em outros casos, as informações fornecidas estavam incompletas.
Quando o Facebook citou ao Comitê o caso relacionado ao ex-presidente Trump, dos Estados Unidos, não foi mencionado o sistema de verificação cruzada. Visto que a indicação incluiu uma questão de política específica sobre a aplicação em nível de conta para líderes políticos, muitos dos quais o Comitê acredita que foram cobertos pela verificação cruzada, essa omissão não é aceitável. O Facebook apenas mencionou a verificação cruzada para o Comitê quando perguntamos se a página ou conta de Donald Trump tinha sido submetida a processos normais de moderação de conteúdo.
Em seu briefing subsequente ao Comitê, o Facebook admitiu que não deveria ter dito que a verificação cruzada se aplicava apenas a um "pequeno número de decisões". O Facebook observou que, para equipes que operam na escala de milhões de decisões de conteúdo por dia, os números envolvidos na verificação cruzada parecem relativamente pequenos, mas reconheceu que sua colocação pode parecer enganosa.
Também observamos que a resposta do Facebook à nossa recomendação de "explicar claramente a lógica, os padrões e os processos de análise [verificação cruzada], incluindo os critérios para determinar quais páginas e contas são selecionadas para inclusão" não forneceu transparência significativa sobre os critérios para contas ou páginas selecionadas para inclusão na verificação cruzada.
A credibilidade do Comitê de Supervisão, nosso relacionamento de trabalho com o Facebook e nossa capacidade de emitir julgamentos adequados sobre os casos dependem de sermos capazes de confiar no fato de que as informações fornecidas a nós pelo Facebook são precisas, abrangentes e retratam um panorama completo do tópico em questão. Continuaremos a acompanhar e relatar as informações fornecidas pelo Facebook para garantir que sejam o mais abrangentes e completas possível.
Hoje, o Comitê também anunciou que aceitou um pedido do Facebook, na forma de uma opinião consultiva sobre políticas, para analisar o sistema de verificação cruzada da empresa e fazer recomendações sobre como ele pode ser alterado.
Especificamente, o Facebook solicitou orientação sobre, entre outras coisas: como garantir justiça e objetividade nas análises de verificação cruzada, levando em consideração o contexto; como controlar a verificação cruzada e promover a transparência; e os critérios que utiliza para determinar quem é incluído na verificação cruzada e como garantir que isso seja imparcial.
Agora que aceitamos a solicitação do Facebook, o Comitê se envolverá com a sociedade civil em todo o mundo, incluindo acadêmicos e pesquisadores, enquanto examinamos esta questão fundamental. Isso incluirá um convite para comentários públicos que lançaremos nos próximos dias. O Comitê continua a alcançar uma ampla gama de vozes para comunicar seu trabalho, incluindo ex-funcionários do Facebook que se apresentaram nos últimos meses.
O Facebook agora concordou em compartilhar com o Comitê os documentos relativos à verificação cruzada, conforme relatado no Wall Street Journal. O Comitê irá analisá-los à medida que produzirmos nossa opinião consultiva sobre políticas.
O Facebook também concordou que, a partir de agora, se compromete a fornecer informações sobre o contexto mais amplo que pode ser relevante para as decisões de caso do Comitê. Isso deve dar uma compreensão mais completa do trabalho que o Facebook já realizou sobre um determinado assunto. Incluiremos análises sobre se o Facebook está cumprindo esse compromisso em nossos futuros relatórios de transparência.
Depois que o Comitê tiver deliberado sobre esta opinião consultiva sobre políticas e votado para aprová-la, emitiremos nossas recomendações ao Facebook. O Facebook deverá então responder dentro de 30 dias.
Os usuários deixaram de adivinhar as regras do Facebook
Em muitas das decisões abordadas nos relatórios atuais, e naqueles que publicamos desde então, surgiu um tema evidente: O Facebook não está sendo claro com as pessoas que usam suas plataformas. Temos visto constantemente usuários que ficam tentando adivinhar por que o Facebook removeu seu conteúdo.
Em um de nossos primeiros casos, o Facebook removeu o conteúdo de um usuário, mas não disse a ele qual Padrão da Comunidade ele havia violado. Em outro, o Facebook não analisou o recurso de um usuário antes de chegar ao Comitê. Em outro caso, o Facebook disse que um usuário violou suas regras sobre pessoas perigosas, mas descobriu que havia perdido uma exceção de política por três anos, o que claramente permitia a postagem desse usuário.
Tendo recebido mais de meio milhão de apelações até o final de junho, sabemos que esses casos são apenas a ponta do iceberg. No momento, está claro que, por não ser transparente com os usuários, o Facebook não os está tratando de forma justa.
Muitas pessoas podem se identificar com a experiência de ter seu conteúdo removido sem muita explicação sobre o que fizeram de errado. O Comitê está profundamente preocupado com o impacto sobre os usuários e as implicações para a liberdade de expressão em todo o mundo.
Orientando o Facebook para uma maior transparência
A transparência é claramente uma área em que o Facebook deve se aprimorar com urgência, e queremos fazer parte da solução. Nossas recomendações pedem repetidamente que o Facebook siga alguns princípios centrais de transparência: torne suas regras facilmente acessíveis nos idiomas de seus usuários; diga às pessoas o mais claramente possível como tomar e impor suas decisões; e, se as pessoas violarem suas regras, diga exatamente o que fizeram de errado.
Desde quando o Facebook publicou suas primeiras respostas às nossas recomendações no início deste ano, já vimos alguns compromissos iniciais da empresa com o potencial de aumentar a transparência para os usuários.
Em maio, o Facebook se comprometeu a traduzir suas normas comunitárias para o punjabi, um idioma falado por 130 milhões de pessoas, até o final deste ano. Em junho, o Facebook se comprometeu a incluir sua exceção à sátira, que não havia sido comunicada aos usuários, em suas normas comunitárias até o final deste ano.
Em agosto, o Facebook concordou em fornecer informações em seu centro de transparência sobre o conteúdo removido por violar suas normas comunitárias após um relatório formal de um governo, incluindo o número de solicitações recebidas. Neste mês, o Facebook disse que iria "implementar totalmente" nossa recomendação para uma entidade independente, não associada a nenhum dos lados do conflito israelense-palestino, para conduzir uma análise completa com o objetivo de verificar se sua moderação de conteúdo em hebraico e árabe, incluindo o uso de automação, foi aplicada sem parcialidade.
Claro, isso é apenas o começo. Para essas e outras recomendações, vamos monitorar se e como o Facebook cumpre as promessas que fez. Com o tempo, acreditamos que o impacto combinado de nossas recomendações levará o Facebook a ser mais transparente e a beneficiar os usuários.
Próximos passos
Forçar o Facebook a ser mais transparente, tratar os usuários de maneira justa e honrar seus compromissos com os direitos humanos é um esforço de longo prazo que requer o envolvimento de legisladores e reguladores, da sociedade civil, de pesquisadores e da mídia. O Comitê de Supervisão faz parte desse esforço.
Nas áreas em que sentimos que o Facebook está falhando, como a transparência, continuaremos desafiando a empresa a fazer melhor. Faremos isso por meio de nossas decisões, recomendações e relatórios regulares de transparência, incluindo nosso relatório anual que publicaremos no ano que vem.
Catalina Botero-Marino, Jamal Greene, Michael McConnell e Helle Thorning-Schmidt
Copresidentes do Comitê de Supervisão