O Comitê de Supervisão anuncia dois novos casos e mantém decisão da Meta no caso “Produtos farmacêuticos do Sri Lanka”
9 de Março de 2023
Hoje, o Comitê de Supervisão anuncia a análise de dois novos casos: um relacionado às eleições brasileiras e outro sobre um conteúdo com o testemunho de uma sobrevivente de violência de gênero. Também apresentamos nosso parecer consultivo sobre a moderação da palavra árabe “shaheed” pela Meta. Além disso, vamos publicar nossa decisão sobre o caso “Produtos farmacêuticos do Sri Lanka”, no qual mantemos a decisão da Meta de permitir o conteúdo que solicita doações de medicamentos durante a crise financeira do país. Por fim, o Comitê também anuncia a nomeação de uma nova trustee, a executiva sênior de tecnologia Marie Wieck.
Dois novos casos
Hoje, o Comitê está anunciando a análise de dois novos casos. Por esse motivo, convidamos pessoas e organizações a enviar comentários públicos.
Seleção dos casos
Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários no mundo inteiro, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta.
Os casos que anunciamos hoje são os seguintes:
Discurso de general brasileiro
(2023-001-FB-UA)
Apelação de um usuário para remover conteúdo do Facebook
Envie comentários públicos aqui.
Em 3 de janeiro de 2023, dois dias após a posse de Luiz Inácio Lula da Silva como presidente do Brasil, um usuário do Facebook publicou um vídeo com uma legenda em português. Na legenda, havia um apelo para “sitiar” o congresso brasileiro como “a última alternativa”. O vídeo mostra parte de um discurso de um conhecido general brasileiro e apoiador do adversário eleitoral de Lula. Nesse discurso, ele convoca as pessoas a “ir para a rua” e “se dirigir ao Congresso Nacional... [e ao] Supremo Tribunal Federal”. Após esse discurso, vem uma sequência de imagens: incluindo uma de um incêndio na Praça dos Três Poderes, em Brasília, onde estão sediados a Presidência da República, o Congresso e o Supremo Tribunal Federal. O texto na imagem dizia: “Venha para Brasília! Vamos invadir! Vamos sitiar os três poderes.” O texto sobreposto na outra imagem dizia “exigimos o código-fonte”, um slogan que os manifestantes usaram para questionar a credibilidade das urnas eletrônicas do Brasil. O vídeo recebeu mais de 18 mil reproduções, não teve compartilhamentos e foi alvo de 7 denúncias.
A posse do presidente Lula foi acompanhada de agitação civil, com protestos e bloqueios de estradas. No dia 8 de janeiro, mais de mil apoiadores do ex-presidente Jair Bolsonaro invadiram o Congresso Nacional, o Supremo Tribunal Federal e a Presidência da República, intimidando policiais e destruindo o patrimônio público. A Meta designou temporariamente o Brasil como um local de alto risco antes das eleições gerais do país em outubro de 2022. Como consequência, tem removido conteúdo que “pede para as pessoas pegarem armas ou invadirem à força [...] prédios federais”. A Meta só anunciou em 9 de janeiro que tinha feito essa remoção.
No mesmo dia em que o conteúdo foi publicado, um usuário o denunciou por não seguir a política dos Padrões da Comunidade da Meta sobre violência e incitação, que proíbe apelos para “entrar à força em locais [...] onde há sinais temporários de risco elevado de violência ou dano no meio físico.” No total, 4 usuários denunciaram o conteúdo 7 vezes entre 3 e 4 de janeiro. Após a primeira denúncia, um moderador humano analisou o conteúdo e concluiu que ele seguia as políticas da Meta. O usuário fez uma apelação da decisão, que outro moderador manteve. No dia seguinte, cinco moderadores diferentes analisaram as outras seis denúncias, e todos consideraram que o conteúdo seguia as políticas da Meta. O conteúdo foi escalonado para especialistas no assunto e em políticas conduzirem outra análise.
Um dos usuários que denunciou o conteúdo fez uma apelação da decisão da Meta ao Comitê de Supervisão. Nela, o usuário relacionou o potencial do conteúdo de incitar a violência com o movimento de pessoas no Brasil “que não aceitam os resultados das eleições.”
O Comitê selecionou esse caso para ver como a Meta modera conteúdo relacionado a eleições e como está aplicando o Protocolo de Política de Crise em um “local designado temporariamente de alto risco”. A Meta desenvolveu o Protocolo em resposta à recomendação do Comitê no caso “Suspensão do ex-presidente Trump”. Esse caso se enquadra em uma das prioridades do Comitê: “eleições e espaço cívico”.
Como resultado da seleção do caso pelo Comitê, a Meta determinou que as várias decisões de manter o conteúdo no Facebook foram um equívoco. Como os moderadores não registram os motivos das decisões tomadas, a empresa não tem mais informações sobre por que eles concluíram que o conteúdo seguia as políticas da empresa nesse caso. Em 20 de janeiro de 2023, a Meta removeu o conteúdo, aplicou uma advertência à conta de quem o publicou e limitou certos recursos da conta, impedindo a pessoa de criar conteúdo novo.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- A situação política no Brasil antes das eleições de outubro e a forma como ela mudou entre outubro de 2022 e 8 de janeiro de 2023.
- A relação entre violência política, negacionismo eleitoral e apelos à mobilização no meio físico pelas redes sociais.
- O momento em que os esforços de integridade eleitoral da Meta devem começar e terminar e os critérios que devem orientar as decisões sobre esses prazos, principalmente por estarem relacionados a transições de poder.
- O modo como a Meta deve diferenciar uma organização política legítima de uma ação coordenada prejudicial.
- A maneira como a Meta deve tratar conteúdo que ataca ou deslegitima instituições e processos democráticos.
Nas suas decisões, o Comitê pode apresentar recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.
Testemunho de violência contra a mulher
(2023-002-IG-UA)
Apelação de um usuário para restaurar conteúdo ao Instagram
Envie comentários públicos aqui.
Em novembro de 2022, um usuário do Instagram publicou um vídeo com uma legenda em sueco. O vídeo tem uma gravação de áudio, também em sueco, de uma mulher descrevendo sua experiência em um relacionamento íntimo violento, inclusive como se sentia incapaz de discutir a situação com a família. O áudio não tem descrições específicas da violência A legenda observa que a mulher na gravação do áudio consentiu com a publicação e que a voz foi modificada. O texto afirma que existe uma cultura de culpabilização das vítimas de violência de gênero e pouca compreensão de como é difícil para as mulheres deixar um ambiente violento. A legenda diz o seguinte: “men murder, rape and abuse women mentally and physically - all the time, every day” (homens não só matam e estupram mulheres, mas também abusam delas mentalmente e fisicamente o tempo todo, todos os dias). A legenda também passa uma linha de apoio e diz que espera que as mulheres que lerem a publicação se deem conta de que não estão sozinhas. A publicação recebeu aproximadamente 10 mil visualizações, teve menos de 20 compartilhamentos e não foi alvo de denúncia.
A Meta removeu o conteúdo do Instagram de acordo com a política dos Padrões da Comunidade contra discurso de ódio, que proíbe afirmações generalizadas ou “declarações de comportamento não qualificadas” de que pessoas de determinado sexo ou gênero são “criminosos violentos” ou “predadores sexuais”. Os sistemas automatizados da Meta identificaram o conteúdo como potencialmente violador. Após duas análises humanas, a Meta removeu a publicação e aplicou uma “advertência padrão” à conta do usuário. O usuário apelou, e um terceiro moderador, também humano, manteve a decisão da empresa. Depois, o conteúdo foi identificado pelo sistema automatizado de Anulação de Falso Positivo de Alto Impacto (HIPO, pelas iniciais em inglês), da Meta, que tem como objetivo identificar conteúdo que segue as políticas da empresa, mas que foi removido indevidamente. Isso enviou o conteúdo para outra análise, em que mais dois moderadores concluíram que ele violava a política contra discurso de ódio.
Em seguida, o usuário fez uma apelação ao Comitê. Nela, ele disse que costuma falar sobre a violência dos homens contra as mulheres e tem como objetivo alcançar sobreviventes de violência. Como resultado da seleção do caso pelo Comitê, a Meta determinou que a decisão de remover o conteúdo foi um equívoco, restaurou a publicação e reverteu a advertência.
O Comitê selecionou esse caso para explorar as políticas e práticas da Meta relacionadas à moderação de conteúdo direcionado a pessoas com base em uma característica protegida, como sexo e gênero. Esse caso se enquadra em duas das prioridades estratégicas. do Comitê: “gênero” e “discurso de ódio contra grupos marginalizados”.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- A forma como a política contra discurso de ódio da Meta pode resultar na remoção de conteúdo com testemunhos de violência de gênero ou condenações a esse ato.
- Informações sobre possíveis desafios e benefícios da abordagem da Meta para lidar com desequilíbrios de poder entre diferentes “características protegidas” na política contra discurso de ódio da empresa.
- Informações sobre desafios que uma pessoa pode enfrentar ao compartilhar testemunhos de violência de gênero e condenações a esse ato no Facebook e no Instagram.
- Informações sobre o contexto sócio-político na Suécia e no mundo inteiro relacionado à violência contra as mulheres, particularmente aquela que os parceiros íntimos praticam.
- O modo como o sistema de advertências da Meta pode ser aprimorado para melhor proteger ativistas, defensores dos direitos humanos, jornalistas e outras pessoas contra a remoção indevida de conteúdo e a aplicação de penalizações às contas dessas pessoas.
Nas suas decisões, o Comitê pode apresentar recomendações de política à Meta. Embora elas não sejam vinculativas, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.
Comentários públicos
Se você ou sua organização acha que pode contribuir com perspectivas valiosas para ajudar a resolver os casos anunciados hoje, clique nos links acima para enviar um comentário. O período para deixar comentários públicos sobre os dois casos vai ficar aberto por 14 dias, com encerramento às 12h (BRT) do dia 23 de março, uma quinta-feira.
Hoje, o Comitê também anunciou que aceitou um parecer consultivo sobre a moderação do termo árabe “shaheed” pela Meta. Nesse sentido, estamos aceitando comentários públicos. O período para deixar comentários públicos sobre esse parecer termina às 12h (BRT) no dia 10 de abril, uma segunda-feira.
Próximos passos
Durante as próximas semanas, os membros do Comitê vão deliberar sobre esses casos. Quando chegarem às decisões finais, vamos publicá-las no site do Comitê de Supervisão.
Para receber atualizações quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.
Anúncio de Marie Wieck como nova trustee
Hoje, também anunciamos Marie Wieck como nova trustee do Comitê de Supervisão. Nossos trustees têm um papel fundamental na proteção da independência do Comitê. Por isso, Marie, como executiva sênior de tecnologia que trabalhou na IBM por mais de 30 anos, traz um vasto conhecimento sobre o setor para ajudar o Comitê a funcionar melhor no futuro.
O Comitê de Supervisão mantém a decisão da Meta no caso “Produtos farmacêuticos do Sri Lanka” (2022-014-FB-MR)
O Comitê de Supervisão confirmou a decisão da Meta de manter uma publicação no Facebook que pedia doações de medicamentos para o Sri Lanka durante a crise financeira do país. No entanto, o Comitê concluiu que as isenções secretas e arbitrárias de políticas são incompatíveis com as responsabilidades de direitos humanos da Meta. Por isso, recomendou que a empresa aumentasse a transparência e a consistência da tolerância à política, mecanismo que permite conteúdo em que uma interpretação rigorosa de uma política produz um resultado que está em desacordo com a intenção dela.
Sobre o caso
Em abril de 2022, uma imagem foi publicada na Página do Facebook de um sindicato médico no Sri Lanka, solicitando que as pessoas doassem medicamentos e produtos médicos para o país por meio de um link.
Na época, o Sri Lanka estava no meio de uma grave crise política e financeira, que esvaziou as reservas de moeda estrangeira do país. Como resultado, o Sri Lanka, que importa 85% dos seus suprimentos médicos, não tinha verba para importar medicamentos. Os médicos informaram que os hospitais estavam ficando sem medicamentos e materiais essenciais e afirmaram temer uma catástrofe de saúde iminente.
As equipes da Meta responsáveis pelo monitoramento do risco durante a crise do Sri Lanka identificaram o conteúdo nesse caso. A empresa concluiu que a publicação não seguia a política dos Padrões da Comunidade sobre produtos e serviços restritos, que proíbe conteúdo que solicite medicamentos, mas aplicou a tolerância à política.
Essas tolerâncias permitem conteúdo em que o fundamento de uma política e os valores da Meta exigem um resultado diferente de uma interpretação rígida das regras. As tolerâncias em grande escala se aplicam a categorias inteiras de conteúdo em vez de apenas a publicações individuais. O fundamento da política sobre produtos e serviços restritos inclui “incentivar a segurança”. A Meta indicou esse caso ao Comitê.
Principais conclusões
O Comitê de Supervisão considera que a publicação não segue a política dos Padrões da Comunidade sobre produtos e serviços restritos. No entanto, ele acredita que a aplicação em grande escala de uma tolerância à política para permitir esse conteúdo e outros semelhantes era apropriada e seguia os valores e as responsabilidades de direitos humanos da Meta.
No contexto da crise do Sri Lanka, em que a saúde e a segurança do povo corriam grande perigo, a tolerância respeita o objetivo dos Padrões da Comunidade de “incentivar a segurança” e o direito humano à saúde. Embora permitir doações de medicamentos possa apresentar riscos, a necessidade urgente do Sri Lanka justificou as ações da Meta.
No entanto, a preocupação do Comitê é a Meta ter dito que a tolerância à política “possa” se aplicar ao conteúdo publicado em cingalês fora do Sri Lanka, além do mercado desse país. A empresa deve deixar claro onde as tolerâncias são aplicáveis. A empresa também deve garantir que as tolerâncias em grande escala considerem a diversidade étnica e linguística das pessoas que elas possam afetar para evitar discriminações acidentais. O Sri Lanka tem dois idiomas oficiais, o cingalês e o tâmil. Grande parte dos falantes desse último faz parte da minoria muçulmana e da tâmil.
O Comitê também considera que, para cumprir suas responsabilidades de direitos humanos, a Meta deve tomar medidas para aumentar a compreensão dos usuários sobre a tolerância à política e garantir a aplicação consistente dela.
Os usuários que denunciam conteúdo não são notificados quando uma tolerância é aplicada a ele nem têm como saber que a exceção existe. A tolerância à política não é mencionada nos Padrões da Comunidade, e a Meta não publicou informações sobre ela na Central de Transparência, como fez com a exceção de tolerância a conteúdo de interesse jornalístico, em parte graças a recomendações do Comitê. Isenções secretas e arbitrárias às políticas da Meta são incompatíveis com as responsabilidades de direitos humanos da empresa.
Parece não haver critérios claros para quando uma tolerância à política é aplicada e encerrada. O Comitê enfatiza a importância desses critérios para que as decisões sejam tomadas com consistência e recomenda que a Meta os divulgue. Ele também considera que, quando a Meta usa com frequência uma tolerância para o mesmo fim, ela deve avaliar se é necessária uma exceção independente à política relevante.
A decisão do Comitê de Supervisão
O Comitê de Supervisão concorda com a decisão da Meta de manter a publicação no Facebook.
O Comitê recomenda que a Meta faça o seguinte:
- Publique informações sobre a tolerância à política na Central de Transparência, incluindo os critérios que usa para decidir se a tolerância deve ser aplicada em grande escala.
- Explique, nos Padrões da Comunidade, que tolerâncias podem ser aplicadas quando o fundamento de uma política e os valores de Meta exigem um resultado diferente do que diz a interpretação estrita das regras. Isso deve estar relacionado com as informações sobre tolerância à política na Central de Transparência.
- Notifique os usuários quando o conteúdo que eles denunciaram se beneficiar da tolerância à política.
- Compartilhe publicamente os dados agregados na Central de Transparência sobre tolerâncias aplicadas à política, incluindo o número, as regiões e os idiomas afetados.
Mais informações
Para ler a decisão na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre o caso, clique no anexo abaixo.