Anulado
Vídeo de prisioneiro das Forças de Apoio Rápido do Sudão
O Comitê de Supervisão anulou a decisão original da Meta de deixar ativo um vídeo que mostra homens armados no Sudão, das Forças de Apoio Rápido (RSF na sigla em inglês), detendo uma pessoa na traseira de um veículo militar.
Resumo
O Comitê de Supervisão anulou a decisão original da Meta de deixar ativo um vídeo que mostra homens armados no Sudão, das Forças de Apoio Rápido (RSF na sigla em inglês), detendo uma pessoa na traseira de um veículo militar. O vídeo viola os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos e sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas. O Comitê está preocupado com o fato de a Meta não ter removido, com maior rapidez, o conteúdo que mostra um prisioneiro de guerra e o apoio a um grupo identificado pela empresa como perigoso. Dessa forma, são apresentadas questões mais amplas relacionadas ao monitoramento eficaz de conteúdos durante conflitos armados e à forma como é analisado o conteúdo que revela a identidade de um prisioneiro de guerra (“exposição pública”). O Comitê solicita que a Meta crie uma solução escalável para identificar proativamente conteúdos que expõem prisioneiros de guerra durante um conflito armado.
Sobre o caso
Em 27 de agosto de 2023, um usuário do Facebook publicou um vídeo mostrando homens armados no Sudão que detinham uma pessoa na traseira de um veículo militar. Um homem falando árabe identifica-se como membro das RSF e afirma que o grupo capturou um cidadão estrangeiro, provavelmente um combatente associado às Forças Armadas Sudanesas (SAF na sigla em inglês). O homem prossegue dizendo que o entregarão à liderança das RSF e que pretendem encontrar e capturar os líderes das SAF, inclusive qualquer um dos associados estrangeiros das SAF no Sudão. O vídeo contém comentários depreciativos sobre cidadãos estrangeiros e líderes de outras nações que apoiam as SAF, enquanto a legenda que o acompanha afirma em árabe: “we know that there are foreigners fighting side by side with the devilish Brotherhood brigades” (sabemos que há estrangeiros lutando lado a lado das diabólicas brigadas da Irmandade).
Em abril de 2023, eclodiu um conflito armado no Sudão entre o grupo paramilitar das RSF e das SAF, que é a força militar oficial do governo. Aproximadamente 7,3 milhões de pessoas foram deslocadas devido ao conflito, com mais de 25 milhões sofrendo grave insegurança alimentar. Organizações sudanesas de direitos humanos relataram que as RSF detiveram mais de 5 mil pessoas, submetendo-as a condições desumanas. Há relatos de que ambos os lados cometeram crimes de guerra e crimes contra a humanidade. A Meta identificou as RSF conforme seu Padrão da Comunidade sobre Organizações e Indivíduos Perigosos.
Pouco depois da publicação do vídeo, três usuários do Facebook denunciaram o conteúdo, mas devido à baixa pontuação de gravidade (probabilidade de violar os Padrões da Comunidade) e de baixo efeito viral (número de visualizações), não foram priorizados para análise humana, e o conteúdo ficou ativo. Um dos usuários fez uma apelação, mas essa denúncia foi encerrada devido às políticas de automação sobre COVID-19 da Meta. O mesmo usuário fez uma apelação ao Comitê de Supervisão. Após o Comitê alertar a Meta sobre o caso, a empresa removeu a publicação do Facebook de acordo com seu Padrão da Comunidade sobre Organizações e Indivíduos Perigosos e aplicou também uma advertência padrão e outra grave ao perfil da pessoa que publicou o vídeo.
Principais conclusões
O conteúdo viola o Padrão da Comunidade sobre Organizações e Indivíduos Perigosos da Meta porque contém apoio a um grupo identificado pela empresa como uma organização perigosa de Nível 1, especificamente por “canalizar informações ou recursos, incluindo comunicações oficiais” em nome da organização. O homem que aparece falando no vídeo se apresenta como parte das RSF, descreve suas atividades, menciona as ações que o grupo está tomando e nomeia diretamente o comandante das RSF, Mohamed Hamdan Dagalo. O Comitê considera que a remoção desse conteúdo, que contém ameaças contra qualquer pessoa que se oponha ou desafie as RSF, é uma ação necessária e adequada.
Em decisões anteriores, o Comitê enfatizou sua preocupação com a falta de transparência da lista de organizações e indivíduos designados pela Meta. Considerando a situação no Sudão, onde as RSF têm influência ou controle de fato sobre partes do país, os civis que dependem do Facebook, incluindo os canais de comunicação das RSF, para acesso a informações críticas de segurança e ajuda humanitária, podem correr maior risco devido às restrições impostas a esses canais de comunicação.
Além disso, o Comitê considera que esse conteúdo viola a Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas porque mostra um homem capturado claramente visível e descrito no vídeo como um “prisioneiro estrangeiro” associado às SAF. A política da Meta não permite que a identidade de um prisioneiro de guerra seja exposta durante um conflito armado. A remoção do vídeo é necessária considerando as regras específicas de direito humanitário internacional para proteger os detidos em conflitos armados. O Comitê está preocupado com o fato de esse conteúdo não ter sido identificado e removido por violar a regra da Meta de exposição pública a prisioneiros de guerra. Essa falta de monitoramento ocorre provavelmente porque essa regra é atualmente aplicada apenas em escalation, o que significa que os analistas humanos que moderam o conteúdo em grande escala não podem tomar medidas por conta própria. Na verdade, a regra só pode ser aplicada se for comunicada às equipes exclusivas de escalation da Meta por outros meios, por exemplo, Parceiros Confiáveis ou conteúdo com ampla cobertura da imprensa.
Por fim, o Comitê também está preocupado com o fato de a Meta não ter conseguido remover esse conteúdo imediatamente ou logo após sua publicação. Os sistemas automatizados da Meta não conseguiram identificar corretamente a violação nesse vídeo, indicando um problema maior de monitoramento. O Comitê considera necessário fazer alterações para que mais conteúdos que apoiem organizações perigosas sejam enviados para análise humana quando relacionados a conflitos armados.
Decisão do Comitê de Supervisão
O Comitê de Supervisão anulou a decisão original da Meta de deixar o vídeo ativo.
Ele recomenda que a Meta:
- Desenvolva uma solução escalável para aplicar a Política sobre Coordenação de Atos Danosos e sobre Incentivo à Prática de Atividades Criminosas, que proíbe a exposição pública de prisioneiros de guerra no contexto de conflito armado. Deveria estabelecer uma equipe especializada para priorizar e identificar proativamente o conteúdo que expõe prisioneiros de guerra durante um conflito.
- Audite os dados de treinamento usados no seu classificador de compreensão de conteúdo de vídeo para avaliar se possui exemplos suficientes diversos de conteúdo que apoiam organizações designadas no contexto de conflitos armados, incluindo diferentes idiomas, dialetos, regiões e conflitos.
- Inclua um hiperlink para as listas de Organizações Terroristas Estrangeiras dos EUA e Terroristas Globais Especialmente Designados em seus Padrões da Comunidade, em que essas listas são mencionadas.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão anulou a decisão original da Meta de deixar ativo um vídeo que mostra homens armados que se identificam como membros das Forças de Apoio Rápido (RSF na sigla em inglês), detendo uma pessoa na traseira de um veículo militar. Os membros das RSF descrevem o prisioneiro, cujo rosto é nitidamente visível, como um cidadão estrangeiro vinculado às Forças Armadas Sudanesas (SAF). A Meta identificou as RSF conforme seu Padrão da Comunidade sobre Organizações e Indivíduos Perigosos. Depois de o Comitê selecionar o caso, a Meta reavaliou a decisão original e removeu o vídeo por violar seus Padrão da Comunidade sobre Organizações e Indivíduos Perigosos, que proíbe o "apoio" a entidades designadas, incluindo "canalizar informações ou recursos, incluindo comunicações oficiais, em nome de uma entidade ou evento designado". A publicação também viola a política da Meta sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas, que proíbe conteúdo que revele a identidade de um prisioneiro de guerra em um conflito armado, nesse caso, a pessoa detida no veículo. O Comitê está preocupado com o fato de a Meta não ter removido o conteúdo com maior rapidez, o que pode indicar problemas maiores de monitoramento eficaz de políticas durante conflitos armados.
2. Descrição do caso e histórico
Em 27 de agosto de 2023, um usuário do Facebook publicou um vídeo que mostrava homens armados no Sudão detendo uma pessoa na traseira de um veículo militar. No vídeo, um homem, que não é o mesmo usuário que publicou o conteúdo, se identifica em árabe como membro do grupo paramilitar das Forças de Apoio Rápido (RSF, na sigla em inglês). Ele relata que o grupo capturou um cidadão estrangeiro, muito provavelmente um combatente ligado às Forças Armadas Sudanesas (SAF), e pretende entregar o prisioneiro à liderança das RSF. Além disso, o homem afirma que eles têm a intenção de encontrar os líderes das forças das SAF e seus associados estrangeiros no Sudão, que capturarão qualquer pessoa que esteja trabalhando contra as RSF e que permanecerão leais ao seu líder, Mohamed Hamdan Dagalo. O vídeo contém comentários depreciativos sobre cidadãos estrangeiros e líderes de outras nações que apoiam a SAF.
O vídeo é acompanhado de uma legenda, também em árabe, que pode ser traduzida como “we know that there are foreigners fighting side by side with the devilish Brotherhood brigades” (sabemos que há estrangeiros de nosso vizinho maligno lutando lado a lado com as diabólicas brigadas da Irmandade)”. Pouco depois da publicação do vídeo, o usuário editou a legenda. A legenda editada pode ser traduzida da seguinte forma: “we know that there are foreigners fighting side by side with the devilish Brotherhood brigades” (sabemos que há estrangeiros lutando lado a lado com as brigadas diabólicas da Irmandade). A publicação teve menos de 100 reações, 50 comentários e 50 compartilhamentos, enquanto a pessoa que publicou o conteúdo tem cerca de 4 mil amigos e 32 mil seguidores.
Pouco depois da publicação, outros usuários do Facebook denunciaram o conteúdo, mas essas denúncias não foram priorizadas para análise humana e a publicação permaneceu na plataforma. Um desses usuários apelou da decisão da Meta, mas ela foi novamente encerrada sem análise. O mesmo usuário fez uma apelação ao Comitê de Supervisão. Após o Comitê alertar a Meta sobre o caso em outubro de 2023 e após a análise pelos especialistas no assunto da Meta, a empresa removeu a publicação do Facebook de acordo com sua Política sobre Organizações e Indivíduos Perigosos. Após a remoção do conteúdo, a Meta aplicou uma advertência grave além de uma advertência padrão ao perfil da pessoa que publicou o conteúdo, pois a advertência grave gera penalidades diferentes e mais rígidas do que uma advertência padrão. O acúmulo de advertências padrão pode levar a um aumento da gravidade das penalidades. Quando o conteúdo publicado infringe as políticas mais severas da Meta, como a Política sobre Organizações e Indivíduos Perigosos, a empresa pode aplicar outras restrições e mais severas além das restrições padrão. Por exemplo, os usuários podem sofrer uma restrição na criação de anúncios e no uso do Facebook Live por determinados períodos.
O Comitê considerou o seguinte contexto para tomar sua decisão sobre esse caso.
O conflito armado no Sudão começou em abril de 2023 entre as Forças Armadas Sudanesas (SAF), que são as forças militares do governo internacionalmente reconhecidas, lideradas pelo General Abdel Fattah al-Burhan, e o grupo paramilitar, Forças de Apoio Rápido (RSF), liderado por Mohamed Hamdan Dagalo, geralmente conhecido como "Hemedti". Pouco depois do início do conflito, as SAF declararam as RSF como um grupo rebelde e determinaram sua dissolução. A guerra no país foi classificada como um conflito armado não internacional. Em novembro de 2023, de acordo com o Monitor de Guerra no Sudão, as RSF controlavam a maior parte de Darfur Ocidental, a área ao redor da capital Cartum e partes de Cordofão do Norte e do Oeste, enquanto as SAF controlavam a maior parte do Vale do Nilo e das províncias e portos orientais do país.
Em 6 de setembro de 2023, o Ministério da Fazenda dos EUA impôs sanções a Abdelrahim Hamdan Dagalo, um representante da RSF e irmão de Mohamed Hamdan Dagalo. A Meta designou a RSF de forma independente como uma organização terrorista de Nível 1, quase um mês antes, em 11 de agosto de 2023, de acordo com sua Política sobre Organizações e Indivíduos Perigosos. No momento da publicação desta decisão, a designação das RSF pela Meta permanece em vigor.
De acordo com as Nações Unidas, desde abril de 2023, aproximadamente 7,3 milhões de pessoas foram obrigadas a sair de suas casas devido ao conflito, e mulheres e crianças representam cerca de metade desse total. Mais de 25 milhões de pessoas, incluindo mais de 14 milhões de crianças, enfrentam grave insegurança alimentar e necessitam de ajuda humanitária. A violência de gênero, a violência sexual, o assédio, a exploração sexual e o tráfico estão aumentando. Estima-se que surtos de doenças e o declínio do sistema de saúde resultaram em cerca de 6 mil mortes em todo o Sudão. Em outubro de 2023, o Comitê de Direitos Humanos da ONU adotou uma resolução para estabelecer com urgência uma missão internacional independente de apuração de fatos para o Sudão, com o objetivo de investigar e estabelecer fatos e circunstâncias de supostas violações dos direitos humanos e do direito internacional humanitário cometidos durante o conflito. As organizações sudanesas de direitos humanos relataram que as RSF prenderam mais de 5 mil pessoas na capital Cartum. Os detidos estão sendo mantidos em condições degradantes e desumanas, sem acesso a necessidades básicas essenciais para a dignidade humana.
De acordo com diversas fontes, incluindo o Tribunal Penal Internacional e o Departamento de Estado dos Estados Unidos, há relatos de que membros das SAF e das RSF cometeram genocídio, crimes contra a humanidade e crimes de guerra no Sudão. Além disso, os relatórios mencionam que as RSF e milícias aliadas cometeram crimes de guerra ao atacarem com base na etnia as comunidades Masalit no Sudão e na fronteira com o Chade. Especialistas em estudos do Oriente Médio e Norte da África, consultados pelo Comitê, destacaram relatórios de que ambas as partes também são responsáveis por uma série de abusos generalizados contra detidos, incluindo: condições desumanas, detenções ilegais e arbitrárias, direcionamento étnico, violência sexual, assassinatos e uso de reféns como escudos humanos.
Os especialistas consultados pelo Comitê observaram que a designação da RSF pela Meta como uma organização perigosa levou à limitação da disseminação de informações pela organização, incluindo narrativas prejudiciais. No entanto, essa designação também incentivou as RSF a explorar outras táticas para compartilhar informações, como recorrer ao uso de páginas e contas pessoais não oficiais, inclusive para publicar conteúdo sobre detidos. Assim, tornou-se mais difícil para os observadores monitorarem ou combaterem efetivamente as atividades do grupo. Os especialistas também observaram que a designação das RSF contribuiu para a assimetria de informações e dificultou o acesso às informações para os civis. Por exemplo, as pessoas provavelmente receberiam menos atualizações das RSF sobre as condições de segurança em determinadas áreas por meio das plataformas da Meta (consultar comentário público do Civic Media Observatory, PC-24020).
Os civis sudaneses e a mídia dependem das plataformas de rede social, especialmente o Facebook, para obter informações importantes e atualizações sobre desenvolvimentos sociais, políticos, militares e humanitários e disseminá-las para fora do Sudão, para encontrar rotas de segurança dentro do país ou para fugir do Sudão, para obter informações cruciais sobre operações militares ou surtos violentos a fim de entender as ações militares em determinados locais e procurar abrigo ou refúgio dessas ações (consultar comentário público do Civic Media Observatory, PC-24020), para procurar ajuda humanitária e médica e para tomar conhecimento sobre reféns e prisioneiros de guerra.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação da pessoa que denunciou previamente o conteúdo que estava ativo (Artigo 2, Seção 1 do Estatuto; e Artigo 3, Seção 1 dos Regulamentos Internos).
De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, e a decisão é vinculante para a empresa, nos termos do Artigo 4 do Estatuto. A empresa também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, de acordo com o artigo 4 do Estatuto. As decisões do Comitê podem incluir sugestões não vinculativas às quais a Meta deve responder, de acordo com a Seção 4 do Artigo 3 e 4 Artigo 4 do Estatuto. Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
4. Fontes de autoridade e orientação
Os seguintes padrões e as decisões precedentes fundamentaram a análise do Comitê nesse caso:
I. Decisões do Comitê de Supervisão
- Citação nazista
- Gabinete de Comunicações da Região do Tigré
- Vídeo de prisioneiros de guerra armênios
- Preocupação de Punjab com a RSS na Índia
- Isolamento de Öcalan
- Negação do Holocausto
- Publicação exibindo armas ligada ao conflito no Sudão
- Parecer consultivo sobre política do Uso do termo “shaheed” em referência a indivíduos designados como perigosos
II. Políticas de Conteúdo da Meta
A análise do Comitê foi fundamentada pelo compromisso da Meta com o valor "Voz", que a empresa descreve como "primordial", e seus valores de "Segurança", "Privacidade" e "Dignidade".
Após o Comitê selecionar esse caso para análise, a Meta removeu o conteúdo por violar a Política sobre Organizações e Indivíduos Perigosos ao apoiar uma entidade designada. O conteúdo também violou a política dobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas ao mostrar prisioneiros de guerra identificáveis em um conflito armado. Como a Meta informou ao Comitê em casos anteriores, quando o conteúdo viola várias políticas, a empresa age com base na violação mais grave. Nesse caso, a Meta considerou a violação da Política sobre Organizações e Indivíduos Perigosos como a mais grave.
Organizações e indivíduos perigosos
De acordo com o fundamento da Política sobre Organizações e Indivíduos Perigosos, em um esforço para prevenir e impedir danos no mundo real, a Meta não permite a presença de organizações ou indivíduos que proclamam uma missão violenta ou que estejam envolvidos em violência em suas plataformas. A Meta avalia estas entidades com base no seu comportamento tanto online como offline, mais significativamente, na sua ligação com a violência. Quando o conteúdo desse caso foi publicado, a política proibia "elogios, apoio substancial e representação" de entidades designadas.
O "apoio substancial" incluía "canalizar informações ou recursos, como comunicações oficiais, em nome de uma entidade ou evento designado", ao "citar diretamente uma entidade designada sem [uma] legenda que condene, discuta de forma neutra ou faça parte de uma reportagem jornalística."
Em 29 de dezembro de 2023, a Meta atualizou a linha da política para "apoio substancial". A versão atualizada determina que a Meta remova "glorificação, apoio e representação de entidades de Nível 1". A Meta adicionou duas subcategorias: "apoio material" e "outros apoios". A regra para "canalização" agora aparece em "outros apoios"
Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas
De acordo com o fundamento da política, os Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas visam "combater danos no meio físico e comportamentos com efeito copycat" proibindo as pessoas de "facilitar, organizar, promover ou aceitar determinadas atividades prejudiciais ou criminosas direcionadas a pessoas, empresas, propriedade ou animais". Esses Padrões da Comunidade proíbem a “exposição pública: expondo a identidade de uma pessoa e colocando-a em risco de dano”. Entre os grupos protegidos contra "exposição pública", a política lista "prisioneiros de guerra, no contexto de um conflito armado".
III. Responsabilidades da Meta com os direitos humanos
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades das empresas privadas em relação aos direitos humanos. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso em respeitar os direitos humanos de acordo com os UNGPs. É significativo o fato de que os UNGPs impõem uma responsabilidade maior às empresas que operam em um contexto de conflito (“Empresas, direitos humanos e regiões afetadas por conflitos: em direção a uma maior ação”, A/75/212).
Ao analisar as responsabilidades da Meta com os direitos humanos no caso em questão, o Comitê levou em consideração as seguintes normas internacionais:
- O direito à liberdade de expressão: Artigo 19 do Pacto Internacional sobre Direitos Civis e Políticos (PIDCP, na sigla em inglês); Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011; Relatórios do Relator Especial da ONU sobre a liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/74/486 (2019); relatório do Relator Especial da ONU sobre Desinformação e liberdade de opinião e expressão durante conflitos armados, Relatório A/77/288; relatório OHCHR sobre a proteção legal internacional dos direitos humanos em conflitos armados (2011).
- O direito à vida: Artigo 6 do PIDCP.
- Direito à liberdade e à segurança pessoal: Artigo 9 do PIDCP.
- O direito de não ser submetido a tortura, tratamento desumano e degradante: Artigo 7 do PIDCP.
- O direito à privacidade: Artigo 17 do PIDCP.
- O direito de ser tratado com humanidade na prisão: Artigo 10 do PIDCP.
- Proteção de prisioneiros de guerra contra tratamento degradante e humilhante, incluindo insultos e curiosidade pública: Artigo Comum 3 das Convenções de Genebra e Protocolo Adicional II; Artigo 13, parágrafo 2, Convenção de Genebra III, Comentário à Convenção de Genebra(III), Comitê Internacional da Cruz Vermelha (CICV), 2020; Comentário geral 31, Comitê de Direitos Humanos, 2004.
5. Envios de usuários
O usuário que recorreu da decisão da empresa de manter o conteúdo afirmou que a publicação inclui informações enganosas, bem como cenas e ameaças de violência por parte das RSF na capital do Sudão, Cartum. O usuário solicitou que o conteúdo fosse removido porque representa perigo para as pessoas no Sudão.
6. Envios da Meta
A Meta explicou ao Comitê que sua decisão inicial de manter o conteúdo foi baseada no fato de que seus sistemas automatizados não priorizaram o conteúdo para análise humana. De acordo com a Central de Transparência da Meta, as denúncias são priorizadas dinamicamente para análise com base em fatores como a gravidade da violação prevista, o efeito viral do conteúdo e a probabilidade de o conteúdo violar os Padrões da Comunidade. Os relatórios que recebem de forma contínua uma classificação de prioridade mais baixa do que outros na fila serão normalmente encerrados após 48 horas Logo após a publicação do conteúdo nesse caso, três usuários do Facebook denunciaram o conteúdo quatro vezes por “terrorismo”, “discurso de ódio” e “violência”. Devido à baixa gravidade e à baixa pontuação de efeito viral, essas denúncias não foram priorizadas para análise humana e o conteúdo ficou ativo na plataforma. Um desses usuários fez uma apelação da Meta para manter o conteúdo ativo. De acordo com a empresa, essa apelação foi automaticamente encerrada devido às políticas de automação da COVID-19, que a Meta introduziu no início da pandemia em 2020 para reduzir o volume de denúncias enviadas para analistas humanos, enquanto mantinham abertas denúncias potencialmente "de alto risco" (consulte a decisão Negação do Holocausto). Quando a denúncia é encerrada automaticamente, o conteúdo não é encaminhado a especialistas no assunto ou em políticas para realizarem outra análise.
A Meta explicou que, após o Comitê selecionar esse caso, a empresa decidiu remover a publicação porque violava os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos. A Meta concluiu que a publicação de um vídeo no qual mostra um membro autodeclarado das RSF que fala sobre as atividades da organização, sem uma legenda que "condene, discuta de forma neutra ou faça parte de reportagem jornalística", o usuário violou a política de "apoio substancial" ao "canalizar informações" sobre uma entidade designada de Nível 1. Portanto, a Meta removeu o conteúdo da plataforma.
O Comitê fez 13 perguntas à Meta por escrito. As perguntas são relacionadas às medidas de monitoramento da Meta para conteúdo relacionado ao conflito no Sudão, sistemas automatizados e modelos de classificação, os processos relacionados à designação de organizações e indivíduos perigosos, a justificativa para designar as RSF como uma organização terrorista de Nível 1 e o impacto dessa decisão no acesso à informação no Sudão. Todas foram respondidas.
7. Comentários públicos
O Comitê de Supervisão recebeu 16 comentários públicos que cumpriam os termos para envio. Dez foram enviados do Oriente Médio e Norte da África, três da Europa, e um de cada uma das seguintes regiões: América Latina e Caribe, África Subsaariana e Estados Unidos e Canadá. Para ler os comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios cobriram diversos tópicos, como tratamento de reféns, detidos e civis pelas RSF, os supostos abusos e violência atribuídos às RSF na região, os riscos de expor reféns e detidos identificáveis nas redes sociais, o uso das redes sociais pelas RSF, a importância das redes sociais para os civis no Sudão, as consequências da designação das RSF pela Meta no meio informacional do Sudão, e a forma como a Meta prioriza o conteúdo para análise automatizada e humana em situações de conflito.
8. Análise do Comitê de Supervisão
O Comitê examinou se esse conteúdo deveria ser removido analisando as políticas de conteúdo, as responsabilidades e os valores de direitos humanos da Meta. Também avaliou as implicações desse caso quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
O Comitê selecionou esse caso porque ofereceu a oportunidade de explorar como as empresas de redes sociais devem respeitar o acesso às informações em países como o Sudão, onde elas podem ser essenciais durante um conflito em andamento, especialmente para civis. No entanto, as organizações perigosas também podem usar essas plataformas para promover sua missão violenta e causar danos reais.
Além disso, o caso oferece ao Comitê a oportunidade de avaliar como a Meta protege os detidos em conflitos armados em conformidade com o direito internacional humanitário. O caso se enquadra principalmente na prioridade estratégica do Comitê em Situações de Crise e Conflito, mas também aborda o Monitoramento Automatizado de Políticas e Curadoria de Conteúdo.
8.1 Conformidade com as Políticas de Conteúdo da Meta
I. Regras sobre conteúdo
Padrões da Comunidade sobre Organizações e Indivíduos Perigosos
O Comitê conclui que o conteúdo desse caso viola a Política sobre Organizações e Indivíduos Perigosos porque apoia uma organização designada como Nível 1.
A Meta informou ao Comitê que removeu o conteúdo nesse caso porque continha "apoio substancial" para uma organização terrorista de Nível 1. A empresa explicou que o apoio substancial incluía "canalizar informações ou recursos, como comunicações oficiais, em nome de uma entidade designada", ao "citar diretamente uma entidade designada sem [uma] legenda que condene, discuta de forma neutra ou faça parte de uma reportagem jornalística." Nesse caso, o vídeo mostra uma pessoa que se identifica como membro das RSF, fala sobre as atividades da RSF, as ações que serão tomadas e menciona o comandante das RSF.
Além disso, as diretrizes internas da Meta fornecem uma lista não exaustiva de exemplos de elementos escritos ou visuais que mostram apoio substancial. Dessa forma, inclui publicações em que “o conteúdo apresenta, ou afirma apresentar, um líder, porta-voz, ou um membro conhecido ou autodeclarado de uma entidade designada que fala sobre a organização ou sua causa”.
Em 29 de dezembro de 2023, a Meta atualizou a Política sobre Organizações e Indivíduos Perigosos para "apoio substancial". A versão atualizada determina que a Meta remova "glorificação, apoio e representação de entidades de Nível 1". Embora a Meta tenha substituído "apoio substancial" por "apoio", essas alterações não afetam a análise nesse caso ou como a Meta monitoraria esse conteúdo.
Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas
O Comitê considera que o conteúdo também viola os Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas.
A política da Meta proíbe a exposição da identidade de um prisioneiro de guerra durante um conflito armado. De acordo com a Meta, essa política é implementada apenas em casos de escalation e não há exceção para conteúdos que queiram aumentar a conscientização sobre prisioneiros de guerra ou condenar seu tratamento. A Meta define um prisioneiro de guerra como “um membro das forças armadas que foi capturado ou que caiu nas mãos da oposição durante ou imediatamente após um conflito armado”. O Comitê entende que essa regra se aplica igualmente a conflitos armados internacionais e não internacionais.
Nesse caso, o Comitê conclui que o vídeo mostra um indivíduo identificável descrito pelos membros armados das RSF como um "prisioneiro estrangeiro" associado às SAF, o principal oponente das RSF no conflito em curso no Sudão. Portanto, o conteúdo viola a política e deve ser removido.
8.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos
Liberdade de expressão (Artigo 19 PIDCP)
O artigo 19 do ICCPR prevê ampla proteção à expressão, inclusive à expressão política. Esse direito inclui a “liberdade de procurar, receber e difundir informações e ideias de qualquer natureza”. Esses direitos devem ser respeitados durante conflitos armados ativos e devem continuar atendendo as responsabilidades de direitos humanos da Meta, juntamente com as regras complementares e de reforço mútuo do direito internacional humanitário que se aplicam durante esses conflitos (Comentário Geral 31, Comitê de Direitos Humanos, 2004, parágrafo 11; Comentário à UNGPs, Princípio 12; consulte também o relatório do Relator Especial da ONU sobre Desinformação e liberdade de opinião e expressão durante conflitos armados, Relatório A/77/288, parágrafos. 33-35 (2022); e relatório OHCHR sobre a proteção legal internacional dos direitos humanos em conflitos armados (2011) na página 59).
O Relator Especial da ONU sobre a liberdade de expressão declarou que durante um conflito armado, as pessoas estão em seu estado mais vulnerável e com maior necessidade de informações precisas e confiáveis para garantir sua própria segurança e bem-estar. No entanto, é precisamente nessas situações que sua liberdade de opinião e expressão, que inclui “a liberdade de buscar, receber e transmitir informações e ideias de todos os tipos, é mais limitada pelas circunstâncias da guerra e pelas ações das partes no conflito e outros agentes para manipular e restringir informações para objetivos políticos, militares e estratégicos” (Relatório A/77/288, parágrafo 1). O Comitê reconhece a importância de garantir que as pessoas possam compartilhar livremente informações sobre conflitos, sobretudo quando as redes sociais são a principal fonte de informações e, ao mesmo tempo, garantir que o conteúdo capaz de alimentar ou incitar mais violência no meio físico seja removido.
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade conforme a legislação internacional sobre direitos humanos exige que as regras usadas para limitar a expressão sejam claras e acessíveis (Comentário Geral N.º 34, parágrafo 25). As restrições à expressão devem ser formuladas com precisão suficiente para permitir que os indivíduos regulem sua conduta em conformidade (Ibid.). No caso da Meta, a empresa deve orientar os usuários sobre quais conteúdos são e não são permitidos na plataforma. Além disso, as regras que restringem a expressão “podem não conceder discrição irrestrita aos encarregados de [sua] execução” e devem “fornecer orientação suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são adequadamente restritos e quais não são,” (A/HRC/38/35, parágrafo 46).
Organizações e indivíduos perigosos
O Relator Especial da ONU para a liberdade de expressão demonstrou preocupação com as regras das plataformas de redes sociais que proíbem “elogios” e “apoio”, considerando os termos "excessivamente vagos” (A/HRC/38/35, parágrafo 26). O Comitê criticou anteriormente a falta de clareza na Política sobre Organizações e Indivíduos Perigosos. A Meta não compartilha publicamente a lista de entidades que designa segundo essa política. A empresa explica que opta por designar entidades que foram identificadas pelo governo dos Estados Unidos como Organizações Terroristas Estrangeiras (FTOs, na sigla em inglês) ou Terroristas Globais Especialmente Designados (SDGTs, na sigla em inglês). Embora a lista completa de designações terroristas de Nível 1 da Meta seja criada pela empresa e vá além das designações dos EUA, o Comitê entende que uma parte substancial das entidades terroristas de Nível 1 designadas pela Meta está nas listas de FTOs e SDGTs. Embora as listas do governo dos EUA sejam públicas, os Padrões da Comunidade da Meta apenas mencionam as tabelas de FTOs e SDGTs e não fornecem um link para listas do governo dos EUA. Portanto, o Comitê recomenda que a Meta crie um hiperlink para as listas de Organizações Terroristas Estrangeiras dos EUA e Terroristas Globais Especialmente Designados em seus Padrões da Comunidade para maior transparência e clareza aos usuários.
Entretanto, nesse caso, as RSF não foram designadas pelo governo dos Estados Unidos, o que significa que o público não estaria ciente de que a Meta designou uma das partes desse conflito. A falta de clareza nas designações pode deixar o público sem saber se o conteúdo publicado tem potencial de violação. Na decisão Citação Nazista, o Comitê recomendou que a Meta “forneça uma lista pública das organizações e indivíduos classificados como "perigosos" segundo os Padrões da Comunidade de Organizações e indivíduos perigosos”. A Meta se recusou a implementar essa recomendação após realizar uma avaliação de viabilidade.
O Comitê está preocupado que, dada a situação no Sudão, a designação das RSF como uma organização terrorista de Nível 1, aliada à falta de transparência sobre essa designação, signifique que os sudaneses possam não estar cientes de que uma das partes do conflito está proibida de usar a plataforma. Essa situação pode ter um impacto desproporcional no acesso à informação no Sudão, sem aviso prévio aos usuários. O Comitê acredita que a Meta deveria ser mais transparente ao tomar decisões nas regiões afetadas por conflitos armados, com espaço cívico restrito, onde fontes confiáveis de informação disponíveis para civis são limitadas, a liberdade de imprensa está sob ameaça e a sociedade civil é frágil. Considerando a influência de facto e o controle das RSF sobre partes do país (consulte a seção 2), bem como a dependência dos civis sudaneses do Facebook para acessar informações essenciais de segurança e humanitárias, inclusive canais de comunicação das RSF, o Comitê conclui que a falta de transparência da Meta ao designar as partes do conflito pode resultar em consequências imprevisíveis para a população local, colocando sua segurança física em risco.
No Parecer Consultivo sobre a Política de Referência a Indivíduos Designados como "Shaheed", o Comitê aborda essa questão de transparência em torno das listas de entidades designadas pela Meta. Na recomendação número 4, o Comitê sugere que a Meta "explique com mais detalhes o procedimento pelo qual entidades e eventos são designados". A Meta deveria também “publicar informações agregadas sobre o número total de entidades em cada nível da sua lista de designações, bem como o número que foi adicionado e removido no último ano” (recomendação nº 4 Referência a Indivíduos Designados como “Shaheed”). O Comitê reitera esta recomendação, pedindo mais transparência.
Para uma minoria do Comitê, embora a Meta não tenha anunciado publicamente a designação das RSF, os abusos cometidos pelas RSF são amplamente conhecidos, como alegados crimes de guerra e crimes contra a humanidade, e denunciados extensivamente à medida que o conflito se intensificou (consulte seção 2). Considerando a consciência pública desses abusos, é razoável que os usuários esperem que compartilhar conteúdo divulgado pelas RSF possa violar os Padrões da Comunidade da Meta.
Levando em conta o contexto específico no Sudão, o Comitê determina que a regra aplicada nesse caso, que proíbe "apoio substancial" ao "canalizar informações ou recursos, inclusive comunicações oficiais, em nome de uma entidade ou evento designado", é claramente explicada pela Política sobre Organizações e Indivíduos Perigosos da Meta, sendo acessível aos usuários e, portanto, atendendo o teste de legalidade. O Comitê chega à mesma conclusão para as regras de política atualizadas relacionadas ao "apoio" publicadas pela Meta em 29 de dezembro de 2023, que substituíram "apoio substancial" por "apoio". O Comitê observa que, embora a Meta tenha adicionado duas subcategorias, "apoio material" e "outro apoio", com a política para "canalizar" agora aparecendo sob "outro apoio", a regra em si não sofreu alterações substanciais.
Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas
O Comitê determina que a regra da Meta que proíbe "a exposição pública de prisioneiros de guerra" é clara o bastante e facilmente compreensível para os usuários, atendendo o princípio da legalidade.
II. Objetivo legítimo
Qualquer limitação da expressão deve defender um dos objetivos legítimos listados no PIDCP, que incluem segurança nacional, ordem pública e o respeito aos direitos de terceiros.
De acordo com o fundamento, a Política sobre Organizações e Indivíduos Perigosos tem como objetivo “prevenir e impedir danos no mundo real, a Meta não permite a presença de organizações ou indivíduos que proclamam uma missão violenta ou que estejam envolvidos em violência”. O Comitê já reconheceu anteriormente que a Política sobre Organizações e Indivíduos Perigosos busca proteger os direitos das pessoas, incluindo o direito à vida, à segurança e à igualdade e não discriminação (Artigo 19, parágrafo 3 do PIDCP, consulte também as decisões Questão de Punjab com a RSS na Índia e Citações Nazistas). Em uma decisão anterior, o Comitê já tinha concluído que o objetivo da Política sobre Organizações e Indivíduos Perigosos de evitar danos no meio físico é um objetivo legítimo (consulte a decisão Isolamento de Öcalan).
A Política sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas atende o objetivo legítimo de proteção dos direitos de terceiros (Artigo 19, parágrafo 3, PIDCP), incluindo o direito à vida, privacidade e proteção contra tortura ou tratamento cruel, desumano ou degradante. Nesse caso, a legitimidade do objetivo relacionado à proibição de retratar prisioneiros de guerra identificáveis é dada pelas regras do direito internacional humanitário que apelam à proteção da vida, privacidade e dignidade de prisioneiros de guerra (Artigo 3, Convenção de Genebra; consulte também Vídeo de Prisioneiros de Guerra Armênios) e o fato de que as hostilidades no Sudão foram classificadas como um conflito armado (consulte seção 2).
III. Necessidade e proporcionalidade
Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; [e] deve ser proporcional ao interesse a ser protegido” (Comentário geral nº 34, parágrafo 34). As empresas de redes sociais devem considerar uma série de possíveis respostas a conteúdo problemático além da sua exclusão, para garantir que as restrições sejam ajustadas de forma restrita (A/74/486, parágrafo 51).
Como anteriormente destacado pelo Comitê na decisão do Gabinete de Comunicações da Região do Tigré, os UNGPs impõem uma maior responsabilidade às empresas que operam em ambientes de conflito. Na decisão do Vídeo de Prisioneiros de Guerra Armênios o Comitê concluiu que “na situação de conflito armado, a análise da liberdade de expressão do Comitê é informada pelas regras mais precisas do direito internacional humanitário”.
Organizações e indivíduos perigosos
O Comitê conclui que a remoção do conteúdo nesse caso é necessária e adequada. É essencial proibir conteúdo que inclui citações diretas de um membro autodeclarado de uma organização designada, especialmente quando essa organização está envolvida em violência generalizada contra civis. Isso deve ocorrer especialmente quando a publicação não inclui uma legenda que condene, discuta de forma neutra ou indique que a publicação faz parte de uma reportagem jornalística. Nesse caso, a publicação compartilha um vídeo que mostra um membro das RSF descrevendo as atividades e planos do grupo, inclusive ameaças contra qualquer pessoa que se oponha ou desafie as RSF. Divulgar essa informação em nome de uma organização designada no Facebook, especialmente dadas as circunstâncias do conflito armado no Sudão e o histórico das RSF em violência generalizada, crimes de guerra e crimes contra a humanidade (consulte a seção 2), poderia resultar em um maior risco de danos no mundo real. Nessas circunstâncias, nenhuma medida além da remoção do conteúdo resolverá o risco de dano, e a remoção é o meio menos restritivo de proteger os direitos de terceiros.
O Comitê está preocupado com o fato de a Meta não ter conseguido remover esse conteúdo imediatamente ou logo após sua publicação, tomando medidas somente depois que o Comitê selecionou esse caso, dois meses depois. A Meta informou ao Comitê que, apesar de ter recebido várias denúncias de usuários, seus sistemas automatizados deram uma pontuação baixa a esse conteúdo, o que significa que não foi priorizado para análise humana. Os sistemas automatizados da Meta usam diversos recursos para determinar ação a ser tomada em relação a um conteúdo, como, por exemplo, classificadores de aprendizado de máquina que avaliam a probabilidade de uma violação, a gravidade potencial da violação e o efeito viral do conteúdo. Caso sejam adicionados a uma fila para análise, esses recursos também podem ser usados para priorizar ou classificar o pedido em que o conteúdo será analisado. De acordo com a Meta, o conteúdo nesse caso não recebeu prioridade devido aos sistemas da empresa não detectarem uma violação no vídeo e preverem que o conteúdo teria um baixo número de visualizações, sendo assim, foi automaticamente encerrado sem análise após 48 horas. No que diz respeito à classificação desse vídeo, dois classificadores de problemas cruzados geraram pontuações previstas de classificação de gravidade, e ambos os classificadores produziram pontuações baixas. O Comitê está preocupado com os erros de detecção automatizada da Meta nesse caso, pois pode indicar problemas maiores, principalmente, falhas dos classificadores ao identificar conteúdo que apoia as RSF, uma entidade designada sem permissão para ter presença na plataforma e um membro que se identifica como pertencente à entidade designada, sem uma legenda que condene, discuta de forma neutra ou faça parte de uma reportagem jornalística. Em resposta à pergunta do Comitê sobre o que causou a falha dos classificadores em detectar a violação nesse caso, a Meta afirmou que não podia identificar exatamente o que contribuiu para esse conteúdo receber uma pontuação baixa.
Portanto, o Comitê conclui que a Meta deve proceder com as medidas necessárias para aprimorar sua detecção automatizada e priorização de conteúdo, realizando uma auditoria nos dados de treinamento usados no seu classificador de compreensão de conteúdo de vídeo para avaliar se possui exemplos suficientes de conteúdo que apoiam organizações designadas no contexto de conflitos armados, incluindo diferentes idiomas, dialetos, regiões e conflitos. A Meta deve garantir que essa alteração permita que mais conteúdo seja encaminhado para análise humana. Provavelmente será necessário ampliar a equipe de análise humana para garantir que a Meta possa lidar de forma eficaz com o aumento no volume de conteúdo que precisa ser analisado após o início de um conflito. Essa adaptação permitirá que a empresa ajuste como seus sistemas automatizados lidam com desafios relacionados a conflitos armados, o que melhora a identificação e o tratamento de conteúdo envolvendo organizações perigosas nesses contextos e aumenta a eficácia de suas medidas de monitoramento.
Além disso, o Comitê conclui que a Meta não estabeleceu um mecanismo sustentável para aplicar de forma correta suas políticas de conteúdo durante a guerra no Sudão. No caso da Publicação exibindo armas ligada ao conflito no Sudão, a Meta explicou que não criou um Centro de Operações de Integridade para o Sudão, que é usado para responder a ameaças em tempo real, porque a empresa era capaz de "lidar com os riscos de conteúdo identificados por meio dos processos atuais". A Meta reiterou uma posição semelhante nesse caso. O Comitê anteriormente recomendou que para “melhorar a aplicação de suas políticas de conteúdo durante períodos de conflito armado, a Meta deveria avaliar a viabilidade de estabelecer um mecanismo interno sustentável que forneça o know-how, a capacidade e a coordenação necessários para analisar e responder a conteúdos de maneira eficaz durante todo o conflito (consulte a decisão Gabinete de Comunicações da Região do Tigré, recomendação nº 2)”. Em agosto de 2023, a Meta informou ao Comitê que definiu “uma equipe para lidar com a coordenação de crises e oferecer supervisão operacional dedicada ao longo do ciclo de vida de crises iminentes e emergentes. Já atendemos aos requisitos de pessoal e estamos agora no processo de expandir essa equipe para suas responsabilidades operacionais antes, durante e após eventos e eleições de alto risco. Todas as logísticas operacionais para a equipe foram estabelecidas, e a equipe estará totalmente ativa em todas as regiões nos próximos meses. Continuaremos a melhorar a estrutura de execução à medida que encontrarmos incidentes de conflito e avaliarmos a eficácia desta estrutura. Agora consideramos esta recomendação completa e não teremos mais atualizações.” No entanto, em resposta à pergunta do Comitê, a Meta observou que não estabeleceu esse mecanismo para o conflito no Sudão, embora a empresa considere a recomendação concluída.
Padrões da Comunidade sobre Coordenação de Atos Danosos e Incentivo à Prática de Atividades Criminosas
A necessidade e proporcionalidade da remoção desse conteúdo de acordo com a política de exposição pública de prisioneiros de guerra são descritas pelas regras mais específicas do direito humanitário internacional (consulte Vídeo dos Prisioneiros de Guerra Armênios). O Artigo Comum 3 das Convenções de Genebra proíbe "ataques à dignidade pessoal, em particular tratamento humilhante e degradante" de detidos em conflitos armados internacionais e não internacionais. O Artigo 13 da Convenção de Genebra (III) proíbe atos de violência ou intimidação contra prisioneiros de guerra, bem como a exposição deles a insultos e curiosidade pública. Apenas em algumas circunstâncias limitadas, o direito internacional humanitário permite a divulgação pública de imagens de prisioneiros de guerra. Como observa o CICV em suas orientações para a mídia, se houver "interesse público convincente" ou "interesse vital" do prisioneiro, as imagens que retratem prisioneiros de guerra podem ser excepcionalmente divulgadas desde que a dignidade do prisioneiro retratado seja protegida. Quando um prisioneiro é mostrado em situações humilhantes ou degradantes, a identidade deve ser ocultada "por meio de métodos apropriados, como borrões, pixelização ou outra forma de ocultação de rostos e crachás" (Comentário do CICV sobre o Artigo 13, p. 1627). Embora o Comitê reconheça que há ferramentas online disponíveis para anonimizar conteúdo sensível dos prisioneiros de guerra, a Meta não oferece atualmente opção de ocultar os rostos dos prisioneiros de guerra em seus vídeos publicados na plataforma.
Essas proibições do direito internacional humanitário, e as exceções cuidadosamente definidas, têm o objetivo de proteger os detidos em conflito. Como o Comitê afirmou anteriormente no caso do Vídeo dos Prisioneiros de Guerra Armênios, a proibição do compartilhamento de imagens de prisioneiros de guerra "está de acordo com os objetivos consagrados no direito internacional humanitário" e "onde o conteúdo revela a identidade ou localização de prisioneiros de guerra, a remoção geralmente será proporcional, considerando a gravidade dos danos que possam resultar desse conteúdo".
Nesse caso, a remoção da publicação foi necessária considerando as regras do direito internacional humanitário e os riscos presentes no conflito no Sudão. Como detalhado na seção 2 acima, desde o início do conflito, as RSF detiveram milhares de civis e membros das forças da SAF ou suspeitos de fornecer apoio a eles. Há denúncias de violações generalizadas do direito internacional humanitário, em que detidos foram mantidos em condições desumanas e degradantes, maltratados e até mortos. Nessas circunstâncias, e na ausência de uma razão de direitos humanos convincente que permita que esse conteúdo permaneça na plataforma, a remoção é necessária e adequada para garantir a dignidade e segurança do prisioneiro.
O Comitê está preocupado, dada a gravidade dos danos potenciais e os riscos aumentados em um conflito armado, que esse conteúdo não tenha sido identificado e removido por violar a regra da Meta contra a exposição (revelação da identidade de) prisioneiros de guerra. A falta de monitoramento provavelmente ocorreu porque a regra que proíbe a exposição de prisioneiros de guerra em um conflito armado é atualmente aplicada apenas em caso de escalation, ou seja, moderadores de conteúdo em grande escala não podem aplicar a política. No caso do Vídeo dos Prisioneiros de Guerra Armênios, o Comitê afirmou que "a regra que exige contexto adicional para aplicação, e, portanto, requer escalation para equipes internas antes de ser aplicada, é necessária, porque determinar se uma pessoa retratada é um prisioneiro de guerra identificável no contexto de um conflito armado requer consideração especializada". No entanto, desde a publicação da decisão, o Comitê aprendeu que os moderadores em grande escala da Meta não são instruídos ou autorizados a identificar conteúdo que viole as políticas de escalation da empresa, como a regra em questão nesse caso. Em outras palavras, a regra só pode ser aplicada se o conteúdo for comunicado às equipes exclusivas de escalation da Meta por outros meios, por exemplo, Parceiros Confiáveis ou ampla cobertura da imprensa.
Na realidade, isso indica que muitos conteúdos que identificam prisioneiros de guerra provavelmente permanecem na plataforma. Dessa forma, suscita outras preocupações sobre a precisão da aplicação da detecção automatizada da Meta, já que as políticas que se baseiam apenas em escalations provavelmente não geram um número adequado de decisões humanas para treinar um classificador automatizado.
Portanto, embora o Comitê considere que a regra que proíbe a exposição de prisioneiros de guerra em um conflito armado seja necessária, o Comitê considera que a aplicação da política pela Meta não é adequada para cumprir a responsabilidade da empresa de respeitar os direitos dos prisioneiros de guerra. Para a proteção eficaz dos direitos dos detidos de acordo com o direito internacional humanitário, a empresa deve desenvolver uma solução escalonável para adotar a política. A Meta deve estabelecer um processo ou protocolo especializado para identificar proativamente tal conteúdo durante um conflito armado.
Direito ao recurso
A Meta informou ao Comitê que a apelação nesse caso foi encerrada automaticamente devido às políticas de automação da COVID-19 da Meta, o que significa que o conteúdo permaneceu na plataforma. No caso Negação do Holocausto, o Comitê recomendou à Meta que "confirme publicamente se encerrou completamente todas as políticas de automação da COVID-19 implementadas durante a pandemia da COVID-19". O Comitê está preocupado que as políticas de automação da COVID-19 da Meta, justificadas pela redução temporária na capacidade de análise humana devido à pandemia, ainda estejam em vigor e reitera sua recomendação, instando a Meta a explicar publicamente quando não terá mais capacidade de análise humana reduzida.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de manter o conteúdo.
10. Recomendações
Aplicação
1. Para garantir a proteção eficaz dos detidos nos termos do direito internacional humanitário, a Meta deve desenvolver uma solução escalonável para aplicar a Política sobre Coordenação de Atos Danos e Incentivo à Prática de Atividades Criminosas que proíbe a exposição de prisioneiros de guerra no contexto de conflitos armados. A Meta deve estabelecer um protocolo para a duração de um conflito que defina uma equipe especializada para priorizar e identificar o conteúdo que expõe publicamente prisioneiros de guerra.
O Comitê considerará esta recomendação implementada quando a Meta compartilhar com ele os dados sobre a eficácia desse protocolo na identificação de conteúdo que expõe prisioneiros de guerra em contextos de conflito armado e fornecer atualizações sobre a eficácia desse protocolo a cada seis meses.
2. Para aprimorar sua detecção automatizada e a priorização de conteúdo que possa violar a Política sobre Organizações e Indivíduos Perigosos para análise humana, a Meta deve auditar os dados de treinamento usados no seu classificador de compreensão de conteúdo de vídeo para avaliar se possui exemplos suficientes de conteúdo que apoiam organizações designadas no contexto de conflitos armados, incluindo diferentes idiomas, dialetos, regiões e conflitos.
O Comitê considerará esta recomendação implementada quando a Meta fornecer ao Comitê os resultados detalhados de sua auditoria e as melhorias necessárias para a implementação da empresa.
3. Para fornecer mais clareza aos usuários, a Meta deve inserir hiperlinks para as Organizações Terroristas Estrangeiras dos EUA e Terroristas Globais Especialmente Designados em seus Padrões da Comunidade, em que essas listas são mencionadas.
O Comitê considerará que essa recomendação foi implementada quando a Meta fizer essas alterações nos Padrões da Comunidade.
Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões dele não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre esse caso, uma pesquisa independente foi solicitada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A Memetica, uma organização dedicada à pesquisa de código aberto sobre tendências de redes sociais, também forneceu análises. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5 mil cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas