Comitê de Supervisão anuncia novos casos sobre o conflito Israel-Hamas para análise expressa
7 de Dezembro de 2023
Hoje, o Comitê de Supervisão anunciou que tratará de dois casos relacionados ao conflito entre Israel e Hamas. Esta análise será realizada de forma expressa. As decisões serão publicadas o mais breve possível, mas em até 30 dias.
O Regulamento Interno do Comitê de Supervisão prevê uma análise expressa em “circunstâncias excepcionais, inclusive quando o conteúdo pode gerar consequências urgentes no mundo real”. O Comitê entende que a situação em Israel e Gaza atingiu seu limite. Será a primeira vez que o Comitê usará o processo de análise expressa.
Com os acontecimentos recentes no Oriente Médio, surgiram questionamentos sobre a forma como as redes sociais devem fazer a moderação de conteúdo em situações de conflito. Nas semanas após o início do conflito, o Comitê registrou um aumento de quase três vezes na média diária de apelações marcadas pelos usuários relacionadas à região do Oriente Médio e Norte da África.
Após analisar as apelações, o Comitê selecionou dois casos que tratavam de questões importantes relacionadas ao conflito e que representavam problemas maiores que teriam impacto para os usuários do Facebook e Instagram.
Hospital Al-Shifa
Apelação do usuário para restaurar conteúdo do Instagram
O primeiro conteúdo incluía um vídeo que mostrava aparentemente um cenário após o ataque a um pátio próximo ao Hospital Al-Shifa na cidade de Gaza. O conteúdo, publicado no Instagram no início de novembro mostrava pessoas, inclusive crianças, feridas ou mortas, deitadas no chão e/ou chorando. A legenda em árabe e inglês abaixo do vídeo afirmava que o hospital foi alvo da “usurping occupation” (ocupação usurpadora), referindo-se ao exército israelense, e foram marcadas as organizações de direitos humanos e notícias. Em um primeiro momento, a Meta removeu a publicação por violar suas regras sobre conteúdo violento e explícito. No entanto, devido à seleção desse caso pelo Comitê, a Meta reverteu sua decisão original e restaurou o conteúdo com uma tela de aviso "marcar como perturbador".
Reféns sequestrados de Israel
Apelação de um usuário para restaurar conteúdo no Facebook
No segundo caso, uma mulher implorava aos sequestradores para não matá-la enquanto era feita refém e levada em uma motocicleta. A mulher estava sentada na parte traseira da motocicleta, estendendo as mãos e implorando por sua vida. Depois, o vídeo mostrava um homem, aparentemente outro refém, sendo conduzido por sequestradores. Na legenda, o usuário que publicou o conteúdo descreveu os sequestradores como militantes do Hamas e encorajava as pessoas a assistir ao vídeo para "compreender melhor" o horror que Israel enfrentou no dia 7 de outubro de 2023. O usuário publicou o conteúdo cerca de uma semana após os ataques de 7 de outubro. Conforme a Política sobre Organizações e Indivíduos Perigosos, a Meta classificou o Hamas como uma organização perigosa de Nível 1 e os ataques de 7 de outubro como um ataque terrorista.
A Meta removeu a publicação, alegando que violava duas políticas. Primeiro, suas regras sobre violência e incitação, que foram temporariamente alteradas para incluir conteúdos que identificam claramente reféns, mesmo que seja feito com o propósito de condenar ou conscientizar sobre a situação. Segundo, a Política sobre Organizações e Indivíduos Perigosos da Meta proíbe categoricamente imagens de terceiros que retratem o momento de ataques terroristas designados a vítimas visíveis. Contudo, nas semanas seguintes aos ataques de outubro, a Meta revisou suas diretrizes de política em resposta às tendências na divulgação e compartilhamento de vídeos de sequestros de reféns. Como resultado, a Meta reverteu sua decisão inicial neste caso, restaurando o conteúdo com uma tela de aviso.
O que acontece em seguida?
Um painel de membros do Comitê analisará agora esses casos e divulgará decisões sobre a permissão do conteúdo no Facebook ou Instagram. A Meta deverá cumprir essas decisões.
Devido a restrições de tempo, o Comitê não pode analisar comentários públicos em casos de análise expressa. As decisões sobre esses casos serão publicadas no site do Comitê em até 30 dias a partir deste anúncio.
Nota: o Comitê de Supervisão é uma organização independente que analisa as decisões da Meta de remover ou manter o conteúdo no Facebook e Instagram em um número limitado de casos emblemáticos. O Comitê analisa e, quando necessário, reverte as decisões da empresa.