Nova decisão destaca por que o uso isolado de "Do Rio para o Mar" não deve ocasionar remoção do conteúdo
4 de Setembro de 2024
O Conselho também ressalta a importância do acesso aos dados para o monitoramento independente da moderação da Meta
Após analisar três casos envolvendo diferentes trechos de conteúdo do Facebook que incluíam a frase "From the River to the Sea" (Do rio ao mar), o Comitê concluiu que eles não violaram as regras da Meta sobre discurso de ódio, violência e incitação ou organizações e indivíduos perigosos. Especificamente, os três itens de conteúdo apresentam sinais contextuais de solidariedade aos palestinos, mas nenhuma linguagem que incite à violência ou à exclusão. Eles também não glorificam nem fazem referência ao Hamas, uma organização considerada perigosa pela Meta. Ao defender as decisões da Meta de manter o conteúdo, a maioria do Comitê observa que a frase tem vários significados e é usada pelas pessoas de diversas maneiras e com diferentes intenções. Uma minoria, no entanto, acredita que, como a frase aparece na atualização do estatuto do Hamas de 2017 e devido aos ataques de 7 de outubro, seu uso em uma publicação deve ser considerado como enaltecimento de uma entidade designada, a menos que haja sinais claros em contrário.
Esses três casos destacam as tensões entre o valor "Voz" da Meta e a necessidade de proteger a liberdade de expressão, especialmente o discurso político durante conflitos, e os valores de segurança e dignidade da empresa visando proteger as pessoas contra intimidação, exclusão e violência. O conflito atual e contínuo que se seguiu ao ataque terrorista do Hamas em outubro de 2023 e às operações militares subsequentes de Israel levou a protestos em todo o mundo e a acusações contra ambos os lados por violação do direito internacional. Igualmente relevante é o aumento do antissemitismo e da islamofobia, não apenas nesses casos, mas também no uso geral de "From the River to the Sea" (Do rio ao mar) nas plataformas da Meta. Esses casos ressaltaram novamente a importância do acesso aos dados para avaliar efetivamente a moderação de conteúdo da Meta durante conflitos, bem como a necessidade de um método para rastrear a quantidade de conteúdo que ataca pessoas com base em uma característica protegida. As recomendações do Comitê determinam que a Meta garanta que sua nova Biblioteca de Conteúdo substitua com eficácia o CrowdTangle e que implemente totalmente uma recomendação do Relatório de Devida Diligência em Direitos Humanos da BSR sobre os Impactos da Meta em Israel e na Palestina.
Sobre os casos
No primeiro caso, um usuário do Facebook comentou em um vídeo publicado por outro usuário. A legenda do vídeo incentiva as pessoas a "speak up" (se manifestarem) e inclui hashtags como “#ceasefire” (cessar-fogo) e “#freepalestine” (Palestina livre). O comentário do usuário inclui a frase "FromTheRiverToTheSea" (Do rio ao mar) em forma de hashtag, hashtags adicionais como "#DefundIsrael" (Parem de financiar Israel) e emojis de coração nas cores da bandeira palestina. Visualizado cerca de 3 mil vezes, o comentário foi denunciado por quatro usuários, mas essas denúncias foram automaticamente encerradas porque os sistemas automatizados da Meta não as priorizaram para análise humana.
No segundo caso, o usuário do Facebook publicou o que provavelmente é uma imagem gerada de fatias de melancia flutuantes que formam as palavras da frase, ao lado de "Palestine will be free" (A Palestina será livre). Vista cerca de 8 milhões de vezes, essa publicação foi denunciada por 937 usuários. Algumas dessas denúncias foram avaliadas por moderadores humanos, que concluíram que a publicação não violava as regras da Meta.
No terceiro caso, um administrador de uma Página do Facebook compartilhou novamente uma publicação de uma organização comunitária canadense, na qual os membros fundadores declaravam apoio ao povo palestino, condenavam seu "senseless slaughter" (massacre sem sentido) e os "Zionist Israeli occupiers" (ocupantes israelenses sionistas"). Com menos de mil visualizações, essa publicação foi denunciada por um usuário, mas a denúncia foi automaticamente encerrada.
Nos três casos, os usuários fizeram apelações à Meta para remover o conteúdo, mas elas foram encerradas sem análise humana após uma avaliação por uma das ferramentas automatizadas da empresa. Após a Meta confirmar suas decisões de manter o conteúdo no Facebook, os usuários fizeram apelações ao Comitê.
Os ataques terroristas sem precedentes do Hamas contra Israel em outubro de 2023, que resultaram na morte de 1.200 pessoas e na captura de 240 reféns, foram seguidos por uma resposta militar em grande escala de Israel em Gaza, matando mais de 39 mil pessoas (até julho de 2024). Desde então, ambos os lados têm sido acusados de violar o direito internacional e de cometer crimes de guerra e crimes contra a humanidade. Isso gerou um debate mundial, grande parte do qual ocorreu nas redes sociais, incluindo o Facebook, Instagram e Threads.
Principais conclusões
O Comitê considera que não há indícios de que o comentário ou as duas publicações violaram as regras de discurso de ódio da Meta, já que não atacam o povo judeu ou israelense com incitação à violência ou exclusão, nem atacam um conceito ou instituição associada a uma característica protegida que possa levar à violência iminente. Em vez disso, os três itens de conteúdo apresentam sinais contextuais de solidariedade aos palestinos, nas hashtags, na representação visual ou nas declarações de apoio. Eles também não violam as regras de violência e incitação nem a Política sobre Organizações e Indivíduos Perigosos da Meta, uma vez que não contêm ameaças de violência ou outros danos físicos, nem glorificam o Hamas ou suas ações.
Ao tomar sua decisão, a maioria do Comitê observa que a frase "From the River to the Sea" (Do rio ao mar) tem vários significados. Embora possa ser entendida por alguns como um incentivo e uma legitimação do antissemitismo e da eliminação violenta de Israel e de seu povo, ela também é frequentemente usada como um apelo político à solidariedade, à igualdade de direitos e à autodeterminação do povo palestino e ao fim da guerra em Gaza. Dado esse fato e conforme mostram esses casos, a frase isolada não pode ser entendida como uma incitação à violência contra um grupo com base em suas características protegidas, como defesa da exclusão de um grupo específico ou apoio a uma entidade designada (neste caso, o Hamas). O uso da frase por esse grupo terrorista com intenções e ações explícitas de eliminação violenta não torna a frase inerentemente odiosa ou violenta, considerando a variedade de pessoas que a usam de diferentes maneiras. É fundamental que fatores como contexto e identificação de riscos específicos sejam avaliados para analisar o conteúdo publicado nas plataformas da Meta como um todo. Embora a remoção de conteúdo pudesse estar alinhada com as responsabilidades de direitos humanos da Meta se a frase tivesse sido acompanhada de declarações ou sinais que incitassem à exclusão ou à violência, ou que legitimassem o ódio, essa remoção não se basearia na frase em si, mas em outros elementos violadores, na opinião da maioria do Comitê. Como a frase não possui um único significado, uma proibição generalizada de conteúdos que a incluam, uma regra padrão para remoção desses conteúdos ou até mesmo seu uso como sinal para desencadear ações de aplicação de normas ou análise, prejudicaria o discurso político protegido de maneiras inaceitáveis.
Em contraste, uma minoria do Comitê acredita que a Meta deveria adotar uma regra padrão presumindo que a frase constitui uma glorificação de uma organização designada, a menos que haja sinais claros de que o usuário não apoia o Hamas ou os ataques de 7 de outubro.
Uma pesquisa encomendada pelo Comitê para esses casos contou com a ferramenta de análise de dados CrowdTangle. O acesso aos dados da plataforma é essencial para que o Comitê e outras partes interessadas externas avaliem a necessidade e a proporcionalidade das decisões de moderação de conteúdo da Meta durante conflitos armados. Por isso, o Comitê está preocupado com a decisão da Meta de desativar a ferramenta enquanto ainda há dúvidas sobre a Biblioteca de Conteúdo da Meta, a nova ferramenta, ser um substituto adequado.
Por fim, o Comitê reconhece que, mesmo com as ferramentas de pesquisa, há uma capacidade limitada de avaliar efetivamente a extensão do aumento do conteúdo antissemita, islamofóbico, racista e de ódio nas plataformas da Meta. O Comitê aconselha que a Meta implemente integralmente uma recomendação emitida anteriormente pelo Relatório de Devida Diligência em Direitos Humanos da BSR para resolver essa questão.
Decisão do Comitê de Supervisão
O Comitê de Supervisão concorda com a decisão da Meta de manter o conteúdo nos três casos.
O Comitê recomenda que a Meta faça o seguinte:
- Garanta que pesquisadores qualificados, organizações da sociedade civil e jornalistas, que anteriormente tinham acesso ao CrowdTangle, sejam integrados à nova Biblioteca de Conteúdo da Meta em até três semanas após o envio de suas inscrições.
- Garanta que a Biblioteca de Conteúdo seja um substituto adequado para o CrowdTangle, oferecendo funcionalidade e acesso a dados iguais ou superiores.
- Implemente a recomendação n.º 16 do Relatório de Devida Diligência em Direitos Humanos da BSR sobre os Impactos da Meta em Israel e na Palestina para desenvolver um mecanismo que acompanhe a prevalência de conteúdo que ataca pessoas com base em características protegidas específicas (por exemplo, conteúdo antissemita, islamofóbico e homofóbico).
Para obter mais informações
For Arabic translation, click here.
For Hebrew translation, click here.
For Hebrew translation, click here.