Mantido
Vídeo de assédio sexual na Índia
O Comitê manteve a decisão da Meta de restaurar um vídeo publicado no Instagram de um grupo de homens agredindo uma mulher sexualmente.
O Comitê manteve a decisão da Meta de restaurar um vídeo publicado no Instagram de um grupo de homens agredindo uma mulher sexualmente. Ele concluiu que a “tolerância da Meta a conteúdo de interesse jornalístico” é inadequada para resolver casos como este em grande escala e que a empresa deveria incluir uma exceção na sua política de exploração sexual de adultos.
Sobre o caso
Em março de 2022, uma conta do Instagram que se descreve como uma plataforma que mostra a perspectiva dos dalits publicou um vídeo da Índia em que um grupo de homens agredia uma mulher. Os “dalits” já foram chamados de “intocáveis” e enfrentaram a opressão sob o sistema de castas. Não é possível ver o rosto da mulher no vídeo, e não há nudez. O texto que acompanha o vídeo afirma que uma “tribal woman” (mulher tribal) foi vítima de agressão sexual em público e que o vídeo se tornou viral. “Tribal” é uma referência aos povos indígenas da Índia, também conhecidos como adivasis.
Após um usuário denunciar a publicação, a Meta a removeu por violar a política de exploração sexual de adultos, que proíbe conteúdo que “representa, ameaça ou promove violência, agressão sexual ou exploração sexual”.
Um funcionário da Meta sinalizou a remoção do conteúdo por meio de um canal de denúncia interno ao se inteirar dele no Instagram. As equipes internas da Meta analisaram o conteúdo e aplicaram uma tolerância a conteúdo de interesse jornalístico. Isso permite que o conteúdo violador continue nas plataformas da Meta caso seja de interesse jornalístico e utilidade pública. A Meta restaurou o conteúdo e colocou uma tela de aviso que impede que menores de 18 anos vejam o vídeo. Mais tarde, a empresa encaminhou o caso ao Comitê.
Principais conclusões
O Comitê concluiu que manter esse conteúdo na plataforma com uma tela de aviso está de acordo com os valores e as responsabilidades de direitos humanos da Meta.
O Comitê reconhece que conteúdo que representa contato sexual sem consentimento pode levar a um risco significativo de danos, tanto para as vítimas quanto para o público em geral, por exemplo, incentivando os criminosos e aumentando a aceitação da violência.
Na Índia, os dalits e os adivasis, especialmente as mulheres, sofrem muita discriminação, e o crime contra eles vem aumentando. As redes sociais são um meio importante de documentar essa violência e discriminação, e o conteúdo nesse caso parece ter sido publicado para aumentar a conscientização. A publicação, portanto, tem um valor de utilidade pública significativo e conta com um alto grau de proteção conforme as normas internacionais de direitos humanos.
Como o vídeo não inclui conteúdo explícito nem nudez e a maioria do Comitê considera que a vítima não é identificável, considerou-se que os benefícios de permitir que o vídeo continue na plataforma, com uma tela de aviso, superam o risco de danos. Quando uma vítima não é identificável, o risco de dano é reduzido significativamente. A tela de aviso, que impede que menores de 18 anos assistam ao vídeo, ajuda a proteger a dignidade da vítima e protege crianças e vítimas de assédio sexual contra a exposição a conteúdo perturbador ou traumatizante.
O Comitê concorda que o conteúdo viola a política da Meta contra exploração sexual de adultos e que a tolerância a conteúdo de interesse jornalístico pode ser aplicada. No entanto, ecoando as preocupações que o Comitê levantou no caso do “Vídeo explícito do Sudão”, considera-se que a tolerância a conteúdo de interesse jornalístico é inadequada para lidar com casos como este em grande escala.
A tolerância a conteúdo de interesse jornalístico é raramente usada. No ano encerrado em 1º de junho de 2022, a Meta a aplicou apenas 68 vezes no mundo todo, número divulgado por recomendação do Comitê. Apenas uma pequena parte teve relação com a política dos Padrões da Comunidade contra exploração sexual de adultos. A tolerância a conteúdo de interesse jornalístico só pode ser aplicada pelas equipes internas da Meta. No entanto, esse caso mostra que o processo de escalar conteúdo relevante para essas equipes não é confiável. Um funcionário da Meta sinalizou a remoção do conteúdo por meio de um canal de denúncia interno ao se inteirar dele no Instagram.
A tolerância a conteúdo de interesse jornalístico é vaga, fica a critério de quem o aplica e não pode garantir uma aplicação consistente em grande escala. Também não inclui critérios claros para avaliar o dano potencial causado pelo conteúdo que viola a política de exploração sexual de adultos. O Comitê considera que as responsabilidades de direitos humanos da Meta exigem que ela forneça padrões mais claros e processos de execução mais eficazes para casos como este. É necessário inserir uma exceção que possa ser aplicada em grande escala e que seja adaptada à política de exploração sexual de adultos. Isso deve proporcionar orientações mais claras para distinguir as publicações compartilhadas com o intuito de aumentar a conscientização daquelas destinadas a perpetuar a violência ou a discriminação. Também deve ajudar a Meta a equilibrar em grande escala os direitos concorrentes.
A decisão do Comitê de Supervisão
O Comitê de Supervisão mantém a decisão da Meta de restaurar a publicação com uma tela de aviso.
O Comitê recomenda que a Meta faça o seguinte:
- Inclua uma exceção à política dos Padrões da Comunidade contra exploração sexual de adultos para representações de contrato sexual sem consentimento. Somente as equipes internas da Meta aplicaria essa exceção, que permitia conteúdo em que a vítima não seja identificável e que, segundo o entendimento da Meta, tenha fins de conscientização, não envolva nudez e não seja compartilhado de forma sensacionalista.
- Atualize suas orientações internas para analistas em grande escala sobre quando encaminhar o conteúdo avaliado de acordo com a política dos Padrões da Comunidade contra exploração sexual de adultos que pode ser elegível para a exceção de política acima.
*Os resumos de caso oferecem um panorama da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1.Resumo da decisão
A maioria do Comitê manteve a decisão da Meta de restaurar o conteúdo da plataforma e aplicar uma tela de aviso. No entanto, o Comitê considera que, embora o conteúdo de interesse jornalístico possa ser aplicado neste caso, ele não serve como um padrão claro nem um processo eficaz para resolver em grande escala casos como este. De acordo com os valores e as responsabilidades de direitos humanos da Meta, a empresa deve incluir uma exceção claramente definida na política contra exploração sexual de adultos que seja aplicada de forma mais consistente e eficaz do que a tolerância a conteúdo de interesse jornalístico. A exceção deve ser desenvolvida para proteger o conteúdo que aumenta a conscientização sobre questões públicas e para ajudar a Meta a equilibrar os riscos específicos de danos apresentados pelo conteúdo que viola a política contra exploração sexual de adultos. A maioria do Comitê considera que, em vez da tolerância a conteúdo de interesse jornalístico, é preferível aplicar a exceção recomendada à política contra exploração sexual de adultos, que permitiria o conteúdo neste caso. Uma minoria acredita que essa exceção não se aplica ao conteúdo do caso em questão.
2. Descrição do caso e histórico
Em março de 2022, uma conta do Instagram que se descreve como uma plataforma de notícias que mostra a perspectiva dos dalits publicou um vídeo da Índia em que um grupo de homens agredia uma mulher. Os dalits, anteriormente chamados de “intocáveis”, são socialmente segregados e economicamente marginalizados na Índia devido ao sistema de castas do país, um sistema hierárquico de estratificação social. No vídeo, não é possível ver o rosto da mulher, que está totalmente vestida. O texto que acompanha o vídeo afirma que um grupo de homens cometeu em público agressão e assédio sexual contra uma “tribal woman” (mulher tribal) e que o vídeo se tornou viral. O termo “tribal” é uma referência aos povos indígenas da Índia, também conhecidos como adivasis. A conta tem cerca de 30 mil seguidores, principalmente na Índia. As mulheres dalit e adivasi são frequentemente alvo de agressões no país. Para mais detalhes, veja a seção 8.3.
Outro usuário do Instagram denunciou o conteúdo como proposta de cunho sexual, o que fez com que o vídeo passasse por análise humana. Os analistas humanos determinaram que o conteúdo violou a política da Meta contra exploração sexual de adultos. Com base nessa política, a empresa remove conteúdo que “representa, ameaça ou promove violência, agressão sexual ou exploração sexual”. Após a remoção do conteúdo, a Meta aplicou uma advertência-padrão (que se aplica a todos os tipos de violação), uma grave (que se aplica às violações mais ofensivas, incluindo violações da política contra exploração sexual de adultos) e uma restrição de 30 dias aos recursos da conta do criador de conteúdo. A restrição impedia o usuário de iniciar vídeos ao vivo.
No dia da remoção do conteúdo original, um membro da equipe de operações globais da Meta viu uma publicação na sua conta pessoal do Instagram que discutia a remoção do conteúdo e encaminhou a publicação original para análise. Quando isso acontece, entram em ação os especialistas em políticas e segurança da Meta. Depois do encaminhamento, a Meta concedeu uma tolerância a conteúdo de interesse jornalístico, restaurou o conteúdo e colocou uma tela de aviso no vídeo alertando aos usuários que ele pode ter conteúdo violento ou explícito. A tela de aviso evita que os usuários com menos de 18 anos vejam o conteúdo e obriga todos os outros usuários a clicar na tela para ver o vídeo. Uma tolerância a conteúdo de interesse jornalístico autoriza, nas plataformas da Meta, conteúdo que pode violar as políticas quando ele é relevante e é de utilidade pública mantê-lo visível. Somente as equipes de especialistas da Meta podem aplicá-la. Os analistas humanos que avaliam conteúdo em grande escala não têm permissão para isso.
A Meta indicou o caso ao Comitê, afirmando que ele demonstra o desafio de encontrar “o equilíbrio adequado entre permitir conteúdo que condena a exploração sexual e permitir que representações visuais de assédio sexual continuem nas [suas] plataformas, o que causa danos”.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar decisões que a Meta envia para análise, segundo a seção 1 do artigo 2 do Estatuto e a seção 2.1.1 do artigo 2 dos Regulamentos Internos.
De acordo com a seção 5 do artigo 3 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o artigo 4 do Estatuto. As decisões do Comitê podem incluir pareceres consultivos sobre política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com a seção 4 do artigo 3 e o artigo 4 do Estatuto.
4.Fontes de autoridade
O Comitê de Supervisão considerou as seguintes autoridades e padrões:
I. Decisões do Comitê de Supervisão:
As decisões anteriores mais pertinentes do Comitê de Supervisão incluem as seguintes:
- Decisão sobre o caso “Vídeo explícito do Sudão” (2022-002-FB-MR): no caso em questão, que tratou de conteúdo explícito publicado para aumentar a conscientização sobre abusos de direitos humanos, o Comitê concluiu que “a permissão para conteúdo de valor jornalístico não é uma forma eficaz de autorizar esse tipo de conteúdo no Facebook em grande escala”. Recomendou que a Meta inclua uma exceção nos Padrões da Comunidade para garantir a aplicação dessa exceção em grande escala. O Comitê observa que “a falta de clareza de quando e como é aplicada a permissão de conteúdo de valor jornalístico provavelmente gera um uso arbitrário d[a] política [contra conteúdo violento e explícito]”. O Comitê explicou que as telas de aviso podem ser uma solução proporcional, pois “não gera culpa naqueles que desejam visualizar o conteúdo, ao mesmo tempo em que informa os outros sobre a natureza do conteúdo e permite decidirem visualizá-lo ou não. A tela de aviso também protege de forma adequada a dignidade do indivíduo retratado e sua família”.
- Decisão sobre o caso “Protestos na Colômbia” (2021-010-FB-UA): o Comitê recomendou que a Meta “[e]labore e divulgue critérios claros para os analistas de conteúdo escalarem a uma análise adicional os conteúdos de utilidade pública”. No parecer consultivo sobre a política de compartilhamento de informações residenciais privadas, o Comitê repetiu essa recomendação.
- Decisão sobre o caso “Bebida ayahuasca” (2021-013-IG-UA): o Comitê decidiu que o conteúdo deveria ser mantido, embora a política relevante proibisse o conteúdo. Permitir o conteúdo estava de acordo com os valores e as responsabilidades de direitos humanos da Meta, por isso o Comitê recomendou que a Meta mudasse suas políticas para se alinhar com esses valores e responsabilidades de direitos humanos.
- Decisão sobre o caso “Animação Knin” (2022-001-FB-UA): o Comitê argumentou que, para ajudar os usuários a entender como seu conteúdo será tratado, a Meta deve dar informações mais detalhadas sobre o processo de encaminhamento.
II. Políticas de conteúdo da Meta:
Diretrizes da Comunidade do Instagram
As Diretrizes da Comunidade do Instagram estabelecem, sob o título “Cumpra a lei”, que o Instagram tem “tolerância zero quando se trata de compartilhar conteúdo sexual que envolva menores de idade ou ameaçar publicar imagens íntimas de outras pessoas”. As palavras “imagens íntimas” incluem um link para a política dos Padrões da Comunidade do Facebook contra exploração sexual de adultos, na Central de Transparência da Meta. As Diretrizes da Comunidade não tratam expressamente de representações de imagens sexuais sem consentimento.
Padrões da Comunidade do Facebook
No fundamento da política contra exploração sexual de adultos, a Meta reconhece “a importância do Facebook como um local para debater e chamar atenção para a exploração e a violência sexual”. Portanto, “permit[e] que as vítimas compartilhem as suas experiências, mas remov[e] conteúdo que representa, ameaça ou promove violência, agressão sexual ou exploração sexual”. Para proteger as vítimas e os sobreviventes, a Meta remove “imagens que apresentem incidentes de violência sexual e imagens íntimas compartilhadas sem o consentimento das pessoas retratadas”.
A seção “Não publique” da política dos Padrões da Comunidade contra exploração sexual de adultos declara que o conteúdo que consiste em “contato sexual sem consentimento”, como “[r]epresentações (incluindo fotos ou vídeos reais, exceto em um contexto artístico do mundo real)”, é removido da plataforma. Essa política também afirma que a Meta pode “restringir a pessoas maiores de 18 anos a visualização de determinados vídeos fictícios […] que retratem contato sexual sem consentimento”.
Na Central de Transparência, a Meta explica que a aplicação de uma advertência “depende da gravidade do conteúdo, do contexto em que foi compartilhado e de quando foi publicado”. O objetivo é que seu sistema de advertências seja “justo e adequado”.
Tolerância a conteúdo de interesse jornalístico
Ao definir a tolerância a conteúdo de interesse jornalístico na Central de Transparência, a Meta explica que permite “conteúdo que pode violar os Padrões da Comunidade do Facebook ou as Diretrizes da Comunidade do Instagram caso ele seja interessante e de utilidade pública”. A Meta só faz isso “após realizar uma análise completa que mensura a utilidade pública em relação ao risco de danos” e considera “os padrões internacionais de direitos humanos, conforme refletidos em nossa Política Corporativa de Direitos Humanos, para julgar esses casos”. A política declara que o “conteúdo de todas as fontes, incluindo veículos de notícias, políticos ou outras pessoas, é elegível para tolerância a conteúdo interessante” e que, “[e]mbora a pessoa possa levar em consideração o teste de ponderação, não presumimos que o discurso de alguém, inclusive de políticos, seja inerentemente interessante”. Quando a tolerância a conteúdo de interesse jornalístico é aplicada e o conteúdo é restaurado, mas pode ser sensível ou perturbador, a restauração pode incluir uma tela de aviso.
Ao ponderar a utilidade pública em relação ao risco de danos, a Meta leva em consideração os seguintes fatores: se o conteúdo representa uma ameaça iminente à saúde ou segurança pública; se o conteúdo dá voz a perspectivas atualmente debatidas como parte de um processo político; circunstâncias específicas do país (por exemplo, se há uma eleição em andamento ou o país está em guerra); a natureza do discurso, incluindo se ele se relaciona com governança ou política; e a estrutura política do país, incluindo se tem imprensa livre.
III. Os valores da Meta:
Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook. O valor “Voz” é definido como “fundamental”:
o objetivo dos nossos Padrões da Comunidade sempre foi criar um local de expressão e dar voz às pessoas. [...] Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
A Meta limita o valor “Voz” em nome de quatro valores, três dos quais são relevantes aqui: “Segurança”, “Privacidade” e “Dignidade”.
“Segurança”: temos o compromisso de fazer do Facebook um lugar seguro. Conteúdo com ameaças pode intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
“Privacidade”: temos o compromisso de proteger a privacidade e as informações pessoais. A privacidade dá às pessoas a liberdade de serem elas mesmas, escolher como e quando compartilhar no Facebook e criar conexões mais facilmente.
“Dignidade”: acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem ou difamem terceiros.
IV. Normas internacionais dos direitos humanos:
Os UN Guiding Principles on Business and Human Rights (Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, UNGPs, pelas iniciais em inglês), que contam com o apoio do Conselho de Direitos Humanos da ONU desde 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso com os direitos humanos de acordo com os UNGPs. Ao analisar as responsabilidades da Meta com os direitos humanos no caso em questão, o Comitê levou em consideração as seguintes normas de direitos humanos:
- O direito à liberdade de expressão: Article 19, International Covenant on Civil and Political Rights (artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, PIDCP); General comment No. 34 (Comentário geral n.º 34), do Comitê de Direitos Humanos, de 2011; Relatórios do relator especial da ONU sobre a liberdade de opinião e expressão: A/HRC/38/35 (2018).
- O direito à vida: Article 6, ICCPR (artigo 6 do PIDCP).
- O direito à privacidade: Article 17, ICCPR (artigo 17 do PIDCP).
- Direito à não discriminação: Article 2, para. 1, ICCPR (parágrafo 1 do artigo 2 do PIDCP); Article 1, Convention on the Elimination of All Forms of Discrimination against Women (artigo 1 da Convenção sobre a Eliminação de Todas as Formas de Discriminação contra a Mulher, CEDAW, pelas iniciais em inglês); General recommendation No. 35 on gender-based violence against women (Recomendação geral n.º 35 sobre violência de gênero contra mulheres), Comitê da ONU para a Eliminação da Discriminação contra Mulheres; General Recommendation No. 35 on combating racist hate speech (Recomendação geral n.º 35 sobre eliminação do discurso de ódio racista), Comitê para a Eliminação da Discriminação Racial (CERD, pelas iniciais em inglês).
- O direito à saúde física e mental: Article 12, International Covenant on Economic, Social and Cultural Rights (artigo 12 do Pacto Internacional dos Direitos Econômicos, Sociais e Culturais, ICESCR, pelas iniciais em inglês);
- Os direitos da criança: Artigo 3, Convenção sobre os Direitos da Criança ( CRC, pelas iniciais em inglês) sobre os melhores interesses da criança; Artigos 17 e 19, CDC, sobre os direitos das crianças à proteção contra todas as formas de violência física ou mental; General Comment No. 25 (Comentário geral n.º 25), do Comitê dos Direitos da Criança, de 2021.
5. Envios de usuário
Após o encaminhamento da Meta e a decisão do Comitê de aceitar o caso, o usuário recebeu uma notificação sobre a análise do Comitê e uma oportunidade para enviar uma declaração a ele. No entanto, o usuário não a enviou.
6. Envios da Meta
Na justificativa fornecida para o caso em apreço, a Meta explicou que a legenda e o histórico do usuário que publicou o conteúdo indicavam a intenção de condenar a violência contra comunidades marginalizadas e conscientizar sobre esse tema. No entanto, não existe nenhuma exceção relevante para isso na política contra exploração sexual de adultos.
Quanto à decisão de aplicar a tolerância a conteúdo de interesse jornalístico, a Meta explicou que o valor de utilidade pública do conteúdo era alto porque uma organização de notícias que destaca as histórias de populações sub-representadas e marginalizadas compartilhou o vídeo. A Meta disse que o conteúdo parece ter sido compartilhado com o intuito de condenar o comportamento no vídeo e aumentar a conscientização sobre a violência de gênero contra mulheres tribais. Segundo a Meta, as vozes adivasi e marginalizadas foram historicamente reprimidas na Índia e se beneficiariam de maior alcance e visibilidade. A Meta também argumentou que o risco de danos era limitado, pois a representação não envolvia nudez nem atividade sexual explícita e não causava sensacionalismo. A empresa afirmou que o “caso foi excepcional porque não é possível ver o rosto da vítima e a identidade dela não é facilmente identificável”.
Em resposta às perguntas do Comitê, a Meta explicou ainda que “a autodescrição de um usuário como uma organização de notícias é um fator que é considerado, mas não é determinante na decisão de tratá-lo como uma agência de notícias”. Peritos no assunto e especialistas em mercados regionais decidem quais usuários se qualificam como organizações de notícias com base em uma variedade de fatores, incluindo seu conhecimento de mercado e classificações anteriores das organizações. A Meta argumentou que sua decisão e política estão alinhadas com os seus valores e responsabilidades com os direitos humanos.
O Comitê fez 15 perguntas à Meta. Ela respondeu a 14 e deixou 1 sem resposta. O Comitê pediu à Meta que compartilhasse seu relatório de avaliação de impacto nos direitos humanos na Índia com o Comitê, o que a Meta recusou, citando riscos de segurança. A empresa não providenciou uma explicação satisfatória sobre por que compartilhar o relatório com o Comitê acarretaria riscos de segurança.
7. Comentários públicos
O Comitê de Supervisão considerou 11 comentários públicos relacionados ao caso em questão. Um dos comentários foi enviado da Ásia-Pacífico e da Oceania, quatro foram enviados da Ásia Central e Meridional, três da Europa e outros três dos Estados Unidos e do Canadá.
Os envios cobriram os seguintes temas: a marginalização dos adivasis na Índia; as relações de poder no sistema de castas; o potencial de representações de violência para incentivar os criminosos e incitar a violência; a diferença entre violência sexual e não sexual e a importância de avaliações contextuais sobre o primeiro tipo; o risco de comunidades banirem vítimas de assédio sexual; a interseccionalidade; os riscos de sobreviventes de agressão sexual sofrerem trauma; os efeitos nocivos do discurso de ódio nas redes sociais na Índia; a importância das redes sociais como ferramenta de conscientização sobre a violência contra grupos marginalizados; e a importância de a Meta manter um cache altamente seguro de conteúdo removido que as autoridades possam acessar.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8.Análise do Comitê de Supervisão
O Comitê avaliou se esse conteúdo deve ser restaurado sob três pontos de vista: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades com os direitos humanos.
8.1 Conformidade com as políticas de conteúdo da Meta
O Comitê acredita que a tolerância a conteúdo de interesse jornalístico poderia ser aplicada neste caso, mas não serve como um padrão claro ou um processo eficaz para avaliar em grande escala esse tipo de conteúdo. Portanto, o Comitê recomenda que, além da tolerância a conteúdo de interesse jornalístico, como uma exceção geral a qualquer política, a Meta inclua uma exceção na política contra exploração sexual de adultos, que serviria como um processo claro e eficaz para moderar o conteúdo em grande escala.
A maioria do Comitê acredita que o conteúdo neste caso deve ser permitido sob essa exceção, embora uma minoria acredite que nenhuma exceção deve se aplicar a esse conteúdo específico e que ele deve ser removido da plataforma.
I.Regras de conteúdo e de monitoramento
O Comitê concorda com a avaliação da Meta de que o conteúdo neste caso viola a proibição da política dos Padrões da Comunidade contra exploração sexual de adultos que trata sobre representações de contato sexual sem consentimento.
A maioria do Comitê concorda com a essência do raciocínio da Meta para restaurar o conteúdo e acredita que a tolerância a conteúdo de interesse jornalístico poderia ser aplicada neste caso devido ao forte valor de utilidade pública do conteúdo. No entanto, o Comitê acredita que a tolerância a conteúdo de interesse jornalístico não serve como um padrão ou um processo adequado para avaliar em grande escala conteúdo como a publicação neste caso, pois não garante uma aplicação eficaz e consistente.
O Comitê concorda com a avaliação da Meta de que há um forte valor de utilidade pública em manter esse conteúdo na plataforma, pois aumenta a conscientização sobre a violência contra uma comunidade marginalizada. O Comitê também concorda que manter conteúdo na plataforma que mostre contato sexual sem consentimento, incluindo agressão, pode acarretar riscos significativos de danos. Para mais detalhes, consulte a seção 8.3, abaixo. O Comitê também concorda com a Meta que, nos casos em que uma vítima de contato sexual sem consentimento é identificável, o dano potencial é muito grande e que o conteúdo deve ser removido se publicado sem o consentimento da vítima.
Neste caso, no entanto, o Comitê discorda sobre se a vítima é identificável. A maioria acredita que não. No vídeo, filmado à distância e com baixa qualidade, não é possível ver o rosto da vítima. A legenda não dá nenhuma informação sobre a identidade da vítima. Uma minoria acredita que o conteúdo deveria ser removido da plataforma sob a justificativa de que existe a possibilidade de a vítima ser identificada. Os espectadores do vídeo que têm conhecimento local da área ou do incidente podem identificar a vítima, mesmo que não seja possível ver o rosto dela. A probabilidade disso, acredita a minoria, é especialmente alta, já que o incidente teve grande cobertura dos meios de comunicação locais. A maioria reconhece as preocupações da minoria, mas não acredita que a conscientização local de um incidente deva, por si só, significar que uma vítima seja “identificável”.
O Comitê recomenda que a Meta revise suas políticas e processos com base nos valores e nas responsabilidades de direitos humanos que a empresa tem, conforme analisado nas seções 8.2 e 8.3, abaixo, e inclua uma exceção claramente definida na política dos Padrões da Comunidade contra exploração sexual de adultos que possa ser aplicada de forma mais consistente e eficaz do que a tolerância a conteúdo de interesse jornalístico.
II.Transparência
Seguindo as recomendações do Comitê nas decisões sobre o caso “Protestos na Colômbia” e o “Vídeo explícito do Sudão”, a Meta deu mais informações na Central de Transparência sobre os fatores que considera ao determinar se a tolerância a conteúdo de interesse jornalístico deve ser aplicada a parte do conteúdo. No entanto, não elaborou e divulgou “critérios claros para os analistas de conteúdo escalarem a uma análise adicional os conteúdos de utilidade pública que potencialmente violem os Padrões da Comunidade, mas que possam se qualificar para a permissão de conteúdo de valor jornalístico”, conforme recomendado pelo Comitê na decisão sobre os “Protestos na Colômbia” e no parecer consultivo sobre a política de compartilhamento de informações residenciais privadas. O Comitê reitera que a Meta providencie mais informações sobre o processo de encaminhamento no contexto da tolerância a conteúdo de interesse jornalístico.
8.2 Conformidade com os valores da Meta
Neste caso, como em muitos outros, os valores “Voz”, “Privacidade”, “Segurança” e “Dignidade” da Meta apontam em direções diferentes.
Aumentar a conscientização sobre os abusos contra os adivasi serve ao valor da “Voz” e também pode ajudar a proteger a segurança e a dignidade dos adivasi. Por outro lado, a publicidade sobre agressão sexual pode ser indesejável para a vítima ou pode normalizar a conduta, criando impactos negativos na privacidade, na dignidade e na segurança da vítima ou de outras pessoas na comunidade dela.
Como o vídeo neste caso não era explícito e a maioria do Comitê considerou que a vítima não era identificável, a maioria acredita que manter o vídeo na plataforma é consistente com os valores da Meta, como um todo. Uma minoria do Comitê sustenta, no entanto, que, mesmo que a probabilidade de identificação da vítima seja baixa, há um risco real de identificação. Na visão deles, as preocupações com a privacidade, a dignidade e a segurança da vítima devem prevalecer, e o vídeo deveria ser removido.
8.3 Conformidade com as responsabilidades que a Meta tem com os direitos humanos
A maioria do Comitê concluiu que manter esse conteúdo na plataforma está de acordo com as responsabilidades que a Meta tem com os direitos humanos. A Meta se comprometeu a respeitar os direitos humanos de acordo com os UNGPs. Sua Política Corporativa de Direitos Humanos afirma que esse compromisso também inclui o PIDCP.
Liberdade de expressão (artigo 19 do PIDCP)
O escopo do direito à liberdade de expressão é amplo. O parágrafo 2 do artigo 19 do PIDCP oferece maior proteção à expressão em questões políticas, segundo os parágrafos 20 e 49 do Comentário geral n.º 34. A ICERD, no artigo 5, também protege o exercício do direito à liberdade de expressão sem discriminação. O Comitê para a Eliminação da Discriminação Racial enfatizou a importância do direito para auxiliar “vulnerable groups in redressing the balance of power among the components of society” (grupos vulneráveis a restabelecer o equilíbrio de poder entre os componentes da sociedade) e oferecer “alternative views and counterpoints” (visões e contrapontos alternativos) nas discussões, segundo o parágrafo 29 da Recomendação geral n.º 35. O conteúdo deste caso parece ter sido compartilhado para aumentar a conscientização sobre a violência contra as mulheres adivasi na Índia e, de acordo com os padrões no Comentário geral n.º 34, goza de um alto nível de proteção.
Nos termos do parágrafo 3 do artigo 19 do PIDCP, as restrições à expressão devem (i) ser previstas em lei, (ii) buscar um objetivo legítimo e (iii) ser necessárias e proporcionais. O PIDCP não cria obrigações para a Meta, assim como faz para os estados, mas, conforme o A/HRC /38/35, o relator especial da ONU sobre liberdade de expressão propôs esse teste de três partes como uma estrutura para orientar as práticas de moderação de conteúdo das plataformas.
I. Legalidade (clareza e acessibilidade das regras)
As regras que restringem a expressão devem ser claras e acessíveis de maneira que as pessoas afetadas conheçam as regras e possam cumpri-las, segundo os parágrafos 24 e 25 do Comentário geral n.º 34. Aplicando isso à Meta, os usuários das suas plataformas e os analistas que aplicam as regras deveriam ser capazes de saber o que é permitido e o que não é. Neste caso, o Comitê conclui que a Meta não cumpriu essa responsabilidade.
O Comitê considera que a redação da política de conteúdo de interesse jornalístico é vaga e deixa uma margem significativa para quem a aplica. Como observou o Comitê no caso “Vídeo explícito do Sudão” (2022-002-FB-MR), padrões vagos dão origem à aplicação arbitrária e não garantem o equilíbrio adequado dos direitos afetados ao moderar o conteúdo.
Além disso, o Comitê chamou a atenção várias vezes à falta de clareza para os usuários do Instagram sobre quais políticas se aplicam ao seu conteúdo, particularmente, se e quando as políticas do Facebook se aplicam. Consulte, por exemplo, as decisões do Comitê no caso “Sintomas de câncer de mama e nudez” (2020-004-IG-UA) e no caso “Bebida ayahuasca” (2021-013-IG-UA). O Comitê reitera essa preocupação aqui.
O Comitê reitera ainda a necessidade crítica de mais informações sobre os padrões, as orientações internas e os processos que determinam quando o conteúdo é escalado. Consulte, por exemplo, a decisão do Comitê no caso “Protestos na Colômbia”, no caso “Vídeo explícito do Sudão” e no caso “Animação Knin”. Para que os usuários entendam se e como a tolerância a conteúdo de interesse jornalístico será aplicável ao conteúdo, a Meta deve providenciar informações mais detalhadas sobre o processo de encaminhamento.
II.Objetivo legítimo
Nos termos do parágrafo 3 do artigo 19 do PIDCP, a liberdade de expressão pode ser limitada com a finalidade de proteger “the rights of others” (os direitos das demais pessoas). A política contra exploração sexual de adultos tem o objetivo de prevenir o abuso, a revitimização, a estigmatização social, a prática de doxing e outras formas de assédio. Serve para a proteção do direito à vida, conforme o artigo 6 do PIDCP, o direito à privacidade, de acordo com o artigo 17 do mesmo documento, e o direito à saúde física e mental, conforme o artigo 12 do ICESCR. Também visa a prevenir a discriminação e a violência de gênero, segundo o parágrafo 1 do artigo 2 do PIDCP e o artigo 1 da CEDAW.
Ao aplicar a tela de aviso, a Meta busca o objetivo legítimo de mitigar os danos descritos acima e proteger os demais usuários. O aviso que surge na tela tem como objetivo proteger as vítimas de assédio sexual contra a exposição a conteúdo potencialmente retraumatizante, perturbador e explícito, segundo o artigo 12 do ICESCR. A restrição de idade também busca o objetivo legítimo de proteger as crianças de conteúdo nocivo, conforme os artigos 3, 17 e 19 do CRC).
III. Necessidade e proporcionalidade
O princípio da necessidade e da proporcionalidade requer que qualquer restrição à liberdade de expressão “must be appropriate to achieve their protective function; they must be the least intrusive instrument amongst those which might achieve their protective function; [and] they must be proportionate to the interest to be protected” (sejam apropriadas para cumprir sua função protetora; sejam o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; [e] sejam proporcionais ao interesse a ser protegido), conforme o parágrafo 34 do Comentário geral n.º 34.
Nesse caso, a maioria considera que a remoção do conteúdo não seria necessária e proporcional, mas a aplicação de uma tela de aviso e de uma restrição de idade satisfaz esse teste. Há uma minoria que acredita que a remoção seria necessária e proporcional. O Comitê considera que as responsabilidades que a Meta tem com os direitos humanos exigem que ela estabeleça padrões mais claros e processos de monitoramento mais eficazes para permitir o conteúdo na plataforma em casos como este. Portanto, ele recomenda que a Meta inclua uma exceção claramente definida na política dos Padrões da Comunidade contra exploração sexual de adultos, o que seria uma forma melhor de equilibrar os direitos concorrentes em grande escala. Como uma exceção geral que raramente é aplicada, a tolerância a conteúdo de interesse jornalístico ainda estaria disponível e permitiria à Meta avaliar se a utilidade pública supera o risco de danos, inclusive nos casos em que a vítima é identificável.
Decisão de deixar ativo o conteúdo
O Comitê reconhece que conteúdo como esse pode levar a danos consideráveis. Isso inclui danos à vítima, que, se identificada, pode sofrer revitimização, estigmatização social, doxing e outras formas de abuso ou assédio. Para mais detalhes, consulte o comentário público da Digital Rights Foundation, o PC-10802. A gravidade do dano potencial é grande quando a vítima é identificada. Agora, quando não é possível identificá-la, o risco de dano é reduzido significativamente. Nesse caso, a maioria acha que a probabilidade de a vítima ser identificada é baixa. Mesmo que a vítima não seja identificada publicamente, ela pode sofrer de duas formas:(i) interagindo com o conteúdo da plataforma e (ii) lendo comentários e vendo novos compartilhamentos desse conteúdo. A maioria acredita que a aplicação da tela de aviso sobre o conteúdo resolve essa preocupação.
O Comitê também considerou riscos mais amplos. As redes sociais na Índia são alvo de crítica por espalhar discurso de ódio baseado em castas. Para mais detalhes, consulte o relatório sobre o discurso de ódio por castas da International Dalit Solidarity Network, publicado em março de 2021. O conteúdo online pode refletir e fortalecer as estruturas de poder existentes, incentivar os criminosos e incitar a violência contra populações vulneráveis. Representações de violência contra mulheres podem levar a maior aceitação desse tipo de violência. Os comentários públicos destacaram que o assédio sexual é uma forma especialmente cruel de assédio. Para mais detalhes, consulte os seguintes comentários públicos: o PC-10808, da SAFEnet, o PC-10806, da IT for Change, o PC-10802, da Digital Rights Foundation, e o PC-10805, da Media Matters for Democracy.
A maioria equilibrou esses riscos com o fato de que é importante para organizações de notícias e ativistas poderem contar com as redes sociais para aumentar a conscientização sobre a violência contra comunidades marginalizadas (PC-10806, da IT for Change, PC-10802, da Digital Rights Foundation, e PC-10808, da SAFEnet), especialmente em um contexto em que a liberdade da imprensa está ameaçada. Para mais detalhes sobre essa ameaça, consulte o relatório da Human Rights Watch. Na Índia, os dalits e os adivasis, especialmente mulheres que se enquadram na interseção de casta e gênero (PC-10806, da IT for Change), sofrem muita discriminação, e o crime contra eles tem aumentado. Organizações da sociedade civil relatam níveis crescentes de discriminação étnico-religiosa contra minorias não hindus e de casta, o que prejudica a proteção igualitária da lei. Para obter mais informações, consulte o relatório da Human Rights Watch. Como o governo está indo atrás das organizações de notícias independentes e os registros públicos estão ocultando crimes contra pessoas e comunidades adivasi e dalit, as redes sociais se tornaram um meio importante de documentar a discriminação e a violência. Para saber mais, consulte o relatório da Human Rights Watch e os comentários públicos citados acima.
Em última análise, o Comitê discorda de que, neste caso específico, exista um risco razoável de identificar a vítima. A maioria acredita que esse risco é mínimo e que, portanto, o interesse em manter o conteúdo na plataforma supera os possíveis danos caso uma tela de aviso seja aplicada. A minoria acredita que o risco requer a remoção do conteúdo da plataforma.
Tela de aviso e restrição de idade
O Comitê acredita que a aplicação de uma tela de aviso é uma “restrição menor” quando comparada com a remoção. Neste caso, a maioria acredita que essa seria a forma menos invasiva de reduzir possíveis danos que o conteúdo inflige ao mesmo tempo que protege a liberdade de expressão. Como o Comitê constatou no caso “Vídeo explícito do Sudão”, a tela de aviso “não gera culpa naqueles que desejam visualizar o conteúdo, ao mesmo tempo em que informa os outros sobre a natureza do conteúdo e permite decidirem visualizá-lo ou não”. Além disso, “protege de forma adequada a dignidade do indivíduo retratado e sua família”. A minoria acredita que uma tela de aviso não reduz suficientemente os possíveis danos e que a gravidade desses danos exige a remoção do conteúdo.
A tela de aviso também aciona uma restrição de idade, cujo objetivo é proteger os menores de idade. O Comentário geral n.º 25, sobre os direitos da criança no ambiente digital, afirma que “parties should take all appropriate measures to protect children from risks to their right to life, survival and development. Risks relating to content [...] encompass, among other things, violent and sexual content...” (as partes devem tomar todas as medidas apropriadas para proteger as crianças de riscos ao direito à vida, sobrevivência e desenvolvimento. Os riscos relativos ao conteúdo [...] abrangem, entre outros, conteúdo violento e sexual...), no parágrafo 14. Afirma ainda que as crianças devem ser “protected from all forms of violence in the digital environment” (protegidas de todas as formas de violência no ambiente digital), segundo os parágrafos 54 e 103. A maioria do Comitê concorda com o raciocínio da Meta de que restringir a idade concilia o objetivo de proteger os menores de idade com o de permitir a visualização de conteúdo de utilidade pública.
Criação de políticas e processos de monitoramento
Embora a maioria concorde com a decisão final da Meta de permitir o conteúdo na plataforma, o Comitê acredita que a tolerância a conteúdo de interesse jornalístico é um mecanismo ineficaz para ser aplicado em grande escala. O Comitê considera em unanimidade que permitir representações de violência sexual contra grupos marginalizados na plataforma deve se basear em políticas claras e ser acompanhadas da consideração de nuances adequadas. Isso deve distinguir as publicações como a do caso em foco, que estão sendo compartilhadas para aumentar a conscientização, daquelas compartilhadas para perpetuar a violência ou a discriminação contra essas pessoas e comunidades. Deve incluir critérios claros para avaliar os riscos de danos que esse conteúdo apresenta e ajudar a Meta a equilibrar em grande escala os direitos concorrentes.
A tolerância a conteúdo de interesse jornalístico é um mecanismo ineficaz para moderar o conteúdo em grande escala, porque é usada muito raramente. Para mais detalhes, consulte a decisão do Comitê no caso “Vídeo explícito do Sudão”. De acordo com a Meta, a tolerância a conteúdo de interesse jornalístico foi aplicada, no mundo inteiro, apenas 68 vezes em todas as políticas entre 1.º de junho de 2021 e 1.º de junho de 2022. Apenas uma pequena parte teve relação com a política dos Padrões da Comunidade contra exploração sexual de adultos. Este caso demonstra que o processo interno de encaminhamento para aplicação da tolerância a conteúdo de interesse jornalístico não é confiável, já que quem encaminhou o conteúdo não foi nenhum dos analistas em grande escala que inicialmente o avaliaram, mas sim um membro da equipe de operações globais. Ao se inteirar da remoção do conteúdo no Instagram, ele sinalizou o problema por meio de um canal de denúncia interno. No processo de moderação de conteúdo da Meta, a maior parte do conteúdo passa pelos analistas externos em grande escala, e não pelas equipes internas especializadas da Meta. Essas equipes podem encaminhar o conteúdo para análise adicional quando os analistas consideram que a tolerância a conteúdo de interesse jornalístico pode ser aplicada. No entanto, o processo de encaminhamento só é eficaz quando os analistas têm orientações claras sobre quando encaminhar o conteúdo. A tolerância a conteúdo de interesse jornalístico é uma exceção geral, que pode ser aplicada a conteúdo que viole qualquer uma das políticas da Meta. Portanto, ela não inclui critérios para avaliar ou equilibrar os danos apresentados pelo conteúdo que viola a política contra exploração sexual de adultos em particular.
Um meio mais eficaz de proteger a liberdade de expressão e permitir que as pessoas se conscientizem sobre o assédio sexual de grupos marginalizados, protegendo os direitos da vítima e das comunidades marginalizadas, seria incluir uma exceção na política dos Padrões da Comunidade contra exploração sexual de adultos que seria aplicada mediante encaminhamento. Além disso, os analistas em grande escala devem ser instruídos a encaminhar o conteúdo quando a exceção se aplica em vez de confiar na tolerância a conteúdo de interesse jornalístico, que é raramente aplicada. Para ver uma lógica semelhante, consulte a decisão do Comitê no caso “Vídeo explícito do Sudão”. Portanto, o Comitê recomenda que uma exceção da política contra exploração sexual de adultos seja inserida para representações de contato sexual sem consentimento. Assim, o conteúdo que viola a política pode permanecer nas plataformas da Meta quando, com base em uma análise contextual, a empresa julga que ele tem fins de conscientização, não envolve nudez e não é compartilhado de forma sensacionalista e que a vítima não é identificável, ou seja, implica poucos riscos de dano à vítima. Essa exceção deve ser aplicada apenas mediante encaminhamento, isto é, pelas equipes internas especializadas da Meta. A empresa também deve dar orientações claras para os analistas em grande escala sobre quando encaminhar o conteúdo que potencialmente se enquadre nessa exceção, que não impede a aplicação da tolerância a conteúdo de interesse jornalístico.
Incluir uma exceção à política contra exploração sexual de adultos e atualizar as orientações para analistas em grande escala garantiria que uma avaliação sobre encaminhamento se tornasse parte de um procedimento-padrão que moderadores em todos os casos relevantes podem acionar. Os analistas ainda removeriam o conteúdo que representasse contato sexual sem consentimento, mas encaminhariam o conteúdo nos casos em que a exceção pudesse se aplicar. Com base na experiência regional, os especialistas em políticas e segurança podem decidir se a exceção se aplica. Se não, podem decidir se é necessário aplicar advertências e, em caso afirmativo, quais, de acordo com o objetivo da Meta de aplicar advertências de maneira justa e adequada. Limitar o uso da exceção a equipes especializadas incentiva a consistência, bem como a consideração adequada dos possíveis danos.
Não discriminação
A Meta tem a responsabilidade de respeitar a igualdade e a não discriminação nas suas plataformas, segundo os artigos 2 e 26 do PIDCP. Na Recomendação geral n.º 35, o Comitê para a Eliminação da Discriminação Racial destacou, no parágrafo 5, a “contribution of speech to creating a climate of racial hatred and discrimination” (contribuição do discurso para criar um clima de ódio e discriminação racial) e ressaltou, no parágrafo 3, o potencial do discurso de ódio em “leading to mass violations of human rights” (levar a violações em massa dos direitos humanos).
O Comitê reconhece que existe uma difícil tensão entre permitir conteúdo na plataforma que aumente a conscientização sobre a violência contra grupos marginalizados e remover conteúdo que possa potencialmente prejudicar a privacidade e a segurança de uma pessoa que faz parte desses grupos. O Comitê acredita que um potencial significativo de dano individual pode superar os benefícios de aumentar a conscientização sobre o assédio no Instagram. Porém, neste caso, a maioria acredita que, como a vítima não é identificável e o risco de dano individual é baixo, o conteúdo deve permanecer na plataforma com uma tela de aviso. Uma minoria acredita que o risco não é baixo o suficiente e que, portanto, o conteúdo deve ser removido.
9. Decisão do Comitê de Supervisão
O Comitê mantém a decisão da Meta de deixar o conteúdo na plataforma com tela de aviso.
10. Declaração de parecer consultivo
Política
1. A Meta deve incluir uma exceção na política dos Padrões da Comunidade contra exploração sexual de adultos para representações de contato sexual sem consentimento em que, com base em uma análise contextual, ela julga que o conteúdo tem fins de conscientização, não envolve nudez e não é compartilhado de forma sensacionalista e que a vítima não é identificável, ou seja, implica poucos riscos de dano à vítima. Essa exceção deve ser aplicada apenas mediante encaminhamento. O Comitê considerará essa recomendação implementada quando o texto da política dos Padrões da Comunidade contra exploração sexual de adultos for alterado.
Monitoramento
2. A Meta deve atualizar suas orientações internas para analistas em grande escala sobre quando encaminhar o conteúdo avaliado de acordo com a política dos Padrões da Comunidade contra exploração sexual de adultos, incluindo diretrizes para encaminhar conteúdo que represente contato sexual sem consentimento, com a exceção da política acima. O Comitê considerará essa recomendação implementada quando a Meta compartilhar com ele as orientações atualizadas para analistas.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, contratou-se uma pesquisa independente em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de 6 continentes, e mais de 3.200 especialistas do mundo inteiro auxiliaram o Comitê. A Duco Advisors, empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia, também ajudou.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas