Anulado
Jornalista sueca denuncia violência sexual contra menores
O Comitê de Supervisão revogou a decisão da Meta de remover uma publicação que descreve incidentes de violência sexual contra duas menores de idade.
Resumo do caso
Observação: a decisão a seguir apresenta material possivelmente sensível sobre conteúdo de violência sexual contra menores de idade.
O Comitê de Supervisão revogou a decisão da Meta de remover uma publicação que descreve incidentes de violência sexual contra duas menores de idade. O Comitê concluiu que a publicação não violou a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil. O contexto mais amplo da publicação deixa claro que o usuário estava informando sobre um tema de interesse público e condenando a exploração sexual de uma menor de idade.
Sobre o caso
Em agosto de 2019, um usuário na Suécia publicou, na sua Página do Facebook, uma foto de um banco de imagens em que aparecia uma jovem sentada com a cabeça apoiada nas mãos, o que impossibilitava que o rosto dela fosse visto. A foto tem uma legenda em sueco que descreve incidentes de violência sexual contra duas menores de idade. A publicação apresenta detalhes sobre os estupros de duas menores não identificadas, especificando a idade de cada uma e o município em que ocorreu o primeiro crime. O usuário também detalha as condenações que os dois criminosos não identificados receberam pelo que fizeram.
A publicação argumenta que o sistema de justiça penal sueco é muito leniente e incentiva o crime. O usuário defende a criação de um registro de agressores sexuais no país. Ele também disponibiliza fontes na seção de comentários, identificando os casos penais pelos números de referência dos tribunais e listando links para a cobertura dos crimes pela imprensa local.
A publicação contém detalhes explícitos do impacto prejudicial do crime sobre a primeira vítima. Ela também inclui citações atribuídas ao criminoso, que teria se gabado aos amigos do estupro e se referido à menor de idade com termos sexualmente explícitos. Embora o usuário tenha publicado o conteúdo no Facebook em agosto de 2019, a Meta o removeu dois anos mais tarde, em setembro de 2021, em virtude das regras sobre exploração sexual, abuso e nudez infantil.
Principais conclusões
O Comitê conclui que essa publicação não violou a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil. A descrição precisa e analítica sobre as consequências do estupro e a inclusão das palavras sexualmente explícitas do criminoso não constituíram uma linguagem que explorasse sexualmente menores de idade ou que representasse uma menor de idade em um “contexto sexualizado”.
O Comitê também conclui que a publicação não estava mostrando uma menor de idade em um “contexto sexualizado”, já que o contexto mais amplo deixa claro que o usuário estava informando sobre um tema de interesse público e condenando a exploração sexual de uma menor de idade.
O Comitê observa que a Meta não define termos-chave, como “representação” e “sexualização”, nos Padrões da Comunidade destinados ao público. Além disso, embora a Meta tenha dito ao Comitê que permite o “relato” de estupro e de exploração sexual, a empresa não declara isso nas políticas disponíveis publicamente, tampouco define a distinção entre “representação” e “relato”. A recomendação abaixo aborda esses pontos.
É preocupante que, após dois anos, a Meta tenha removido a publicação da plataforma sem explicar adequadamente o motivo disso. Durante esse período, não houve nenhuma alteração substancial nas políticas que explique a remoção.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo e exige que a publicação seja restaurada.
Como recomendação de política, o Comitê aconselha que a Meta faça o seguinte:
- Defina os termos “representação explícita” e “sexualização” na política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil. A Meta deve deixar claro que nem toda linguagem explícita constitui representação explícita ou sexualização e explicar a diferença entre termos jurídicos, clínicos ou médicos e conteúdo explícito. A Meta também deve elucidar a distinção entre exploração sexual infantil e relatos de exploração sexual infantil. O Comitê considerará a recomendação como implementada quando um texto que defina os termos-chave e a distinção tiver sido adicionado aos Padrões da Comunidade.
- Realize um processo de desenvolvimento de políticas, incluindo uma discussão no Policy Forum (Fórum sobre Políticas), para determinar se deve incorporar nos Padrões da Comunidade uma proibição da identificação funcional de menores de idade vítimas de violência sexual e como fazer isso. Esse processo deve incluir o engajamento de partes interessadas e de especialistas na identificação funcional e nos direitos da criança. O Comitê considerará essa recomendação como implementada quando a Meta publicar as atas do Product Policy Forum (Fórum sobre Políticas de Produto) em que isso for discutido.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo do Facebook. A publicação relata o estupro de duas menores de idade e usa linguagem explícita para descrever a agressão e o impacto dela em uma das sobreviventes. A Meta aplicou a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil para remover a publicação e encaminhou o caso ao Comitê de Supervisão. O Comitê considera que o conteúdo não viola a política contra representações de exploração sexual infantil e, por isso, deve ser restaurado.
2. Descrição do caso
Em agosto de 2019, um usuário na Suécia publicou, na sua Página do Facebook, uma foto de um banco de imagens em que aparecia uma jovem sentada com a cabeça apoiada nas mãos, o que impossibilitava que o rosto dela fosse visto. Além disso, havia uma legenda em sueco que descrevia incidentes de violência sexual contra duas menores de idade usando linguagem explícita. A publicação apresenta detalhes sobre os estupros de duas menores não identificadas, especificando a idade de cada uma e o município em que ocorreu o primeiro crime. O usuário também detalha as condenações que os dois criminosos não identificados receberam pelo que fizeram. Um deles teria recebido uma pena de prisão simples por ser menor de idade quando cometeu a infração. O criminoso do outro caso teria concluído recentemente uma pena de prisão privativa por cometer um crime de violência contra outra mulher. O usuário argumenta que o sistema de justiça penal sueco é muito leniente e incentiva o crime. Ele defende a criação de um registro de agressores sexuais no país. Além disso, disponibiliza fontes na seção de comentários, identificando os casos penais pelos números de referência dos tribunais e listando links para a cobertura dos crimes pela imprensa local. Na época em que esse conteúdo foi publicado, as discussões sobre penas para agressores sexuais de crianças faziam parte do debate mais amplo sobre a reforma da justiça penal na Suécia. A Página do Facebook do usuário é dedicada a publicações sobre abusadores sexuais de crianças e pede a reforma das penas atuais para crimes sexuais na Suécia.
A publicação dá detalhes minuciosos e explícitos do impacto prejudicial do crime sobre a primeira vítima, incluindo a descrição dos danos físicos e mentais que ela sofreu, o assédio offline e online com que se deparou e o apoio psicológico que recebeu. A publicação também apresenta citações atribuídas ao criminoso, que teria se gabado aos amigos do estupro e se referido à menor de idade com termos sexualmente explícitos. Há uma parte em que ele conta aos amigos que “the girl was ‘tight’” (“a menina era ‘apertada’”) e depois “proudly showed off his bloody hands” (“mostra com orgulho as mãos cheias de sangue”).
A publicação recebeu aproximadamente dois milhões de visualizações, dois mil comentários e 20 mil reações. De acordo com a Meta, a publicação foi compartilhada em uma Página com configurações de privacidade definidas como públicas, o que significa que qualquer um podia visualizar o conteúdo. A Página tem cerca de 100 mil seguidores, 95% dos quais estão localizados na Suécia.
Desde que foi publicada, em agosto de 2019, até 1.º de setembro de 2021, oito usuários enviaram feedback para sinalizar possíveis violações, como discurso de ódio, violência e incitação e bullying e assédio. Diante de uma situação assim, existem dois processos a que os usuários podem recorrer: enviar feedback sobre uma publicação ou denunciar uma suposta violação. O feedback envia sinais à Meta que são considerados no agregado e podem influenciar o modo como o conteúdo é priorizado no Feed do usuário específico. Quando um usuário denuncia uma publicação como suposta violação de uma política, a Meta avalia se essa publicação está em conformidade com as políticas da empresa. Um usuário denunciou a publicação em 5 de setembro de 2019 porque ela violava a política contra bullying e assédio, o que levou a uma análise automática que avaliou a publicação como não violadora e a manteve na plataforma. Em agosto de 2021, a tecnologia da Meta identificou a publicação como possivelmente violadora. Após uma análise humana, determinou-se que a publicação violava a política contra exploração sexual, abuso e nudez infantil. Por isso, ela foi removida. A conta do criador de conteúdo recebeu uma advertência que gerou dois limites de recursos separados. Um deles impedia que o usuário entrasse ao vivo no Facebook, usasse produtos de anúncios e criasse salas do Messenger ou participasse delas. O outro, um limite de recursos de 30 dias, impossibilitava que o usuário criasse conteúdo novo, com a exceção de mensagens privadas. Após o usuário fazer uma apelação e a plataforma realizar outra análise humana, a publicação não foi restaurada, mas a advertência associada a essa remoção foi revertida. A Meta fez isso porque a empresa determinou que o objetivo da publicação era aumentar a conscientização. Na Central de Transparência, a Meta destaca que a aplicação de uma advertência pela plataforma “depende da gravidade do conteúdo, do contexto em que foi compartilhado e de quando foi publicado”, mas não menciona explicitamente que uma advertência pode ser revertida ou retirada caso o objetivo de publicar o conteúdo seja aumentar a conscientização.
Segundo a Meta, em 2021, ela removeu cinco conteúdos da Página em questão por violarem a política contra exploração sexual, abuso e nudez infantil. Três dessas publicações foram restauradas após outra análise determinar que elas foram removidas por engano. As advertências associadas a essas remoções foram revertidas quando as publicações foram restauradas.
Quando a publicação do caso em foco foi removida, a Meta também reduziu a distribuição da Página e a removeu das recomendações. A Meta explica, na Central de Transparência, que as Páginas ou os grupos que violam as políticas várias vezes podem ser removidas das recomendações e ter a distribuição reduzida. A Central de Transparência não declara quanto dura essa penalidade. A Meta informou o Comitê de que uma Página ficará removida das recomendações enquanto ela exceder o limite de advertências. O limite de advertências é de três para uma violação-padrão e de uma para uma violação grave (caso envolva, por exemplo, exploração sexual infantil, suicídio e automutilação ou terrorismo).
3. Autoridade e escopo
O Comitê tem autoridade para analisar decisões que a Meta envia para análise, segundo o Artigo 2 da Seção 1 do Estatuto o Artigo 2 da Seção 2.1.1 dos Regulamentos Internos). De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 e 4 da Seção 4 do Estatuto .
4. Padrões relevantes
Em sua decisão, o Comitê de Supervisão considerou os seguintes padrões:
I. Padrões da Comunidade do Facebook
O fundamento da política sobre exploração sexual, abuso e nudez infantil declara que a Meta não permite conteúdo que “explore sexualmente ou coloque crianças em perigo”. De acordo com essa política, a Meta remove conteúdo que “ameace, mostre, elogie, apoie, forneça instruções, faça declarações de intenção, admita participação ou compartilhe links de exploração sexual de crianças”. A Meta também proíbe conteúdo “(incluindo fotos, vídeos, obras de arte reais, conteúdo digital e representações verbais) que mostre crianças em um contexto erótico”. Essa política também proíbe conteúdo que identifique ou simule, pelo nome ou por foto, supostas vítimas de exploração sexual infantil, mas não proíbe a identificação funcional de um menor de idade.
II. Os valores da Meta
Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook. O valor “Voz” é definido como “fundamental”:
O objetivo de nossos Padrões da Comunidade sempre foi criar um espaço para expressão e dar voz às pessoas. Queremos que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que sejam temas que geram controvérsias e objeções.
A Meta limita o valor de “voz” com base em outros quatro valores, três dos quais são relevantes aqui:
“Segurança”: conteúdo com ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
“Privacidade”: temos o compromisso de proteger a privacidade e as informações pessoais. A privacidade dá às pessoas a liberdade de serem elas mesmas, escolher como e quando compartilhar no Facebook e criar conexões mais facilmente.
“Dignidade”: acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.
III. Padrões de direitos humanos
Os United Nations Guiding Principles on Business and Human Rights (Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos, UNGPs, na sigla em inglês) estabelecem um sistema voluntário de responsabilidades sobre direitos humanos para empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, na qual se comprometeu a respeitar os direitos de acordo com os UNGPs. Neste caso, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:
- O direito de liberdade de opinião e expressão: Artigo 19, Pacto Internacional dos Direitos Civis e Políticos (PIDCP); General comment No. 34, Human Rights Committee, 2011 (Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011); UN Special Rapporteur on freedom of opinion and expression, report: A/74/486, 2019 (Relatório do relator especial da ONU sobre promoção e proteção do direito à liberdade de opinião e de expressão: A/74/486, de 2019); UN Special Rapporteur on freedom of opinion and expression, report: A/HRC/17/27, 2011 (Relatório do relator especial da ONU sobre promoção e proteção do direito à liberdade de opinião e de expressão: A/HRC/17/27, de 2011).
- Os interesses da criança: Article 3, Convention on the Rights of the Child (Artigo 3 da Convenção sobre os Direitos da Criança, CRC, na sigla em inglês); General comment No. 25, Committee on the Rights of the Child, 2021 (Comentário geral n.º 25, do Comitê dos Direitos da Criança, de 2021).
- O direito à saúde física e mental: Article 12, International Covenant on Economic, Social and Cultural Rights (Artigo 12 do Pacto Internacional dos Direitos Econômicos, Sociais e Culturais, ICESCR, na sigla em inglês); Articles 17 and 19, CRC (Artigos 17 e 19 da CRC), sobre o direito da criança ao acesso a informações para promover sua saúde física e mental e o direito dela à proteção contra todas as formas de violência física ou mental.
- Direito à privacidade: Article 17, PIDCP (Artigo 17 do PIDCP); Article 16, CRC (Artigo 16 da CRC); Concluding Observations, Nepal, Committee on the Rights of the Child, Sept. 21, 2005, CRC/C/15/Add.261, para. 45, 46 (Observações Finais: Nepal, do Comitê dos Direitos da Criança, de 21 de setembro de 2005, CRC/C/15/Add.261, parágrafos 45 e 46).
5. Declaração do usuário
Após o encaminhamento da Meta e a decisão do Comitê de aceitar o caso, o usuário recebeu uma notificação sobre a análise do Comitê e uma oportunidade para enviar uma declaração a ele. No entanto, o usuário não a enviou.
6. Explicação sobre a decisão da Meta
Na sua justificativa, a Meta explicou que o conteúdo foi removido porque violava a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil. De acordo com a empresa, havia duas linhas que tornavam a publicação violadora: uma que descrevia em detalhes as consequências físicas do estupro, e a outra que citava a descrição sexualmente explícita da menor de idade pelo criminoso como “tight” (“apertada”). A Meta se embasou em conclusões de especialistas de diversas fontes, incluindo a Rape, Abuse and Incest National Network (Rede Nacional de Estupro, Abuso e Incesto, RAINN, na sigla em inglês), o documento 2021 Tackling Child Sexual Abuse Strategy (Estratégia para Lidar com o Abuso Sexual Infantil), do Reino Unido, e a comunicação Strategy for a More Effective Fight Against Child Sexual Abuse (Estratégia para Combater Eficazmente o Abuso Sexual Infantil), da União Europeia, bem como vários artigos acadêmicos. Segundo essas fontes, permitir representações de estupro pode prejudicar as vítimas devido a retraumatização, invasão de privacidade e facilitação de assédio.
A Meta também apontou que, embora algumas das políticas da empresa tenham exceções para permitir o compartilhamento de conteúdo que seria violador quando publicado para aumentar a conscientização ou condenar ações prejudiciais, o desafio de “determinar onde o risco de [retraumatização] começa e onde o benefício de aumentar a conscientização termina” fez com que ela proibisse representações explícitas, inclusive quando compartilhadas de boa-fé e para aumentar a conscientização. Na justificativa apresentada ao Comitê, a Meta declara que permite os relatos de estupro e de agressão sexual sem representação explícita. A Meta também destacou que define “representação” para incluir exibições de imagem ou de áudio, descrições com palavras e transmissões.
Na sua justificativa, a Meta explicou ter determinado que os valores de “privacidade”, de “segurança” e de “dignidade” de menores de idade prevaleciam sobre o valor de “voz” porque o conteúdo explícito pode vitimizar as crianças novamente. A Meta também declarou que, embora a publicação não nomeie a vítima, as informações fornecidas na publicação podiam ser usadas para identificar a vítima e resultar em tratamento discriminatório.
A Meta explicou que a CRC serviu como diretriz para estabelecer as políticas e os valores da empresa, citando o Comentário geral n.º 25, do Comitê dos Direitos da Criança da ONU, de 2021, para implementar políticas e práticas que protejam as crianças contra “riscos reconhecidos e emergentes de todas as formas de violência no ambiente digital”. A Meta afirmou ao Comitê que foi o risco de revitimização que levou a empresa a determinar que a remoção era necessária. Embora a Meta considere aplicar a exceção de interesse jornalístico a conteúdo explícito quando o risco de prejuízo é baixo e o interesse público na expressão é particularmente forte, a empresa determinou, neste caso, que o risco de prejuízo superava o valor do interesse público da expressão. Segundo a Meta, o Facebook aplicou seis vezes a tolerância para conteúdo de interesse jornalístico por causa de violações da política sobre exploração sexual infantil no ano passado.
7. Envios de terceiros
Neste caso, o Comitê recebeu dez comentários públicos de partes interessadas, incluindo acadêmicos e organizações da sociedade civil, com foco nos direitos de sobreviventes de agressão sexual, nos direitos da criança e na liberdade de expressão. Três eram da Europa, dois, da América Latina e do Caribe e cinco, dos Estados Unidos e do Canadá. Os envios abrangem temas que vão desde a importância de proteger a privacidade de sobreviventes e o perigo de remover declarações de sobreviventes ou de organizações que trabalham para impedir a exploração sexual e o abuso de crianças até a função das escolhas de design da plataforma da Meta na promoção de publicações sensacionalistas e a necessidade de mais transparência e clareza sobre o sistema de moderação de conteúdo da plataforma.
Em 30 de novembro de 2021, houve uma mesa-redonda virtual com sete grupos e organizações de defesa de interesses sociais que têm como missão representar sobreviventes de violência doméstica e sexual contra mulheres e crianças. A discussão envolveu diversos temas relacionados com o conteúdo do caso, incluindo a distinção entre o que o público em geral pode considerar como uma descrição explícita de um estupro e a descrição analítica do ato e das suas consequências; a exploração ou a vitimização secundária de sobreviventes para solicitar ou arrecadar doações; o empoderamento de sobreviventes perguntando o que querem e pedindo permissão ao relatar crimes que sofreram; e a extrema importância da participação deles.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8. Análise do Comitê de Supervisão
O Comitê avalia se o conteúdo deve ser restaurado com base em três perspectivas: os Padrões da Comunidade do Facebook, Os valores da Meta declarados publicamente; e as responsabilidades da Meta para com os direitos humanos. O Comitê conclui que o conteúdo não viola os Padrões da Comunidade do Facebook e deve ser restaurado. As responsabilidades da Meta com os valores e os direitos humanos respaldam a restauração do conteúdo. O Comitê recomenda alterações nas políticas da Meta sobre conteúdo para definir com clareza os termos “sexualização”, “representação explícita” e “relato”.
8.1. Conformidade com os Padrões da Comunidade
O Comitê conclui que a publicação em foco não viola a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil e que o conteúdo não devia ter sido removido. O Comitê conclui que a descrição precisa e analítica sobre as consequências do estupro e a inclusão das palavras sexualmente explícitas do criminoso não constituíram uma linguagem que explorasse sexualmente menores de idade ou que representasse uma menor de idade em um “contexto sexualizado”.
O Comitê também conclui que a publicação não estava mostrando uma menor de idade em um “contexto sexualizado”, porque o contexto mais amplo deixa claro que o usuário estava informando sobre um tema de interesse público e condenando a exploração sexual de uma menor de idade. O usuário replicou a linguagem usada nos meios de comunicação suecos que informaram sobre o testemunho prestado nos casos judiciais dos estupros mencionados na publicação.
8.2. Conformidade com os valores da Meta
O Comitê considera que a decisão da Meta de remover a publicação do usuário é incompatível com o valor de “voz”. O Comitê concorda que os valores de “privacidade”, de “segurança” e de “dignidade” são de grande importância quando se trata de conteúdo que descreve explicitamente a exploração sexual de um menor de idade. No entanto, o Comitê acredita que as duas frases em questão não se encaixam na definição de conteúdo que explore crianças sexualmente. Além disso, o interesse público em chamar a atenção para esse tema e informar as pessoas ou defender reformas jurídicas e políticas estão no cerne do valor de “voz”. Ponderando os diferentes valores envolvidos neste caso, o Comitê também destaca a importância de não silenciar os sobreviventes de exploração sexual infantil e os defensores deles. O Comitê também reconhece que é menos provável que alguns sobreviventes falem por medo de que os detalhes explícitos da agressão se espalhem de modo viral na plataforma.
8.3. Conformidade com as responsabilidades da Meta com os direitos humanos
O Comitê considera que restaurar o conteúdo neste caso é coerente com as responsabilidades da Meta com os direitos humanos.
Liberdade de expressão e de informação e Artigo 19 do PIDCP
O Artigo 19 do PIDCP oferece ampla proteção à liberdade de expressão por qualquer meio e independentemente de fronteiras. No entanto, é possível restringir esse direito em determinadas condições, conhecidas como o teste tripartite de legalidade (clareza), legitimidade e necessidade e proporcionalidade. Embora o PIDCP não crie para a Meta as mesmas obrigações criadas para os Estados, a empresa se comprometeu a respeitar os direitos humanos conforme estabelecido nos UNGPs. Esse compromisso abrange os direitos humanos internacionalmente reconhecidos conforme definidos, entre outros instrumentos, no PIDCP e na CRC. O relator especial da ONU sobre liberdade de opinião e expressão sugeriu que o parágrafo 3 do Artigo 19 do PIDCP oferece um sistema útil para orientar as práticas de moderação de conteúdo das plataformas, segundo o para. 6 do A/HRC/38/35 (parágrafo 6 do relatório A/HRC/38/35)
I. Legalidade (clareza e acessibilidade das regras)
O requisito de legalidade na legislação internacional de direitos humanos prevê (a) que qualquer restrição à liberdade de expressão seja suficientemente acessível para que as pessoas saibam como a lei limita seus direitos e (b) que a lei deva ser formulada com suficiente precisão para que as pessoas controlem suas condutas.
Conforme discutido na Seção 8.1, o Comitê conclui que a publicação em foco não viola a política da Meta sobre exploração sexual infantil. Portanto, a remoção não estava em conformidade com uma regra aplicável. O Comitê também conclui que a política poderia se beneficiar de uma definição clara de termos-chave e de exemplos de casos limítrofes. Os termos “representação” e “sexualização” não estão definidos nos Padrões da Comunidade destinados ao público. Se a Meta não define termos-chave ou não divulga exceções relevantes, os usuários não conseguem entender como cumprir as regras.
O Comitê observa que as “Perguntas Conhecidas” e os Padrões de Implementação Interna (IIS, na sigla em inglês) da Meta, que são diretrizes fornecidas aos analistas de conteúdo para ajudá-los a avaliar material que pode violar uma das políticas dos Padrões da Comunidade do Facebook, oferecem critérios mais específicos quando se trata de definir o que é a sexualização de um menor de idade na plataforma nos termos da política sobre exploração sexual, abuso e nudez infantil.
Na sua justificativa, a Meta informou o Comitê de que permite o “relato” de estupro e de exploração sexual, mas não declara isso nas políticas disponíveis publicamente nem define a distinção entre “representação” e “relato”. O Comitê observa que nem as políticas públicas nem as Perguntas Conhecidas e os IIS abordam a diferença entre a representação ou a sexualização explícita de um menor de idade, que é proibida, e relatos de estupro e de exploração sexual de um menor de idade, que é permitida.
O Comitê considera preocupante que o conteúdo do caso tenha permanecido na plataforma durante dois anos e, depois, tenha sido removido sem uma explicação adequada do que desencadeou a remoção. Durante esse período, não houve nenhuma alteração substancial nas políticas que explique a remoção. O Comitê perguntou se o envio do conteúdo para análise humana aconteceu por causa de uma alteração no classificador. A Meta indicou que foi uma combinação de pontuações do classificador de aprendizado de máquina/aprendizado artificial (uma previsão que um algoritmo faz sobre a probabilidade de que um conteúdo esteja violando uma política específica) e do número de visualizações que a publicação recebeu ao longo de duas semanas que desencadeou o envio da publicação para análise humana. Nas suas respostas às perguntas do Comitê, a Meta não especificou se houve uma alteração nos classificadores que teria determinado que o conteúdo não estava violando nenhuma política em 2019, mas sim que a tecnologia da empresa sinalizaria o mesmo conteúdo como potencialmente violador e merecedor de envio para análise humana em 2021.
II. Objetivo legítimo
As restrições à liberdade de expressão devem ter um objetivo legítimo, que inclui a proteção de direitos de terceiros. O Comitê concorda que a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil tem como objetivo prevenir danos no meio físico aos direitos dos menores de idade, danos esses que podem estar relacionados com conteúdo do Facebook. Portanto, as restrições a essa política visam a atender ao objetivo legítimo de proteger os direitos da criança à saúde física e mental, segundo o Artigo 12 do ICESCR e o Artigo 19 da CRC, o que promove os interesses da criança, de acordo com o Artigo 3 da CRC.
III. Necessidade e proporcionalidade
O princípio da necessidade e da proporcionalidade sob o direito internacional de direitos humanos requer que as restrições à expressão “sejam apropriadas para cumprir sua função protetora; sejam o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; [e] sejam proporcionais ao interesse a ser protegido”, segundo o parágrafo 34 do Comentário geral n.º 34. De acordo com esse mesmo parágrafo, o princípio da proporcionalidade exige que a forma de expressão em pauta seja considerada.
Assim como o Comitê declarou na decisão sobre o caso 2020-006-FB-FBR, na Seção 8.3, a Meta deve mostrar três coisas para demonstrar que selecionou o instrumento menos invasivo para alcançar o objetivo legítimo:
(1) os interesses da criança não poderiam ser defendidos por meio de medidas que não prejudiquem a expressão;
(2) entre as medidas que prejudicam a expressão, a Meta selecionou a medida menos invasiva; e
(3) a medida selecionada realmente ajuda a atingir o objetivo e não é ineficiente nem contraproducente, segundo o parágrafo 52 do relatório A/74/486.
Para analisar se os objetivos podem ser alcançados por meio de medidas que não infrinjam a liberdade de expressão, é necessário conhecer o conjunto completo de escolhas que a Meta fez e as opções disponíveis para lidar com o dano. Isso requer transparência perante o Comitê sobre a disseminação e o modo como o design da plataforma da Meta pode incentivar conteúdo sensacionalista. O Comitê solicitou à Meta informações ou pesquisas internas sobre como as escolhas de design feitas na plataforma do Facebook, incluindo decisões ou processos que afetam quais publicações disseminar, incentivam relatos sensacionalistas sobre temas que afetam crianças. A Meta não deu ao Comitê uma resposta clara à pergunta nem providenciou pesquisas sobre o assunto. A transparência é essencial para garantir a análise pública das ações da Meta. A falta de detalhes na resposta da Meta à pergunta do Comitê e a não divulgação pública de como as escolhas de design da plataforma relacionadas à disseminação afetam o discurso frustram os esforços do Comitê de determinar plenamente o instrumento menos restritivo para respeitar os direitos da criança de acordo com os interesses desta.
O Comitê conclui que a remoção do conteúdo em questão, que discute crimes sexuais contra menores de idade (um tema de interesse público e um objeto de debate público), não constitui o instrumento menos invasivo para promover os direitos da criança. O Comentário geral n.º 34 destaca a importância da expressão política no Artigo 19 do PIDCP, incluindo o direito à liberdade de expressão no “political discourse” (“discurso político”), nos “commentary on one’s own and on public affairs” (“comentários sobre assuntos próprios e públicos”) e na “discussion of human rights” (“discussão sobre direitos humanos”). Todos essas esferas englobariam a discussão sobre o sistema de justiça penal de um país e os relatos das suas operações em casos específicos.
O Comitê está ciente dos danos fora da plataforma que os sobreviventes de exploração sexual infantil sofrem devido a representações dessa exploração na plataforma. No entanto, o Comitê faz uma distinção entre o discurso do criminoso, que sexualiza a criança, e a publicação do usuário, que cita o criminoso para aumentar a conscientização sobre um tema de interesse público. O Comitê concorda com o parecer das organizações que trabalham com sobreviventes de exploração sexual sobre a importância de se levar em consideração a necessidade de proteger os testemunhos de sobreviventes ou outros conteúdos que tenham como objetivo informar o público e incentivar a participação na defesa de uma reforma das barreiras jurídicas, sociais e culturais para prevenir a exploração sexual infantil.
O Comitê considerou se o uso de uma tela de aviso pode ser uma medida menos invasiva para proteger os interesses da criança. Por exemplo, a política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil afirma que, a depender do contexto ou da legenda, são colocadas telas de aviso em conteúdo que apresenta narrativas ou declarações sobre exploração sexual de adultos compartilhadas pela vítima ou por terceiros (excluindo a vítima) que 1) apoiem a vítima 2) condenem o ato ou 3) visem a conscientização geral. Conforme uma publicação de blog no Newsroom da Meta que fala sobre como abordar a desinformação, a empresa declarou que, quando uma tela de aviso é colocada em um conteúdo, 95% dos usuários não clicam para visualizá-lo. Dado que o Comitê não tem informações sobre o nível referencial de engajamento, ele não pode chegar a uma conclusão sobre o impacto das telas de aviso, especialmente quando aplicadas a conteúdo que informa sobre exploração sexual infantil.
Por fim, o Comitê também levou em consideração o potencial de dano no meio físico quando os relatos incluem informações suficientes para identificar uma criança. O conteúdo que resulte na identificação funcional ou do tipo “quebra-cabeça” de um menor de idade que tenha sido vítima de exploração sexual infantil põe em jogo os direitos da criança à liberdade de expressão, à privacidade e à segurança, segundo o Artigo 19 do PIDCP, o Artigo 16 da CRC e o Artigo 19 da CRC, respectivamente. A identificação funcional pode ocorrer quando o conteúdo fornece ou compila uma quantidade suficiente de informação discreta para identificar uma pessoa sem nomeá-la. No caso em questão, o Comitê não consegue determinar se a informação fornecida, junto com os links para reportagens da imprensa, pode aumentar a possibilidade de que as vítimas sejam identificadas.
No entanto, alguns membros do Comitê enfatizaram que, quando existe uma dúvida sobre se um conteúdo pode ou não levar à identificação funcional de uma vítima infantil, a Meta deve zelar pela proteção à privacidade e à saúde física e mental da criança, em conformidade com os princípios de direitos humanos internacionais. Para esses membros, o poder de disseminação da plataforma é um fator-chave para se avaliar a possibilidade de identificação de menores de idade e as proteções oferecidas às crianças vítimas de abuso sexual.
A atual política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil proíbe “conteúdo que ridicularize ou identifique supostas vítimas de exploração sexual infantil pelo nome ou por foto”. Outras políticas que tratam de impedir a identificação de menores de idade ou de vítimas de um crime (como a política dos Padrões da Comunidade sobre proteção adicional de menores e a política dos Padrões da Comunidade sobre coordenação de danos e divulgação de crime) deixam lacunas significativas na abordagem da identificação funcional de menores de idade vítimas de exploração sexual.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo e exige que a publicação seja restaurada.
10. Declaração de parecer consultivo
Política de Conteúdo
- A Meta deve definir os termos “representação explícita” e “sexualização” na política dos Padrões da Comunidade contra exploração sexual, abuso e nudez infantil. A Meta deve deixar claro que nem toda linguagem explícita constitui representação explícita ou sexualização e explicar a diferença entre termos jurídicos, clínicos ou médicos e conteúdo explícito. A Meta também deve elucidar a distinção entre exploração sexual infantil e relatos de exploração sexual infantil. O Comitê considerará a recomendação como implementada quando um texto que defina os termos-chave e a distinção tiver sido adicionado aos Padrões da Comunidade.
- A Meta deve realizar um processo de desenvolvimento de políticas, incluindo uma discussão no Policy Forum (Fórum sobre Políticas), para determinar se deve incorporar, nos Padrões da Comunidade, uma proibição da identificação funcional de menores de idade vítimas de violência sexual e como fazer isso. Esse processo deve incluir o engajamento de partes interessadas e de especialistas na identificação funcional e nos direitos da criança. O Comitê considerará essa recomendação como implementada quando a Meta publicar as atas do Product Policy Forum (Fórum sobre Políticas de Produto) em que isso for discutido.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. Um instituto de pesquisa independente, com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de nações do mundo todo, forneceu informações especializadas sobre contexto sociopolítico e cultural. A Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia, também prestou serviços de pesquisa.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas