Anulado
Gênero musical drill do Reino Unido
O Comitê de Supervisão revogou a decisão da Meta de remover do Instagram um videoclipe do gênero musical drill do Reino Unido.
ATUALIZAÇÃO EM JANEIRO DE 2023:
No caso em apreço, o Comitê de Supervisão enviou uma solicitação de liberdade de informação à Polícia Metropolitana de Londres (MET), com perguntas sobre a natureza e o volume de solicitações que a MET fez a empresas de redes sociais, incluindo a Meta, para analisar ou remover conteúdo do gênero musical drill ao longo de um período de um ano. Em 7 de outubro de 2022 , a MET respondeu informando quantas solicitações foram enviadas e quantas resultaram em remoções. A resposta foi publicada na íntegra com a decisão. Além disso, os números presentes na resposta foram incluídos na decisão do Comitê, publicada em 22 de novembro de 2022. Em 4 de janeiro de 2023, a MET entrou em contato com o Comitê para informar que tinha identificado erros na resposta e que os tinha corrigido. Especificamente, ela corrigiu os números de todas as 992 solicitações (que antes eram 286) que a Polícia Metropolitana fez a empresas de redes sociais e serviços de streaming entre junho de 2021 e maio de 2022 para analisar ou remover conteúdo que envolvia o gênero musical drill. Essas solicitações geraram 879 remoções (que antes eram 255). Houve 28 solicitações relacionadas às plataformas da Meta (que eram 21) e 24 remoções (que eram 14). A decisão apresenta os números originais antes das correções da MET. Essa atualização não muda a análise do Comitê de Supervisão, tampouco a decisão sobre o caso. É possível acessar a resposta de liberdade de informação atualizada aqui.
Resumo do caso
O Comitê de Supervisão revogou a decisão da Meta de remover do Instagram um videoclipe do gênero musical drill do Reino Unido. A Meta removeu originalmente o conteúdo após uma solicitação da Polícia Metropolitana. Esse caso gera preocupações sobre as relações da Meta com a polícia, que tem o potencial de amplificar o viés. O Comitê faz recomendações para melhorar o cumprimento do devido processo e da transparência nessas relações.
Sobre o caso
Em janeiro de 2022, uma conta do Instagram que se identifica como divulgadora da música britânica publicou um conteúdo que destacava o lançamento da faixa do gênero musical drill do Reino Unido intitulada “Secrets Not Safe”, de autoria de Chinx (OS), incluindo um clipe do vídeo musical da faixa.
Pouco tempo depois, a Polícia Metropolitana, que é responsável pela aplicação da lei na Grande Londres, enviou um email para a Meta solicitando que a empresa analisasse todos os conteúdos que contivessem “Secrets Not Safe”. A Meta também recebeu contexto adicional da Polícia Metropolitana. Segundo a Meta, isso incluía informações sobre violência praticada por gangues, incluindo assassinatos, em Londres, e a preocupação da polícia de que a faixa pudesse causar mais violência retaliativa.
As equipes especializadas da Meta analisaram o conteúdo. Com base no contexto fornecido pela Polícia Metropolitana, eles concluíram que ele continha uma “ameaça velada” ao fazer referência a um tiroteio de 2017, o que poderia potencialmente causar mais violência. A empresa removeu o conteúdo da conta sob análise por violar sua política sobre violência e incitação. Ela também removeu 52 itens de conteúdo que continham a faixa “Secrets Not Safe” de outras contas, incluindo a de Chinx (OS). Subsequentemente, os sistemas automatizados da Meta removeram o conteúdo outras 112 vezes.
A Meta indicou este caso ao Comitê. O Comitê solicitou que a Meta indicasse também a publicação do conteúdo por Chinx (OS). No entanto, a Meta afirmou que isso era impossível, porque a remoção do vídeo de “Secrets Not Safe” da conta de Chinx (OS) causou a exclusão da conta, e o conteúdo dela não foi preservado.
Principais conclusões
O Comitê conclui que a remoção desse conteúdo não é compatível com os Padrões da Comunidade, os valores e as responsabilidades da Meta com relação aos direitos humanos.
A Meta não tinha provas suficientes para concluir que o conteúdo contivesse uma ameaça plausível, e a análise do Comitê não revelou nenhuma prova para corroborar tal conclusão. Na ausência de provas, a Meta deveria ter dado mais peso à natureza artística do conteúdo.
Este caso gera preocupações sobre as relações da Meta com órgãos públicos, especialmente quando as solicitações da polícia fazem com que um conteúdo legal seja analisado com relação aos Padrões da Comunidade e removido. Embora a polícia às vezes possa fornecer contexto e know-how, nem todo conteúdo que a polícia preferiria que fosse removido deveria ser removido. Portanto, é essencial que a Meta avalie essas solicitações de forma independente, especialmente quando elas estão relacionadas à expressão artística de indivíduos pertencentes a grupos minoritários ou marginalizados para os quais o risco de viés cultural contra os respectivos conteúdos é alto.
Os canais que a polícia usa para fazer solicitações à Meta são aleatórios e não transparentes. Os órgãos policiais não são solicitados a cumprir critérios mínimos para justificar suas solicitações, portanto, as interações com eles carecem de uniformidade. Os dados que a Meta publica sobre as solicitações de órgãos públicos também são incompletos.
A falta de transparência sobre a relação da Meta com a polícia cria o potencial de que a empresa amplifique o viés. Uma solicitação feita pelo Comitê baseada na lei de liberdade de informação revelou que todas as 286 solicitações da Polícia Metropolitana feitas junto a empresas de redes sociais e serviços de streaming para analisar ou remover conteúdos musicais de junho de 2021 a maio de 2022 envolviam o gênero musical drill, que é particularmente popular entre jovens negros britânicos. 255 dessas solicitações resultaram em remoção de conteúdo pelas plataformas. 21 solicitações estavam relacionadas com plataformas da Meta e resultaram em 14 remoções de conteúdo. O Comitê considera que, para honrar seus valores e suas responsabilidades com relação aos direitos humanos, as respostas da Meta às solicitações da polícia devem respeitar o devido processo e ser mais transparentes.
Este caso também gera preocupações sobre o acesso à reparação. Como parte deste caso, a Meta informou ao Comitê que, quando a empresa toma decisões relacionadas com conteúdo “sob escalonamento”, os usuários não podem fazer apelação junto ao Comitê. Uma decisão “sob escalonamento” é tomada pelas equipes especializadas internas da Meta. Segundo a Meta, todas as decisões relacionadas com solicitações da polícia são tomadas “sob escalonamento” (a não ser que a solicitação seja feita por meio de uma “ferramenta de denúncia no produto” disponível publicamente), assim como ocorre com determinadas políticas que só podem ser aplicadas pelas equipes internas da Meta. Essa situação soma-se às preocupações geradas ao se preparar o parecer consultivo do Comitê sobre políticas a respeito da verificação cruzada, quando a Meta revelou que, entre maio e junho de 2022, cerca de um terço do conteúdo do sistema de verificação cruzada não pôde ser escalonado para o Comitê.
A Meta indicou conteúdos escalonados ao Comitê em várias ocasiões, incluindo esta. No entanto, o Comitê está preocupado com o fato de que tenha sido negado o acesso à reparação a usuários quando a Meta tomou algumas de suas decisões sobre conteúdo mais ricas em consequências. A empresa deve resolver esse problema urgentemente.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo.
O Comitê recomenda que a Meta:
- Crie um sistema padronizado para receber solicitações de remoção de conteúdo por parte de órgãos públicos. Isso deve incluir a exigência de critérios como, por exemplo, de que maneira a política foi violada, e provas da violação.
- Publique dados sobre a análise de conteúdo e as solicitações de remoção por parte de órgãos públicos por violações dos Padrões da Comunidade.
- Revise regularmente seus dados sobre decisões de moderação de conteúdo acionadas por solicitações de órgãos públicos, para avaliar a presença de eventuais vieses sistêmicos, e crie um mecanismo para lidar com qualquer viés identificado.
- Dê aos usuários a oportunidade de fazer apelação ao Comitê de Supervisão quando ela tomar decisões sobre conteúdo “sob escalonamento”.
- Preserve contas e conteúdos penalizados ou desabilitados por publicar conteúdo sujeito a uma investigação em aberto pelo Comitê.
- Atualize seu valor de “Voz” para refletir a importância da expressão artística.
- Esclareça, nos Padrões da Comunidade, que, para que um conteúdo seja removido como “ameaça velada”, é necessário um sinal primário e um sinal secundário, e esclareça qual é qual.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão revoga a decisão da Meta de remover um clipe do Instagram que anunciava o lançamento de uma faixa do gênero musical drill do Reino Unido pelo artista Chinx (OS).
A Meta indicou este caso ao Comitê porque ele gera perguntas recorrentes sobre o tratamento apropriado de expressões artísticas que fazem referência à violência. Ele envolve um equilíbrio entre os valores da Meta de “Voz”, sob a forma de expressão artística, e “Segurança”.
O Comitê considera que a Meta não tinha provas suficientes para concluir, de forma independente, que o conteúdo continha uma ameaça velada plausível. Na avaliação do Comitê, o conteúdo não deveria ter sido removido em ausência de provas mais convincentes de que o conteúdo poderia causar danos iminentes. A Meta deveria ter levado em consideração, de forma mais completa, o contexto artístico do conteúdo ao avaliar a credibilidade da suposta ameaça. O Comitê considera que o conteúdo não violou o Padrão da Comunidade da Meta sobre violência e incitação e que sua remoção não protegeu suficientemente o valor de “Voz” da Meta, nem atendeu às responsabilidades da Meta como empresa com relação aos direitos humanos.
Este caso gera preocupações mais amplas sobre a relação da Meta com órgãos públicos, inclusive quando a polícia solicita que a Meta avalie se um conteúdo legal cumpre seus próprios Padrões da Comunidade. O Comitê acredita que os canais que os órgãos públicos podem usar para solicitar essas avaliações são aleatórios e não transparentes. A ausência de transparência e de proteções adequadas sobre a relação da Meta com a polícia cria um potencial de que a empresa intensifique as práticas abusivas ou discriminatórias dos órgãos públicos.
Este caso revela também que, quanto às decisões de moderação de conteúdo que a Meta toma sob escalonamento, houve usuários aos quais foi erroneamente negada a oportunidade de fazer apelação junto ao Comitê de Supervisão. As decisões “sob escalonamento” são aquelas tomadas pelas equipes internas especializadas da Meta, e não por meio do processo de análise de conteúdo “na mesma escala”. Essa falta de disponibilidade de apelação soma-se às preocupações sobre o acesso ao Comitê, que serão abordadas no próximo parecer consultivo dele sobre políticas a respeito da verificação cruzada. Quando combinadas, essas preocupações suscitam perguntas sérias sobre o direito de acesso dos usuários a uma reparação quando a Meta toma, sob escalonamento, algumas de suas decisões sobre conteúdo mais ricas em consequências. A empresa deve resolver esse problema urgentemente.
2. Descrição do caso e histórico
Em janeiro de 2022, uma conta do Instagram que se identifica como divulgadora da música britânica publicou um vídeo com uma breve legenda na sua conta pública. O vídeo era um clipe de 21 segundos de uma música britânica do gênero drill chamada “Secrets Not Safe” do rapper Chinx (OS). A legenda marcava Chinx (OS) e um artista afiliado e destacava que a faixa havia acabado de ser lançada. O videoclipe é do segundo verso da música e acaba com uma tela preta com o texto “OUT NOW” (“DISPONÍVEL AGORA”).
O drill é um subgênero da música rap popular do Reino Unido, principalmente entre jovens negros. Muitos artistas e fãs do drill vivem em Londres. Esse gênero de música é hiperlocal, ou seja, os coletivos de drill podem estar associados a áreas pequenas, como um único conjunto habitacional. Trata-se de um gênero de movimento popular, amplamente tocado em inglês em contexto urbano, com uma linha tênue que separa os artistas profissionais dos amadores. Os artistas muitas vezes falam, de forma detalhada, sobre conflitos de rua violentos usando uma narrativa em primeira pessoa, com imagens e letras que ilustram ou descrevem atos violentos. Alegações potenciais de violência e bravatas performáticas são consideradas como parte integrante do gênero — uma forma de expressão artística em que pode ser difícil distinguir a realidade da ficção. Por meio dessas alegações, os artistas competem por relevância e popularidade. Se o gênero musical drill causa violência ou não no mundo real é uma questão debatida, especialmente a confiabilidade das alegações comprobatórias feitas no debate.
Nos últimos anos, o registro de incidentes de violência com armas de fogo e armas brancas em Londres tem sido alto, com efeitos desproporcionais nas comunidades negras.
A letra do trecho da faixa é citada abaixo. O Comitê adicionou os significados de termos em inglês não padrão entre colchetes e removeu os nomes de indivíduos:
“Ay, broski [a close friend], wait there one sec (wait).” (Ei, broski [amigo próximo], espere aí um momento (espere).) “You know the same mash [gun] that I showed [name redacted] was the same mash that [name redacted] got bun [shot] with.” (Você sabe que a mesma pistola que eu mostrei a [nome removido] era a mesma pistola que atirou em [nome removido].) “Hold up, I’m gonna leave somebody upset (Ah, fuck).” (Espere só, vou deixar alguém contrariado (ah, porra).) “I’m gonna have man fuming.” (Vou fazer sair fumaça do homem.) “He was with me putting loud on a Blue Slim [smoking cannabis] after he heard that [name redacted] got wounded. [Name redacted] got bun, he was loosing (bow, bow) [he was beaten].” (Ele estava comigo fumando maconha depois de ouvir que [nome removido] tinha sido ferido. [Nome removido] levou uma surra.) “Reverse that whip [car], confused him.” (Aquele carro deu marcha a ré e o confundiu.) “They ain’t ever wheeled up a booting [a drive-by shooting] (Boom).” (Eles nunca tinham atirado passando de carro (Boom).) “Don’t hit man clean, he was moving.” (Não atiraram direito no homem, ele estava se mexendo.) “Beat [shoot] at the crowd, I ain’t picking and choosing (No, no).” (Vou atirar na multidão, não vou selecionar e escolher (não, não).) “Leave man red [bleeding], but you know [track fades out].” (Deixaram o homem sangrando, mas você sabe [a faixa acaba em fade out]).
Pouco tempo depois da publicação do vídeo, a Meta recebeu uma solicitação por email da Polícia Metropolitana do Reino Unido para analisar todos os conteúdos que incluíssem essa faixa de Chinx (OS). A Meta afirma que a polícia forneceu contexto de violência de gangues e assassinatos relacionados em Londres, e sinalizou que determinados elementos da faixa completa poderiam aumentar o risco de violência de gangues retaliativa.
Ao receber a solicitação da Polícia Metropolitana, a Meta escalonou a análise de conteúdo à sua equipe interna de Operações Globais, e em seguida à sua equipe de Política de Conteúdo. A equipe de Política de Conteúdo toma decisões de remoção seguindo o parecer de especialistas no assunto e após análises contextuais especializadas. Com base no contexto adicional fornecido pela Polícia Metropolitana, a Meta adotou a opinião de que o trecho da faixa se referia a um tiroteio de 2017. Ela determinou que o conteúdo violou a política sobre violência e incitação, especificamente a proibição de “declarações codificadas em que o método de violência ou lesão não esteja claramente enunciado, mas cuja ameaça seja velada ou implícita”. A Meta acreditava que a letra da faixa “agia como uma chamada para ação ameaçadora que poderia contribuir para um risco de violência ou lesões corporais iminentes, incluindo violência retaliativa entre gangues”. Portanto, a Meta removeu o conteúdo.
Horas mais tarde, o criador do conteúdo fez uma apelação da decisão junto à Meta. Geralmente, os usuários não podem fazer apelação de decisões da Meta sobre conteúdo que a empresa toma por meio do seu processo de escalonamento. O motivo disso é que as apelações dos usuários junto à Meta não são encaminhadas para equipes de escalonamento, e sim para analistas da mesma escala. Sem acesso ao contexto adicional disponível sob escalonamento, esses analistas correriam um maior risco de cometer erros e de reverter incorretamente decisões tomadas sob escalonamento. Neste caso, porém, devido a um erro humano, o usuário conseguiu fazer uma apelação à decisão escalonada junto a analistas da Meta da mesma escala. Um analista da mesma escala avaliou o conteúdo como não violador e o restaurou no Instagram.
Oito dias depois, após uma segunda solicitação da Polícia Metropolitana do Reino Unido, a Meta removeu novamente o conteúdo por meio do seu processo de escalonamento.
A conta deste caso tem menos de 1.000 seguidores, a maioria dos quais mora no Reino Unido. O usuário recebeu notificações da Meta nas duas vezes em que o conteúdo foi removido, mas não foi informado de que as remoções foram iniciadas após uma solicitação das autoridades policiais do Reino Unido.
Além de remover o conteúdo sob análise, a Meta identificou e removeu 52 itens de conteúdo que continham a faixa “Secrets Not Safe” de outras contas, incluindo a conta de Chinx (OS). A Meta adicionou a conta em questão neste caso ao banco de dados do Serviço de Correspondência de Mídias sobre Violência e Incitação, marcando-a como violadora. Esses bancos de dados identificam automaticamente os conteúdos correspondentes e podem removê-los ou impedir que sejam carregados no Facebook e no Instagram. A adição do vídeo ao Serviço de Correspondência de Mídias resultou na remoção automática de outros 112 conteúdos correspondentes de outros usuários.
A Meta indicou este caso ao Comitê. O conteúdo que ela indicou fora publicado a partir de uma conta que não estava associada diretamente a Chinx (OS). Dado que a música de Chinx (OS) é central para este caso, o Comitê solicitou à Meta que indicasse também a decisão desta de remover a publicação do próprio Chinx (OS) que continha a mesma faixa. A Meta explicou que isso não era possível, porque a remoção do vídeo da conta do artista resultara em uma advertência. Isso fez com que a conta excedesse o limite para ser desabilitada permanentemente. Após seis meses, e antes que o Comitê solicitasse a indicação adicional, a Meta excluiu permanentemente a conta desabilitada de Chinx (OS) como parte de um processo automatizado regular, apesar da decisão pendente do Comitê de Supervisão sobre este caso. A ação de excluir a conta de Chinx (OS) e o respectivo conteúdo era irreversível, tornando assim impossível indicar o caso ao Comitê.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar decisões que a Meta indica para análise, segundo o Artigo 2 da Seção 1 e do o Artigo 2 da Seção 2.1.1 dos Regulamentos Internos. De acordo com a seção 5 do artigo 3 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir pareceres consultivos sobre política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo como Artigo 3, Seção 4 e .
Quando o Comitê identifica casos que geram questões semelhantes, eles podem ser atribuídos a um painel conjunto. Neste caso, o Comitê solicitou à Meta que indicasse também os conteúdos que incluíam a mesma faixa publicada pelo artista Chinx (OS). Na opinião do Comitê, a dificuldade de equilibrar a segurança e a expressão artística poderia ter sido gerida melhor pela Meta se esta tivesse indicado a publicação de Chinx (OS) da sua música da sua própria conta. Isso teria permitido que o Comitê emitisse uma decisão vinculativa a respeito da publicação do artista. As ações da Meta neste caso excluíram de fato o artista da participação formal nos processos do Comitê e removeram a conta de Chinx (OS) da plataforma sem acesso a reparação.
Em várias ocasiões, incluindo esta, a Meta indicou conteúdo que foi escalonado dentro da Meta ao Comitê (ver, por exemplo, o caso “Gabinete de Comunicações da Região do Tigré” e o caso “Suspensão do ex-presidente Trump”). Quando a Meta toma uma decisão sobre conteúdo “sob escalonamento”, os usuários não podem fazer apelação da decisão junto à empresa ou ao Comitê. Dado que a Meta pode indicar casos decididos sob escalonamento ao Comitê, os usuários que criaram ou relataram o conteúdo deveriam igualmente ter o direito de fazer apelação junto ao Comitê. As decisões tomadas sob escalonamento estão provavelmente entre as mais significativas e difíceis, em que uma supervisão independente tem a máxima importância. Os documentos aplicáveis do Comitê dispõem que todas as decisões de moderação de conteúdo que estiverem dentro do escopo, não forem excluídas pelos Regulamentos Internos (Regulamentos Internos, Artigo 2, Seções 1.2 e 1.2.1) e tiverem esgotado o processo de apelação interno da Meta (Estatuto, Artigo 2, Seção 1) se qualificam para que as pessoas façam apelação junto ao Comitê.
4. Fontes de autoridade
O Comitê de Supervisão considerou as seguintes autoridades e padrões:
I. Decisões do Comitê de Supervisão:
- “Ilustração retratando policiais colombianos” (decisão sobre o caso 2022-004-FB-UA): respondendo a preocupações de que os bancos de dados do Serviço de Correspondência de Mídias possam amplificar o impacto de decisões incorretas, o Comitê recomendou que a Meta melhore urgentemente os procedimentos para remover rapidamente conteúdos não violadores adicionados incorretamente a esses bancos de dados.
- “Animação Knin” (decisão sobre o caso 2022-001-FB-UA): o Comitê revogou a decisão da Meta de deixar o conteúdo na plataforma, concluindo que uma comparação implícita entre sérvios étnicos e ratos violava o Padrão da Comunidade sobre Discurso de Ódio, e a referência, nessa comparação, a um evento histórico do passado também violava o Padrão da Comunidade sobre Violência e Incitação.
- “Cinto Wampum” (decisão sobre o caso 2021-012-FB-UA): o Comitê enfatizou a importância de que a Meta respeite a expressão artística.
- “Publicação compartilhada da Al Jazeera” (decisão sobre o caso 2021-009-FB-UA): o Comitê recomendou que a Meta formalize um processo transparente de como ela trata e relata publicamente as solicitações de órgãos públicos. O relatório de transparência deve diferenciar entre as solicitações de órgãos públicos que tenham resultado em remoções por violações dos Padrões da Comunidade, as solicitações que tenham levado à remoção ou bloqueio geográfico por violação da lei local e as solicitações que não tenham levado a nenhuma ação.
- “Isolamento de Öcalan” (decisão sobre o caso 2021-006-IG-UA): o Comitê recomendou que a Meta notifique os usuários quando o conteúdo deles for removido após uma solicitação de um órgão público. A decisão também fez recomendações sobre o relatório de transparência a respeito dessas solicitações.
- “Protesto na Índia contra a França” (decisão sobre o caso 2020-007-FB-FBR): o Comitê notou os desafios de abordar ameaças veladas de violência em escala devido à importância da análise contextual.
- “Sintomas de câncer de mama e nudez” (decisão sobre o caso 2020-004-IG-UA): o Comitê recomendou que a Meta esclareça aos usuários do Instagram que os Padrões da Comunidade do Facebook aplicam-se igualmente ao Instagram. Essa recomendação foi repetida na decisão sobre o caso “Ressignificação de palavras em árabe” ( 2022-003-IG-UA).
II. Políticas de conteúdo da Meta:
Este caso envolve as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook.
As Diretrizes da Comunidade do Instagram afirmam, sob o título “Respeite os outros membros da comunidade do Instagram”, que a empresa quer “promover uma comunidade positiva e diversificada”. A empresa remove conteúdos que contenham “ameaças plausíveis”, sendo essas palavras vinculadas ao Padrão da Comunidade do Facebook sobre Violência e Incitação. As Diretrizes estabelecem também que:
Ameaças reais de danos à segurança pública e pessoal não são permitidas. Isso inclui tanto ameaças específicas de lesões corporais quanto ameaças de roubo, vandalismo e outros danos financeiros. Analisamos cuidadosamente as denúncias de ameaças e consideramos várias questões para determinar se uma ameaça é plausível.
O fundamento da política do Padrão da Comunidade sobre Violência e Incitação do Facebook declara que o objetivo do Padrão “é evitar potenciais danos no meio físico que possam estar relacionados a conteúdo do Facebook”, e que, embora a Meta entenda que “as pessoas comumente expressam desdém ou desacordo por meio de ameaças ou incitação à violência de maneira cômica, nós removemos palavras que incitem ou facilitem qualquer violência grave.” Ele estabelece também que a Meta remova conteúdos, desabilite contas e colabore com as autoridades policiais se acreditar que há “um risco real de lesões corporais ou ameaças diretas à segurança pública”. A Meta declara que tenta “levar em conta a linguagem e o contexto para distinguir declarações fortuitas de conteúdo que constitua uma ameaça plausível”.
Sob um subtítulo que afirma que a Meta exige “informações adicionais e/ou contexto para aplicar”, o Padrão da Comunidade estabelece que os usuários não devem publicar declarações codificadas “em que o método de violência ou dano não esteja claramente enunciado, mas a ameaça esteja velada ou implícita”. Isso inclui “referências a incidentes históricos ou fictícios de violência” e os casos em que “os especialistas no assunto ou no contexto local confirmem que a declaração em questão poderia ser ameaçadora e/ou levar a violência ou lesões corporais iminentes”.
III. Os valores da Meta:
O valor "Voz" é definido como "fundamental":
O objetivo de nossos Padrões da Comunidade é criar um lugar em que as pessoas possam se expressar e tenham voz. A Meta quer que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que seja sobre temas que gerem controvérsias e objeções.
A Meta limita “Voz” com base em quatro valores. “Segurança” e “Dignidade” são os mais pertinentes neste caso:
Segurança: Temos o compromisso de fazer do Facebook um lugar seguro. Removemos conteúdo que possa contribuir para o risco de danos à segurança física das pessoas. Conteúdos com ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
Dignidade:acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem nem difamem umas às outras.
IV. Normas internacionais dos direitos humanos:
Os UN Guiding Principles on Business and Human Rights (Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, UNGPs, pelas iniciais em inglês), que contam com o apoio do Conselho de Direitos Humanos da ONU desde 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso com relação aos direitos humanos de acordo com os UNGPs. Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise que o Comitê fez das responsabilidades da Meta em termos de direitos humanos.
- O direito de liberdade de opinião e expressão: Article 19, International Covenant on Civil and Political Rights (Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, PIDCP, na sigla em inglês); General comment No. 34, Human Rights Committee, de 2011 (Comentário geral n.º 34, do Comitê de Direitos Humanos, de 2011); Relator Especial da ONU sobre os relatórios de liberdade de opinião e expressão: A/HRC/38/35 (2018), A/74/486 (2019), A/HRC/44/49/Add.2 (2020).
- Direito à vida: Artigo 6, PIDCP.
- Direito à segurança das pessoas: Artigo 9, parágrafo 1, PIDCP.
- Direito a um recurso efetivo: Artigo 2 do PIDCP; Comentário Geral N° 31, Comitê de Direitos Humanos (2004).
- Igualdade e não discriminação: Artigo 2, parágrafo 1 e Artigo 26 (PIDCP); Artigo 2, ICERD.
- Direitos culturais: Artigo 27, PIDCP; Pacto Internacional dos Direitos Econômicos, Sociais e Culturais (PIDESC), Artigo 15; Relatório Especial da ONU no campo dos direitos culturais, relatório sobre liberdade artística e criatividade, A/HRC/23/34, 2013.
5. Envios do usuário
A Meta indicou este caso ao Comitê e o Comitê o selecionou em meados de junho de 2022. Devido a um erro técnico que em seguida foi corrigido, a Meta não notificou com sucesso ao usuário que o Comitê tinha selecionado um caso relacionado com conteúdo que ele havia publicado, e não o convidou a enviar uma declaração ao Comitê. No final de agosto, a Meta notificou manualmente o usuário, mas o usuário não forneceu uma declaração dentro do prazo de 15 dias.
6. Envios da Meta
A Meta explicou ao Comitê que ela removeu o conteúdo porque a publicação no Instagram violou a política sobre violência e incitação por conter uma ameaça velada de violência. A Meta argumentou que sua decisão segue os princípios de direitos humanos internacionais porque os Padrões da Comunidade explicam que os usuários não podem publicar ameaças veladas de violência; porque a aplicação dessa política atende ao objetivo legítimo de proteger os direitos das outras pessoas e da ordem pública; e porque a remoção do conteúdo em questão foi necessária e adequada para cumprir esses objetivos.
A Meta considera a decisão particularmente difícil, porque sua política sobre violência e incitação não tem exceções explícitas para humor, sátira ou expressão artística. A política exige que a Meta avalie se uma ameaça é plausível ou apenas uma exibição de bravata ou uma expressão provocadora mas, em última instância, não violenta. A Meta considera este caso como significativo porque ele gera perguntas recorrentes sobre o tratamento apropriado de expressões artísticas que fazem referência à violência. Essa avaliação envolve o equilíbrio entre os valores de “Voz” e “Segurança”. A Meta afirmou ao Comitê que, quando o trabalho de um criador inclui ameaças de violência ou declarações que poderiam contribuir para um risco de violência, ela tende “para o lado de removê-lo de nossas plataformas”.
As orientações internas da Meta para moderadores, os Padrões de Implementação internos, estabelecem a “análise de ameaças veladas” que a Meta usa para determinar a existência de ameaças veladas conforme o Padrão da Comunidade sobre Violência e Incitação. Eles explicam que, para que um conteúdo se qualifique como ameaça velada, deve haver tanto um sinal primário (como uma referência a um ato de violência anterior) como um sinal secundário. Os sinais secundários incluem a indicação de especialistas no assunto ou no contexto local de que o conteúdo é potencialmente ameaçador, ou confirmação pelo alvo de que ele vê o conteúdo como ameaçador. Segundo a Meta, as ONGs locais, a equipe de Política Pública da Meta ou outros especialistas locais fornecem sinais secundários. A “análise de ameaças veladas” só é realizada “sob escalonamento”, ou seja, não pode ser realizada por analistas “da mesma escala”. Ela só pode ser realizada pelas equipes internas da Meta.
Neste caso, a Meta constatou que o conteúdo continha um sinal primário ao se referir à participação do rapper em um tiroteio anterior e ao indicar uma intenção de responder ulteriormente. Segundo a Meta, o sinal secundário era a confirmação pela Polícia Metropolitana do Reino Unido de que ela via o conteúdo como potencialmente ameaçador ou com probabilidade de contribuir para violência ou lesões corporais iminentes. A polícia não alegou que o conteúdo violasse a legislação local. A Meta afirma que avalia os relatórios da polícia juntamente com especialistas em política, cultura e linguística pertencentes às equipes da Meta.
A Meta argumentou que o gênero musical drill tem sido frequentemente associado a violência, citando um relatório da Policy Exchange que alegava que aproximadamente um quarto dos assassinatos cometidos por gangues em Londres tinham sido vinculados ao gênero musical drill. No entanto, mais tarde a Meta reconheceu que esse relatório foi objeto de “certas críticas de criminologistas”. A Meta citou uma carta aberta assinada por 49 criminologistas, cientistas sociais e organizações profissionais que rejeitaram “o relatório como incorreto do ponto de vista factual, enganoso e politicamente perigoso” e por “cometer erros graves de correlação causal”.
Certas políticas da Meta só podem ser aplicadas pelas equipes internas da Meta, por meio do seu processo de escalonamento interno. Isso é conhecido como uma decisão “sob escalonamento”. A Meta forneceu uma lista de cerca de 40 regras aplicáveis “somente sob escalonamento” e nove áreas de políticas. O Comitê perguntou à Meta como, neste caso, um analista da mesma escala pôde restaurar uma publicação que havia sido removida sob escalonamento. A Meta respondeu que “excepcionalmente neste caso e devido a um erro humano, o criador de conteúdo conseguiu fazer uma apelação da decisão inicial de remoção”. A Meta revelou que quando um conteúdo é submetido a ação por meio do processo de escalonamento interno da Meta, geralmente não é possível fazer apelação para um segundo exame pela empresa. Isso é para impedir que analistas “da mesma escala” revertam decisões tomadas “sob escalonamento” sem acesso ao contexto disponível na análise escalonada.
Sob solicitação do Comitê, a Meta forneceu um briefing sobre “Solicitações de órgãos públicos para analisar conteúdo por violações dos Padrões da Comunidade”. A Meta explicou ao Comitê que os órgãos públicos podem fazer solicitações à empresa para remover conteúdo por meio de email, de publicação ou da central de ajuda, assim como por meio de ferramentas de denúncia no produto, que enviam o conteúdo para análise automática ou “na mesma escala”.
A Meta explicou que, quando ela recebe uma solicitação da polícia feita fora das ferramentas no produto, o conteúdo passa por um processo de escalonamento interno. Independentemente de como um escalonamento é recebido, existe um processo padronizado de escopo e priorização para avaliar a urgência, a sensibilidade e a complexidade do escalonamento. Esse processo determina qual será a equipe da Meta que tratará a solicitação e a posição da solicitação na fila. Após uma solicitação de análise de terceiros, incluindo órgãos públicos, a Equipe de Operações Globais da Meta preenche manualmente um formulário com sinais. O modelo e os pilares da priorização levam em consideração sinais relacionados com riscos legais, de reputação e regulatórios, o impacto na segurança física da comunidade da Meta, o escopo e a audiência do problema em questão e a sensibilidade do problema em termos de tempo.
Esses pilares de priorização são classificados em ordem de importância, e uma pontuação de prioridade é automaticamente calculada com base nos sinais inseridos. O modelo é dinâmico e responde às alterações do ambiente (por exemplo, eventos offline) e aos refinamentos que a Meta introduz. Os escalonamentos de alta prioridade, como neste caso, são enviados a uma equipe especializada dentro da equipe de Operações Globais da Meta. A equipe analisa o conteúdo com base nos Padrões da Comunidade, investiga, entra em contato com as partes interessadas para avaliação adicional, quando necessário, e toma uma decisão de monitoramento. Em alguns casos, incluindo este, o conteúdo é então escalonado à equipe de Política de Conteúdo para um parecer. A ação realizada é comunicada à(s) pessoa(s) externa(s) que enviou(enviaram) a solicitação original. A Meta afirmou que sua equipe de direitos humanos normalmente não intervém em aplicações individuais do quadro das ameaças veladas.
A Meta declara que quando ela recebe solicitações de remoção de conteúdo da parte de autoridades policiais, ela avalia o conteúdo com base nos Padrões da Comunidade da mesma forma que o faria com qualquer outro conteúdo, independentemente de como tenha sido detectado ou escalonado. A Meta alega que isso significa que as solicitações são tratadas da mesma forma em todos os países. A Meta explicou que a pontuação de prioridade é afetada pelo contexto fornecido com relação aos pilares. Embora a identidade do solicitante não seja um fator que afeta diretamente a priorização, esses tipos específicos de contexto têm um impacto sobre a priorização.
Para fazer uma apelação ao Comitê de Supervisão, um usuário deve ter uma identificação de referência de apelação. A Meta emite essas identificações como parte do seu processo de apelação. Em resposta às perguntas do Comitê, a Meta confirmou que faz isso para decisões sobre conteúdo que se qualificam para apelação interna e após uma segunda análise ter sido esgotada. Portanto, em situações em que a Meta intervém em um conteúdo sem permitir uma apelação, não há nenhuma oportunidade de fazer uma apelação ao Comitê. Esse é geralmente o caso para decisões tomadas “sob escalonamento”, como as que são analisadas após solicitações de órgãos públicos (feitas fora das ferramentas de denúncia no produto), e dos conteúdos analisados com relação a políticas de “somente sob escalonamento”.
O Comitê enviou formalmente à Meta um total de 26 perguntas por escrito, incluindo três rodadas de perguntas de acompanhamento. Esses números excluem as perguntas que o Comitê fez durante o briefing presencial que a Meta forneceu ao Comitê sobre como ela trata as solicitações de órgãos públicos. Das perguntas por escrito, 23 foram respondidas integralmente, e três solicitações não foram atendidas pela Meta. A Meta se recusou a fornecer dados sobre as solicitações da polícia globais e no Reino Unido que têm como foco “ameaças veladas” ou o gênero musical drill e sobre a proporção de solicitações que resultam em remoção por violações dos Padrões da Comunidade. Além disso, a Meta se recusou a fornecer uma cópia das solicitações de análise de conteúdo recebidas da Polícia Metropolitana neste caso. No entanto, a Polícia Metropolitana forneceu ao Comitê uma cópia da primeira solicitação enviada à Meta, sob a condição de que o conteúdo da solicitação permanecesse confidencial.
7. Comentários públicos
O Comitê de Supervisão considerou dez comentários públicos relacionados ao caso em questão. Foi enviado um comentário de cada uma das seguintes regiões: Europa; Oriente Médio e Norte da África; e América Latina e Caribe. Dois comentários foram enviados da Ásia Central e do Sul, e cinco dos Estados Unidos e do Canadá. A Polícia Metropolitana forneceu um comentário; ela entendeu que o Comitê iria revelar esse fato, mas não deu permissão para que o comentário fosse publicado. O Comitê solicitou que a Polícia Metropolitana reconsiderasse essa decisão em nome da transparência, mas ela recusou. A Polícia Metropolitana indicou que talvez pudesse fornecer o consentimento em algum momento subsequente. Se isso ocorrer, o Comitê compartilhará o comentário público.
Os envios cobriam os seguintes temas: viés racial e foco desproporcional da polícia nas comunidades negras; a importância do contexto sociocultural na avaliação da expressão artística; elos causais entre o gênero musical drill e a violência; e tratamento das solicitações de remoção emitidas por órgãos públicos.
O Comitê apresentou uma solicitação com base na Lei de Liberdade de Informação (Nº de referência: 01/FOI/22/025946) para que a Polícia Metropolitana fornecer informações sobre suas políticas e práticas de emissão de solicitações às redes sociais e às empresas de streaming para análise e/ou remoção de conteúdo. A análise do Comitê descrita abaixo baseia-se nas respostas a essa solicitação.
Para ler os comentários públicos enviados sobre este caso, clique aqui. Para ler a resposta da Polícia Metropolitana à solicitação do Comitê com base na Lei de Liberdade de Informação, clique aqui.
8. Análise do Comitê de Supervisão
O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.
8.1 Conformidade com as políticas de conteúdo da Meta
I. Regras sobre conteúdo
Neste caso, o Comitê considera que a remoção do conteúdo pela Meta não estava em conformidade com o Padrão da Comunidade sobre Violência e Incitação.
Detectar e avaliar ameaças em escala é difícil, especialmente quando as ameaças são veladas e quando podem ser necessários conhecimentos culturais ou linguísticos específicos para se avaliar o contexto (veja as decisões do Comitê de Supervisão sobre “Protesto na Índia contra a França” e “Animação Knin”). A expressão artística pode conter ameaças veladas, como acontece com qualquer outro meio. O desafio de avaliar a credibilidade de ameaças veladas na arte é particularmente agudo. As mensagens na arte podem ser intencionalmente obscuras em sua intenção e deliberadamente sujeitas a interpretação. As afirmações que fazem referência à violência podem ser codificadas, mas também podem ser de natureza performática ou satírica. Elas podem até mesmo caracterizar determinadas formas de arte, como o gênero musical drill. A Meta reconheceu esses desafios ao indicar este caso ao Comitê.
O Comitê concorda com a Meta que a letra do videoclipe não continha nenhuma ameaça explícita de violência conforme os termos do Padrão da Comunidade sobre Violência e Incitação.
Uma pergunta mais difícil é se o vídeo contém uma ameaça velada segundo os termos da mesma política. O fundamento da política afirma que a Meta procura “evitar potenciais danos no meio físico”, e que todo enunciado “que incite ou facilite violência grave” e que “represente um risco real de lesões corporais ou ameaça direta à segurança pública” será removido. É colocada ênfase na distinção entre ameaças plausíveis e ameaças não plausíveis. Estabelecer uma relação causal entre um enunciado e o risco de danos exige uma análise com muitos recursos.
Para que um conteúdo constitua uma ameaça “velada ou implícita” de acordo o Padrão da Comunidade sobre Violência e Incitação, não é necessário que o método da violência ou do dano seja articulado claramente. A Meta usa sua “análise de ameaças veladas”, descrita nas suas orientações não públicas para moderadores, a Orientação de Implementação interna, para avaliar se há presença de uma ameaça velada. Isso requer que sejam identificados tanto um sinal primário quanto um final secundário para que o conteúdo se qualifique como uma ameaça velada.
O Comitê concorda com a Meta que neste caso há um sinal primário. A letra contém referências a um incidente de violência “histórico”. É necessário contexto adicional para entender que se trata de um tiroteio ocorrido em 2017 entre duas gangues rivais de Londres. Para a Meta, o trecho completo se referia a esses eventos. A conclusão do Comitê de concordar com a Meta sobre a presença de um sinal primário baseia-se em duas análises das letras realizadas por terceiros independentes a pedido do Comitê. O Comitê nota que essas análises diferiam em aspectos substanciais da interpretação da Meta. Por exemplo, a Meta interpretou o termo “mash” como significando “maconha”, enquanto os especialistas consultados pelo Comitê interpretaram esse termo como “pistola”. A Meta interpretou o termo “bun” como “doidão”, enquanto os especialistas do Comitê o interpretaram como “levou um tiro”.
A identificação de uma ameaça velada ou implícita requer também um sinal secundário que mostre que a referência “poderia ser uma ameaça e/ou poderia causar violência ou lesões corporais iminentes” [ênfase adicionada]. Esse sinal depende de um contexto local, frequentemente fornecido por terceiros, como a polícia, que confirme que o conteúdo “seja considerado como potencialmente ameaçador ou apresente probabilidade de contribuir para violência ou lesões corporais” [ênfase adicionada]. Neste caso, a Polícia Metropolitana do Reino Unido forneceu essa confirmação. A Meta determinou que a referência de Chinx (OS) ao tiroteio de 2017 era potencialmente ameaçadora ou apresentava probabilidade de contribuir para violência ou lesões corporais iminentes e se qualificava como ameaça velada. A avaliação contextual da Meta incluiu a rivalidade específica entre gangues associada com o tiroteio de 2017, bem como o contexto mais amplo da violência e dos assassinatos entre gangues em Londres.
É apropriado que a Meta se baseie no conhecimento de especialistas em assuntos locais para avaliar o contexto pertinente e a credibilidade das ameaças veladas. O Comitê nota que existe uma ansiedade compreensível em torno dos altos níveis de violência por armas de fogo e armas brancas nos últimos anos em Londres, com efeitos desproporcionais sobre as comunidades negras. Às vezes a polícia pode fornecer esse contexto e conhecimento. Mas não todos os conteúdos que a polícia preferiria que fossem removidos devem ser removidos — nem mesmo todos os conteúdos que tenham o potencial de causar um aumento na violência. Portanto, é essencial que a Meta avalie ela mesma essas solicitações e chegue a uma conclusão independente. A empresa afirma que faz isso. A independência é crucial, e a avaliação deve exigir provas específicas de como o conteúdo causa danos. Isso é particularmente importante para compensar o potencial da polícia de compartilhar informações de forma seletiva e as oportunidades limitadas de se obter perspectivas alternativas de outras partes interessadas. Para a expressão artística de indivíduos pertencentes a grupos minoritários ou marginalizados, o risco de viés cultural contra o conteúdo deles é especialmente agudo.
Neste caso, a Meta não demonstrou que a letra do conteúdo analisado constituir-se uma ameaça plausível ou um risco de danos iminentes, assim como a própria análise do Comitê não revelou provas que corroborem essa tese. Para estabelecer que a referência a um tiroteio de cinco anos atrás apresenta um risco de danos hoje, são necessárias provas adicionais para além da referência em si. O fato de que a faixa faça referência a eventos que envolvem gangues envolvidas em uma rivalidade violenta não significa que as referências artísticas a essa realidade constituam necessariamente uma ameaça. Na ausência seja de detalhes suficientes para um maior esclarecimento dessa relação causal, como provas de ocorrências anteriores de letras que tenham se materializado em violência, seja de uma declaração do alvo da suposta ameaça de estar em perigo, deve-se dar maior peso à natureza artística da suposta ameaça ao se avaliar sua credibilidade. O fato de que as bravatas performáticas sejam comuns nesse gênero musical constituía um contexto pertinente que deveria ter sido levado em consideração pela análise que a Meta realizou da probabilidade de que a referência da faixa a eventos de violência do passado constituísse uma ameaça plausível no presente. Especialistas independentes informaram o Comitê de que uma análise da letra linha por linha para se determinar provas de delitos passados ou riscos de danos futuros é notoriamente imprecisa, e que a verificação de declarações supostamente factuais nas letras de drill é difícil (Digital Rights Foundation, PC-10618). Comentários públicos (por exemplo: Electronic Frontier Foundation, PC-10971) têm criticado o policiamento de músicas drill legais pelas autoridades policiais, e as pesquisas que a Meta citou em seus envios têm sido amplamente criticadas por criminologistas, como a própria empresa reconheceu. Na opinião do Comitê, essas críticas também deveriam ter sido levadas em consideração na análise da Meta, e deveriam ter levado a Meta a solicitar informações adicionais à polícia e/ou a outras partes com relação à causalidade, antes de remover o conteúdo.
O Comitê nota também que a faixa completa de Chinx (OS), da qual foi extraído um trecho neste caso, permanece disponível em plataformas de streaming de música acessíveis no Reino Unido, e o Comitê não tem observado nenhum indício de que isso tenha causado qualquer ato de violência. Esse contexto não estava disponível para a Meta no momento da sua decisão inicial sobre este caso, mas não deixa de ser pertinente para a análise independente do conteúdo pelo Comitê.
O Comitê reconhece a natureza profundamente contextual desse tipo de decisões sobre conteúdo que a Meta deve tomar, e a pressão temporal associada quando pode haver riscos de danos graves. Pessoas razoáveis podem ter opiniões diferentes, como neste caso, sobre se um determinado conteúdo constitui uma ameaça velada. Ainda assim, a falta de transparência nas decisões da Meta de remover conteúdo decorrentes de solicitações de órgãos públicos torna difícil avaliar se um erro da Meta em um caso individual reflete um desacordo razoável ou se é um indício de um possível viés sistêmico que requer dados e investigações adicionais. A Meta insiste em afirmar que sua “análise de ameaças veladas” é independente (e o Comitê concorda que assim deveria ser), mas neste contexto, uma afirmação da Meta não é suficiente. A Meta declara que avalia o conteúdo com base nos Padrões da Comunidade da mesma forma que o faria com qualquer outro conteúdo, independentemente de como seja detectado. A “análise de ameaças veladas” coloca a polícia na posição seja de denunciar o conteúdo (isto é, apontar um sinal primário), seja de fornecer todas as informações contextuais de que a Meta precisa para avaliar potenciais danos (isto é, fornecer o conhecimento local necessário para o sinal secundário). Embora possa haver bons motivos para ser adotar um esquema de priorização que garanta que as denúncias da polícia sejam avaliadas rapidamente, esse processo precisa ser concebido de forma a garantir que essas denúncias incluam informações suficientes para possibilitar uma avaliação independente, incluindo a obtenção de mais informações por parte da entidade solicitante ou de outras partes, se necessário.
O Comitê distingue a presente decisão da sua decisão sobre o caso da “Animação Knin”. Naquele caso, o contexto adicional para aplicar a regra da “ameaça velada” era a presença, na animação, de discurso de ódio contra o grupo alvejado no incidente violento anterior. O Comitê justificou a remoção com base principalmente no Padrão da Comunidade sobre Discurso de Ódio. A conclusão do Comitê de que o conteúdo violou também o Padrão da Comunidade sobre Violência e Incitação baseava-se em conhecimento contextual para entender o incidente histórico (Operação Tempestade) ao qual a publicação fazia referência. Esse conhecimento contextual é bem conhecido na região, tanto entre os falantes do idioma croata como entre as pessoas de etnia sérvia. Isso foi evidenciado pelo alto número de denúncias que o conteúdo daquele caso recebeu (quase 400), ao contrário do conteúdo deste caso, que não recebeu nenhuma denúncia. A incitação de ódio contra um grupo étnico era imediatamente evidente para um observador qualquer. Embora a compreensão de muitas das referências incluídas no conteúdo se baseasse em conhecimento contextual específico, esse conhecimento poderia ter sido adquirido sem se recorrer a terceiros externos.
II. Ação de monitoramento e transparência
Neste caso, uma solicitação da polícia resultou em 52 remoções manuais e 112 remoções automáticas de itens de conteúdo correspondentes (entre 28 de janeiro e 28 de agosto de 2022). É importante reconhecer que as ações que a Meta realizou em resposta à solicitação da Polícia Metropolitana afetou não somente o proprietário da conta do Instagram deste caso, mas também Chinx (OS) e muitos outros (veja também: caso da “Ilustração retratando policiais colombianos”).
A escala dessas remoções sublinha a importância do devido processo e da transparência em torno da relação da Meta com a polícia e das consequências de ações realizadas em virtude dessa relação (veja também as decisões do Comitê de Supervisão nos casos “Isolamento de Öcalan” e “Publicação compartilhada da Al Jazeera”). Para lidar com essas preocupações, é necessário um processo claro e uniforme que proteja contra abusos e que inclua auditorias, aviso adequado aos usuários sobre o envolvimento de órgãos públicos na ação realizada contra eles e relatórios de transparência sobre essas interações junto ao público. Esses três aspectos estão interconectados, e é preciso abordar todos eles.
a. Transparência junto ao público
Na sua central de transparência, a Meta publica relatórios sobre as solicitações de órgãos públicos para remover conteúdo com base na legislação local. Ela pública também relatórios separados sobre as solicitações de dados de usuários por órgãos públicos. Existem relatórios separados sobre o monitoramento com relação aos Padrões da Comunidade. No entanto, nenhum desses relatórios diferencia os dados sobre conteúdos removidos por violarem as políticas de conteúdo após uma solicitação de análise por parte de órgãos públicos. Os dados atuais de transparência sobre as solicitações de remoção por parte de órgãos públicos representam insuficientemente o número total de interações entre a Meta e a polícia sobre remoções de conteúdo. Ao colocar ênfase nas ações que a Meta realiza (remoção por violar a legislação local), os relatórios sobre as solicitações de órgãos públicos excluem todas as denúncias recebidas da polícia que resultam em remoção por violação de políticas de conteúdo. Os conteúdos denunciados pela polícia que violam tanto a legislação local quanto as políticas de conteúdo não são incluídos. Por isso, o Comitê apresentou à Polícia Metropolitana uma solicitação com base na lei de liberdade de informação, para compreender melhor as questões envolvidas neste caso.
A Meta alegou que a transparência em torno das solicitações de remoção por parte de órgãos públicos baseadas em políticas de conteúdo é de utilidade limitada, já que os órgãos públicos também podem usar (e usam) ferramentas de denúncia no produto. Essas ferramentas não distinguem entre solicitações de órgãos públicos e solicitações feitas por outros usuários.
Este caso demonstra o nível de acesso privilegiado que a polícia tem às equipes de monitoramento internas da Meta, evidenciado pela correspondência que o Comitê tem visto, e como determinadas políticas dependem da interação com terceiros, como a polícia, para serem aplicadas. O modo em que essa relação funciona para políticas somente sob escalonamento, como neste caso, coloca em questão a capacidade da Meta de avaliar de forma independente as conclusões que os órgãos públicos tiram sem provas detalhadas.
O Comitê reconhece que a Meta tem feito progressos com relação aos relatórios de transparência desde as primeiras decisões do Comitê sobre esse tópico. Isso inclui a condução de um exercício de delimitação da mensuração de conteúdo removido de acordo com os Padrões da Comunidade após solicitações de órgãos públicos e a contribuição ao Lumen, um projeto de pesquisa do Berkman Klein Center for Internet & Society sobre solicitações de remoção por parte de órgãos públicos. Iniciativas adicionais de transparência nessa área serão imensamente valiosas para uma discussão pública sobre as implicações das interações entre órgãos públicos e empresas de redes sociais.
b. Processo de recebimento de solicitações por parte de autoridades policiais
Embora a Meta tenha revelado publicamente como ela responde a solicitações de órgãos públicos para remoções motivadas por violações da legislação local, os canais por meio dos quais os órgãos públicos podem solicitar análise por violações das políticas de conteúdo da Meta permanecem opacos.
Este caso demonstra que existem falhas significativas no sistema da Meta que rege as solicitações de autoridades policiais quando essas solicitações não são baseadas na legislação local e são feitas fora de suas ferramentas de denúncia no produto (ou seja, as funções às quais todos os usuários regulares têm acesso para sinalizar ou denunciar conteúdos). Na decisão sobre o caso “Publicação compartilhada da Al Jazeera”, o Comitê recomendou que a Meta formalize um processo transparente sobre como ela recebe e responde a todas as solicitações de órgãos públicos para remoção de conteúdo. As autoridades policiais fazer solicitações por meio de diferentes canais de comunicação, o que torna difícil a padronização e centralização das solicitações e a coleta de dados sobre elas. O sistema de recebimento atual, em que a Meta preenche o formulário de recebimento, põe ênfase somente na priorização das solicitações recebidas. O sistema não garante de forma adequada que a solicitação de terceiros cumpram padrões mínimos, e não prevê a coleta meticulosa de dados que permita que os efeitos desse sistema sejam adequadamente monitorados e auditados. Algumas solicitações podem referir-se a violações dos Padrões da Comunidade da Meta, outras a violações da legislação nacional, e outras a preocupações declaradas de forma geral sobre danos potenciais, sem conexão com alegações de atividades Ilegais ou violações de políticas da plataforma. As autoridades policiais não são solicitadas a cumprir critérios mínimos de contextualização e justificação completa de suas solicitações, o que leva a interações desestruturadas, ad hoc e não padronizadas com a Meta. Os critérios mínimos poderiam incluir, por exemplo, uma indicação de qual política da Meta a polícia acredita ter sido violada, por que foi violada, e uma base comprobatória suficientemente detalhada para essa conclusão.
c. Notificação aos usuários
Em sua Atualização Trimestral sobre o Comitê de Supervisão do segundo trimestre de 2022, a Meta revelou que está aprimorando as notificações aos usuários ao indicar especificamente quando o conteúdo foi removido por violar os Padrões da Comunidade após ter sido denunciado por um órgão público (implementando assim a recomendação do Comitê na decisão sobre o caso “Isolamento de Öcalan”). Neste caso, se essas alterações tivessem sido implementadas, todos os usuários que foram submetidos às 164 remoções de conteúdo adicionais teriam recebido notificações desse tipo. A Meta reconheceu que somente após ter configurado a infraestrutura necessária para coletar dados mais granulares sobre as solicitações de órgãos públicos, ela poderá projetar e testar o envio de notificações mais detalhadas aos usuários. Portanto, o Comitê concorda com a Meta de que esse trabalho depende do rastreamento das solicitações dos órgãos públicos e do fornecimento de mais informações sobre essas solicitações. Em seguida, essas informações podem ser publicadas nos relatórios de transparência públicos da Meta.
8.2 Conformidade com os valores da Meta
O Comitê conclui que a remoção do conteúdo não está em conformidade com os valores da Meta. Este caso demonstra os desafios que a Meta enfrenta para equilibrar os valores de “Voz” e “Segurança” ao tentar lidar com um alto número de possíveis ameaças veladas na arte, em escala global e em tempo hábil. No entanto, a Meta alega que a “Voz” é seu valor fundamental. Como o Comitê declarou na sua decisão sobre o caso “Cinto Wampum”, a arte é uma expressão particularmente importante e potente da “Voz”, especialmente para pessoas de grupos marginalizados que criam arte com base em suas experiências. A Meta não tinha informações suficientes para concluir que esse conteúdo apresentasse um risco para a “Segurança” que justificasse sacrificar a “Voz”.
O Comitê está preocupado com o fato de que, em caso de dúvidas a respeito de um conteúdo apresentar um risco plausível de danos, a Meta afirma que tende para o lado da “Segurança”, e não da “Voz”. Quando surgem dúvidas, como neste caso, devido à falta de especificidade nas informações que a polícia forneceu sobre uma peça de expressão artística, essa abordagem é incoerente com os valores que a Meta atribui a si mesma. O Comitê reconhece a importância de proteger as pessoas contra a violência, e que isso é especialmente importante para a comunidades afetadas de forma desproporcional por essa violência. O Comitê também leva em consideração que as decisões sobre supostas ameaças muitas vezes devem ser tomadas rapidamente, sem o benefício de uma reflexão prolongada. No entanto, uma presunção contra a “Voz” pode ter um impacto desproporcional sobre as vozes das pessoas marginalizadas. Na prática, ela pode também aumentar significativamente o poder e a alavancagem da polícia, que pode pretender ter conhecimentos difíceis de verificar por meio de outras fontes.
8.3 Conformidade com as responsabilidades sobre direitos humanos da Meta
O Comitê conclui que a Meta não cumpriu suas responsabilidades sobre os direitos humanos como empresa, ao decidir remover essa publicação.
O direito à liberdade de expressão é garantido a todas as pessoas, sem discriminação (Artigo 19, parágrafo 2, PIDCP; Artigo 2, parágrafo 1, PIDCP). Este caso envolve também os direitos de pessoas pertencentes a minorias étnicas de desfrutar, junto com outros membros de seu grupo, de sua própria cultura (Artigo 27, PIDCP) e o direito de participar da vida cultural (Artigo 15, PIDESC). O direito de acesso à reparação é um componente fundamental da legislação internacional de direitos humanos (Artigo 2, parágrafo 3, PIDCP; Comentário Geral nº 31), e a reparação é o terceiro pilar dos UNGPs e uma área de ênfase da política corporativa de direitos humanos da Meta.
Liberdade de expressão (Artigo 19 do PIDCP; Artigo 5 da ICERD)
O Artigo 19 do PIDCP menciona especificamente a proteção da expressão “sob a forma de arte”. Os padrões internacionais de direitos humanos reforçam a importância da expressão artística (Comentário Geral 34, parágrafo 11; Shin v. República da Coreia, Comitê de Direitos Humanos, comunicação Nº 926/2000). A Convenção Internacional sobre a Eliminação de Todas as Formas de Discriminação Racial (ICERD) protege o exercício do direito à liberdade de expressão sem discriminação com base na raça (Artigo 5). O Comitê para a Eliminação da Discriminação Racial enfatizou a importância da liberdade de expressão para auxiliar “grupos vulneráveis a restabelecer o equilíbrio de poder entre os componentes da sociedade” e oferecer “visões e contrapontos alternativos” nas discussões (Comitê para a Eliminação da Discriminação Racial, Recomendação Geral 35, parágrafo 29). O gênero musical drill oferece às pessoas jovens, e particularmente às pessoas jovens negras, um meio de expressão criativa.
A arte é geralmente política e os padrões internacionais reconhecem seu papel único e forte em desafiar o status quo (Relator Especial da ONU no campo dos direitos culturais, A/HRC/23/34, parágrafos 3-4). A internet e em particular as plataformas de redes sociais como o Facebook e o Instagram têm um valor especial para os artistas como auxílio para eles alcançarem públicos novos e maiores. O sustento dos artistas e seus direitos socioeconômicos podem depender do acesso a plataformas sociais que dominam a internet. O gênero musical drill baseia-se em alegações jactanciosas de violência para impulsionar o sucesso comercial de artistas nas redes sociais. Essas alegações e performances são esperadas como parte do gênero. Como resultado das ações da Meta neste caso, Chinx (OS) foi removido do Instagram de forma permanente, o que provavelmente terá um impacto significativo na sua possibilidade de alcançar seu público e ter sucesso comercial.
O artigo 19 do PIDCP exige que, quando um estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (artigo 19, parágrafo 3, PIDCP). O Relator Especial da ONU para a liberdade de expressão encorajou as empresas de redes sociais a se orientarem por esses princípios ao moderar a expressão online, ciente de que a regulamentação da expressão em escala por empresas privadas pode dar origem a questões específicas a esse contexto (A/HRC/38/35, parágrafos 45 e 70). O Comitê adotou o teste de três partes com base no Artigo 19 do PIDCP em todas as suas decisões até o momento.
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige as leis que limitam a expressão sejam claras e acessíveis para que as pessoas entendam o que é permitido e o que não é. Além disso, ele exige que essas leis sejam específicas, de modo a garantir que os encarregados de sua aplicação não tenham discricionariedade excessiva (Comentário Geral 34, parágrafo 25). O Comitê aplica esses princípios para avaliar a clareza e a acessibilidade das regras da Meta sobre conteúdo e das orientações que os analistas têm para tomar decisões justas com base nessas regras.
O Comitê reitera suas preocupações mencionadas anteriormente de que a relação entre as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook não é clara. Em agosto de 2022, a Meta se comprometeu a implementar as recomendações anteriores do Comitê nessa área (Atualização Trimestral sobre o Comitê de Supervisão do segundo trimestre de 2022) e a alinhar os Padrões da Comunidade e as Diretrizes a longo prazo.
As diferenças entre o Padrão da Comunidade sobre Violência e Incitação, dirigido ao público, e os Padrões de Implementação internos da Meta também são preocupantes. A Meta usa “sinais” para determinar se um conteúdo contém uma ameaça velada. Os “sinais” foram adicionados aos Padrões da Comunidade dirigidos ao público como resultado das recomendações anteriores do Comitê. No entanto, os Padrões da Comunidade não explicam que a Meta divide esses sinais em primários e secundários, e também não explicam que ambos são necessários para se determinar a presença de uma violação de política. Esclarecer isso seria útil para aqueles que apresentam reclamações sobre conteúdos na plataforma, incluindo terceiros de confiança e autoridades policiais. A clareza sobre os sinais é especialmente importante, pois o sinal secundário valida o risco de danos resultantes do conteúdo e leva à decisão de remoção. Os terceiros que fornecem um sinal primário sem um sinal secundário podem ficar perplexos se o conteúdo que eles denunciam não sofre nenhuma ação.
II. Objetivo legítimo
As restrições à liberdade de expressão devem ter um objetivo legítimo. O Padrão da Comunidade sobre Violência e Incitação existe em parte para prevenir danos no meio físico. Portanto, essa política tem o objetivo legítimo de proteger os direitos dos outros (os direitos à vida e à segurança das pessoas visadas pela publicação).
III. Necessidade e proporcionalidade
O Comitê é do parecer que a remoção do conteúdo não era necessária para cumprir o objetivo da política.
O princípio de necessidade e proporcionalidade requer que as restrições na expressão “devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral 34, parágrafo 34). A forma de expressão em questão, como a expressão sob forma de arte, deve ser levada em consideração (Comentário Geral 34, parágrafo 34).
O Relator Especial da ONU sobre liberdade de expressão observou as dificuldades que os artistas enfrentam em seu uso das redes sociais, porque esse tipo de expressão tende a apresentar características complexas e pode facilmente entrar em conflito com as regras das plataformas, com mecanismos de reparação inadequados (A/HRC/44/49/Adendo 2, parágrafos 44-46). Isso confirma as observações mais amplas que o Relator Especial fez sobre as deficiências da moderação de conteúdo contextual pelas plataformas, inclusive sobre questões que requerem nuances históricas ou culturais (A/HRC/38/35, parágrafo 29).
A complexidade da expressão artística foi enfatizada pelo Relator Especial da ONU na área dos direitos culturais (A/HRC/23/34, parágrafo 37):
Uma obra de arte é diferente de declarações não fictícias, pois ela apresenta um escopo muito mais amplo para a atribuição de significados múltiplos: as suposições sobre a mensagem de uma obra de arte são, portanto, extremamente difíceis de serem provadas, e as interpretações de uma obra de arte não coincidem necessariamente com o significado atribuído a ela pelo autor. As expressões e criações artísticas não sempre transmitem uma mensagem ou informação específica, e não devem ser reduzidas a uma tal transmissão. Além disso, o recurso à ficção e ao imaginário deve ser entendido e respeitado como um elemento crucial da liberdade indispensável para as atividades criativas e as expressões artísticas: as representações da realidade não devem ser confundidas com a realidade... Portanto, os artistas devem poder explorar o lado mais obscuro da humanidade e representar crimes… sem ser acusados de promovê-los.
As observações do Relator Especial não excluem a possibilidade de que uma obra de arte seja criada com a intenção de causar danos, e de que possa atingir esse objetivo. Para uma empresa na posição da Meta, fazer essas avaliações rapidamente, em escala e globalmente é difícil. A criação pela Meta de políticas “somente com escalonamento” que requerem uma análise contextual mais completa para remover conteúdo demonstra respeito pelo princípio de necessidade. As responsabilidades da Meta sobre os direitos humanos requerem que a Meta previna e reduza os riscos ao direito à vida e ao direito à segurança da pessoa para os indivíduos que possam ser postos em perigo por publicações que contenham ameaças veladas. Porém, pelos motivos descritos na Seção 8.1 desta decisão, essa análise requer um exame mais pormenorizado da causalidade e deve ser mais nuançada em sua avaliação da arte para cumprir os requisitos de necessidade. Como o Comitê não constatou a presença de provas suficientes que mostrem uma ameaça plausível neste caso, a remoção não era necessária.
A esse respeito, a política sobre violência e incitação usa uma terminologia que pode ser interpretada como permitindo remoções excessivas de conteúdo. Uma “potencial” ameaça, ou um conteúdo que “possa” resultar em violência em algum momento na cadeia de eventos, como um escárnio, é algo amplo demais nessa decisão para satisfazer os requisitos de necessidade. Em casos anteriores, o Comitê não exigiu que o risco de violência futura fosse iminente para que a remoção fosse permitida (veja, por exemplo, o caso “Animação Knin”), já que as responsabilidade da Meta sobre os direitos humanos podem diferir daquelas de um estado que impõe penalidades criminais ou civis (veja, por exemplo, o caso “Calúnias na África do Sul”). O Comitê tem, no entanto, exigido uma base comprobatória mais substancial da presença e da plausibilidade de uma ameaça do que se tem neste caso (veja, por exemplo, o caso “Protesto na Índia contra a França”).
Não discriminação e acesso a reparação (Artigo 2(1), PIDCP)
O Comitê de Direitos Humanos deixou claro que quaisquer restrições à expressão devem respeitar o princípio de não discriminação (Comentário geral Nº 34, parágrafo 32). Esse é o princípio que orienta a interpretação do Comitê sobre as responsabilidades da Meta sobre os direitos humanos (Relator Especial da ONU sobre liberdade de expressão, A/HRC/38/35, parágrafo 48).
Em seu comentário público, a Digital Rights Foundation argumentou que, embora algumas pessoas tenham retratado o gênero musical drill como uma convocação à violência de gangues, ele serve como meio para que a juventude, em particular a juventude negra e mestiça, expresse sua insatisfação com um sistema que perpetua a discriminação e a exclusão (PC-10618). JUSTICE, em seu relatório “Tackling Racial Injustice: Children and the Youth Justice System” (“Abordar a injustiça racial: as crianças e o sistema de justiça juvenil”) cita, como um exemplo de racismo sistêmico, o uso indevido do gênero musical drill pela polícia para obter condenações. Como o Comitê ficou sabendo por meio da sua solicitação com base na lei de liberdade de informação, todas as 286 solicitações que a Polícia Metropolitana fez às companhias de redes sociais e serviços de streaming para analisar conteúdos musicais de 1 de junho de 2021 até 31 de maio de 2022 envolviam o gênero musical drill. 255 dessas solicitações resultaram na remoção de conteúdo da plataforma. 21 dessas 286 solicitações estavam relacionadas com plataformas da Meta, e 14 dessas solicitações sofreram intervenções sob a forma de remoções. Como descrito acima, uma solicitação pode resultar em várias remoções de conteúdo. Esse foco intensivo em um único gênero musical, entre muitos que incluem referências à violência, suscita sérias preocupações de um possível excesso de policiamento de determinadas comunidades. É fora da alçada do Comitê dizer se essas solicitações representam um trabalho policial correto, mas é da alçada do Comitê avaliar como a Meta pode honrar seus valores e suas responsabilidades sobre os direitos humanos ao responder a essas solicitações. Em função disso, e conforme descrito abaixo, a resposta da Meta às solicitações da polícia deve, além de cumprir os requisitos comprobatórios mínimos, ser suficientemente sistematizada, auditada e transparente perante os usuários afetados e o público em geral, para permitir que a empresa, o Comitê e outras pessoas avaliem até que ponto a Meta põe em prática seus valores e assume suas responsabilidades sobre os direitos humanos.
Quando um órgão público interfere na expressão de um indivíduo, como neste caso, o devido processo e a transparência são fundamentais para capacitar os usuários afetados a exercerem seus direitos e até mesmo a contestarem o órgão público em questão. A Meta deveria refletir sobre se os seus processos atuais permitem ou impedem isso. A empresa não pode permitir que sua cooperação com a polícia seja opaca até o ponto de criar uma barreira para o acesso dos usuários a reparações de possíveis violações dos direitos humanos.
Também é importante que a Meta forneça aos seus usuários um acesso adequado à reparação por decisões sobre conteúdo que ela toma e que afetam os direitos dos usuários. O Relator Especial da ONU para a liberdade de expressão abordou as responsabilidades das empresas de redes sociais com relação à expressão artística (A/HRC/44/49/Adendo 2, do parágrafo 41 em diante). Suas observações sobre o acesso de artistas do sexo feminino à reparação é pertinente para a situação dos artistas negros no Reino Unido:
Ao que consta, os artistas têm vivenciado encerramentos de páginas pessoais e profissionais do Facebook e do Twitter… Violações de diretrizes da comunidade vagas podem deixar os artistas sem procedimentos de “contranotificação” que permitam contestar a remoção de sua arte. A falta de procedimentos de proteção e de acesso a reparações para os usuários deixa os artistas sem acesso a uma plataforma para exibir sua arte e sem espectadores que desfrutem de sua arte. Em alguns casos, os Estados colaboram com as empresas para controlar quais tipos de conteúdos estão disponíveis online. Essa colaboração perigosa tem o efeito de silenciar artistas e impedir que os indivíduos… recebam arte como expressão.
O Relator Especial da ONU para a liberdade de expressão declarou que o processo de reparação para empresas de redes sociais “deve incluir um processo transparente e acessível de apelação contra decisões da plataforma, com as empresas fornecendo uma resposta fundamentada que também deve estar publicamente acessível” (A/74/486, parágrafo 53).
Embora o conteúdo sob análise neste caso tenha sido publicado por uma conta do Instagram não pertencente a Chinx (OS), o artista tinha publicado o mesmo vídeo na sua própria conta. Ele foi removido ao mesmo tempo que o conteúdo deste caso; como consequência, sua conta foi primeiro desabilitada, e depois excluída. Isso mostra como a colaboração entre a polícia e a Meta pode resultar em uma limitação significativa da expressão de artistas, negando ao público destes o acesso à arte na plataforma. Como confirma a solicitação do Comitê com base na lei de liberdade de informação, essa colaboração tem como alvo específico e exclusivo os artistas de drill, que na sua maioria são homens jovens negros.
O Comitê solicitou que a Meta indique a remoção do conteúdo da conta de Chinx (OS) para análise, para que ela possa ser examinada juntamente com o conteúdo deste caso. Isso não foi tecnicamente possível devido ao fato de a Meta ter excluído a conta. Isso gera preocupações significativas sobre o direito à reparação, como também o faz o fato de que os usuários não possam fazer apelação junto ao Comitê de Supervisão a respeito de decisões tomadas “sob escalonamento”. Isso inclui decisões significativas e difíceis a respeito de “contexto adicional para aplicar” políticas, que são tomadas somente “sob escalonamento”. Inclui também todas as solicitações de remoções apresentadas por órgãos públicos (fora do uso de “ferramentas no produto”), inclusive de conteúdos legais, que se qualificam para análise e que estão no escopo do Estatuto do Comitê de Supervisão. Este último item é particularmente preocupante para indivíduos pertencentes a grupos que sofrem discriminação, que provavelmente irão se deparar com barreiras adicionais para o acesso à justiça como resultado das escolhas de design de produto da Meta.
Essas preocupações sobre o direito à reparação somam-se às preocupações geradas durante o trabalho do Comitê para o próximo parecer consultivo sobre políticas a respeito da verificação cruzada. A verificação cruzada é o sistema que a Meta usa para reduzir os erros de monitoramento, e consiste em adicionar camadas de análise humana para determinadas publicações inicialmente identificadas como tendo violado suas regras, antes de remover o conteúdo. A Meta disse ao Comitê que, entre maio e junho de 2022, cerca de um terço das decisões sobre conteúdo no sistema de verificação cruzada não podiam ser submetidas a apelação pelos usuários junto ao Comitê. O Comitê continuará a abordar essa questão no parecer consultivo sobre políticas a respeito da verificação cruzada.
8.4 Conteúdo idêntico com contexto paralelo
O Comitê nota que o conteúdo em questão foi adicionado ao banco de dados do Serviço de Correspondência de Mídias sobre violência e incitação, o que resultou em remoções automáticas de conteúdos correspondentes e potencialmente em ações adicionais no nível de conta em outras contas. Após essa decisão, a Meta deve assegurar que o conteúdo seja removido desse banco de dados, restaurar conteúdos idênticos que ela tenha removido incorretamente, quando possível, e reverter eventuais advertências ou penalidades no nível de conta. Ela deve remover qualquer obstáculo que impeça Chinx (OS) de restabelecer uma conta no Instagram ou no Facebook.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo e exige que a publicação seja restaurada.
10. Declaração de parecer consultivo
A. Política de Conteúdo
1. A descrição que a Meta faz do seu valor de “Voz” deve ser atualizada para refletir a importância da expressão artística e criativa. O Comitê considerará que essa recomendação terá sido implementada quando os valores da Meta tiverem sido atualizados.
2. A Meta deve esclarecer que, para que um conteúdo seja removido como “ameaça velada” conforme o Padrão da Comunidade sobre Violência e Incitação, é necessário um sinal primário e um sinal secundário. A lista de sinais deve ser dividida entre sinais primários e secundários, coerentemente com os Padrões de Implementação internos. Isso tornará a política de conteúdo da Meta nessa área mais fácil de entender, em particular para as pessoas que denunciam conteúdos como potencialmente violadores. O Comitê considerará que essa recomendação terá sido implementada quando o texto do Padrão da Comunidade sobre Violência e Incitação tiver sido atualizado.
B. Monitoramento
3. A Meta deve dar aos usuários a oportunidade de fazer apelação junto ao Comitê de Supervisão de quaisquer decisões tomadas por meio do processo de escalonamento interno da Meta, incluindo as decisões de remover conteúdo e de deixar o conteúdo ativo. Isso é necessário para proporcionar a possibilidade de acesso a reparação ao Comitê e para permitir que o Comitê receba apelações de decisões de monitoramento “somente sob escalonamento”. Isso deve incluir também apelações contra remoções feitas por violações dos Padrões da Comunidade como resultado de denúncias de “sinalizadores de confiança” ou órgãos públicos feitas fora das ferramentas no produto. O Comitê considerará isso como implementado ao constatar a existência de apelações de usuários associadas a decisões tomadas sob escalonamento e quando a Meta compartilhar dados com o Comitê que mostrem que os usuários estejam recebendo identificações de referência para iniciar apelações em 100% das decisões sob escalonamento qualificadas.
4. A Meta deve implementar e assegurar uma abordagem globalmente uniforme para o recebimento de solicitações de remoção de conteúdo (fora das ferramentas de denúncia no produto) por parte de órgãos públicos, criando um formulário de recebimento padronizado que exija critérios mínimos; por exemplo, a linha de política violada, por que ela foi violada e uma base comprobatória suficientemente detalhada para essa conclusão, antes de que quaisquer dessas solicitações sejam submetidas a ações da Meta internamente. Isso contribui para assegurar uma coleta de informações mais organizada para fins de relatórios de transparência. O Comitê considerará isso como implementado quando a Meta revelar ao Comitê e na central de transparência as diretrizes internas que descrevem o sistema de recebimento padronizado.
5. A Meta deve marcar e preservar todas as contas e conteúdos penalizados ou desabilitados por publicar conteúdo sujeito a uma investigação em aberto pelo Comitê. Isso impede que essas contas sejam excluídas de forma permanente, já que é possível que o Comitê queira solicitar que um conteúdo seja indicado para decisão ou assegurar que as suas decisões possam ser aplicadas a todos os conteúdos idênticos com contexto paralelo que tenham sido incorretamente removidos. O Comitê considerará isso como implementado quando as decisões do Comitê forem aplicáveis às entidades mencionadas acima e a Meta revelar o número dessas entidades que são afetadas por cada decisão do Comitê.
C. Transparência
6. A Meta deve criar uma sessão em sua Central de Transparência, junto ao “Relatório de Aplicação de Padrões da Comunidade” e ao “Relatório de Solicitações Legais de Restrições de Conteúdo”, para relatórios sobre solicitações de órgãos públicos para analisar conteúdo por violações de Padrões da Comunidade. Ela deve incluir detalhes sobre o número de solicitações de análise e remoção por país e órgão público e o número de rejeições pela Meta. Isso é necessário para aprimorar a transparência. O Comitê considerará isso como implementado quando a Meta publicar uma seção separada em seu “Relatório de Aplicação de Padrões da Comunidade” sobre solicitações de órgãos públicos que tenham levado a remoção por violações da política de conteúdo.
7. A Meta deve analisar regularmente os dados de suas decisões de moderação de conteúdo acionadas por solicitações de análise de conteúdo feitas por órgãos públicos, para determinar se há algum viés sistêmico. A Meta deve criar um ciclo de feedback formal para corrigir eventuais vieses e/ou impactos desproporcionais gerados por suas decisões de remoções de conteúdo solicitadas por órgãos públicos. O Comitê considerará que essa recomendação terá sido implementada quando a Meta publicar regularmente as informações gerais derivadas dessas auditorias e as medidas tomadas para mitigar os vieses sistêmicos.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, contratou-se uma pesquisa independente em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de 6 continentes, e mais de 3.200 especialistas do mundo inteiro auxiliaram o Comitê. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas