Anulado
Vídeo após ataque a igreja na Nigéria
O Comitê revogou a decisão da Meta de remover um vídeo do Instagram que mostrava o resultado de um ataque terrorista na Nigéria.
Resumo do caso
O Comitê revogou a decisão da Meta de remover um vídeo do Instagram que mostrava o resultado de um ataque terrorista na Nigéria. O Comitê concluiu que a restauração da publicação com uma tela de aviso protege a privacidade das vítimas e permite a discussão de eventos que alguns estados podem querer suprimir.
Sobre o caso
Em 5 de junho de 2022, um usuário do Instagram na Nigéria publicou um vídeo que mostrava corpos ensanguentados imóveis no chão. Aparentemente, trata-se do resultado de um ataque terrorista a uma igreja no sudoeste da Nigéria, no qual pelo menos 40 pessoas foram assassinadas e muitas outras feridas. O conteúdo foi publicado no mesmo dia do ataque. Os comentários na publicação incluíam orações e declarações sobre a segurança na Nigéria.
Os sistemas automatizados da Meta analisaram o conteúdo e aplicaram uma tela de aviso. No entanto, o usuário não foi alertado, já que os usuários do Instagram não recebem notificações quando são aplicadas telas de aviso.
Posteriormente, o usuário adicionou uma legenda ao vídeo. Ela descrevia o incidente como “sad” (triste), e usava várias hashtags, incluindo referências a colecionadores de armas de fogo, alusões ao som de uma arma de fogo e o jogo de ação em pessoa “airsoft” (em que várias equipes competem com armas simuladas). O usuário tinha incluído hashtags semelhantes em muitas outras publicações.
Pouco tempo depois, um dos bancos de dados do Serviço de Correspondência de Mídias da Meta, um “banco de dados de escalonamentos”, identificou e removeu o vídeo. Os bancos de dados do Serviço de Correspondência de Mídias têm a capacidade de fazer correspondências automáticas entre publicações de usuários e conteúdos que tenham sido considerados anteriormente como violadores. Os conteúdos em um “banco de dados de escalonamentos” foram considerados como violadores por equipes internas especializadas da Meta. Todo conteúdo correspondente é identificado e imediatamente removido.
O usuário fez uma apelação da decisão junto à Meta, e um analista humano manteve a remoção. O usuário, então, fez uma apelação ao Comitê.
Quando o Comitê aceitou o caso, a Meta analisou o conteúdo do “banco de dados de escalonamentos”, concluiu que era não violador e o removeu. No entanto, ela manteve a decisão de remover a publicação neste caso, alegando que as hashtags podiam ser interpretados como uma “glorificação da violência e minimização do sofrimento das vítimas”. A Meta considerou que isso viola várias políticas, incluindo a política de Conteúdo Violento e Explícito, que proíbe observações sádicas.
Principais conclusões
A maioria do Comitê considera que a restauração desse conteúdo no Instagram é coerente com os Padrões da Comunidade, os valores e as responsabilidades para com os direitos humanos da Meta.
A Nigéria está vivenciando uma série contínua de ataques terroristas, e o governo nigeriano suprimiu a cobertura de alguns deles, embora não pareça que o tenha feito com relação ao ataque de 5 de junho. O Comitê concorda que em contextos desse tipo a liberdade de expressão é particularmente importante.
Quando as hashtags não são levadas em consideração, o Comitê é do parecer unânime de que deva ser aplicada uma tela de aviso ao vídeo. Isso protegeria a privacidade das vítimas, algumas das quais pode-se ver o rosto, sem deixar de respeitar a liberdade de expressão. O Comitê distingue esse vídeo da imagem do caso “Poema russo”, que era significativamente menos explícita, no qual o Comitê concluiu que não era necessária uma tela de aviso. Ele o distingue também do vídeo do caso “Vídeo explícito do Sudão”, que era significativamente mais explícito, no qual o Comitê concordou com a decisão da Meta de restaurar o conteúdo com uma tela de aviso, aplicando uma “tolerância a conteúdo de interesse jornalístico”, que permite conteúdo que normalmente seria violador.
A maioria do Comitê considera que a balança ainda pesa mais do lado favorável à restauração do conteúdo, mesmo levando-se em consideração as hashtags, já que estas geram conscientização e não são sádicas. O uso de hashtags é comum para promover uma publicação dentro de uma comunidade. Isso é encorajado pelos algoritmos da Meta, portanto a empresa deveria agir com cautela ao atribuir más intenções ao seu uso. A maioria observa que a Meta não concluiu que essas hashtags sejam usadas como ridicularização disfarçada. Os usuários que comentaram a publicação mostraram compreender que a sua intenção era de conscientizar, e as respostas do autor da publicação mostravam empatia com relação às vítimas.
Uma minoria do Comitê considera que adicionar hashtags relacionadas a tiroteios ao vídeo pode ser interpretado como sadismo, e pode traumatizar os sobreviventes ou os parentes das vítimas. Uma tela de aviso não reduziria esse efeito. Dado o contexto de violência terrorista na Nigéria, a Meta está justificada em agir com cautela, especialmente quando as vítimas são identificáveis. Portanto, a minoria considera que essa publicação não deva ser restaurada.
O Comitê considera que a política de Conteúdo Violento e Explícito deva ser esclarecida. A política proíbe “observações sádicas”, mas a definição desse termo incluída na orientação interna para moderadores é mais ampla do que no uso comum.
O Comitê observa que o conteúdo fora removido originalmente porque correspondia a um vídeo que tinha sido adicionado por engano ao banco de dados de escalonamentos. Imediatamente após uma crise, a Meta estava provavelmente tentando assegurar que um conteúdo violador não se disseminasse em suas plataformas. No entanto, agora a empresa deve assegurar que o conteúdo removido por engano seja restaurado, e que as advertências resultantes sejam revertidas.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover a publicação e considera que ela deva ser restaurada à plataforma com uma tela de aviso de “conteúdo perturbador”.
O Comitê recomenda que a Meta:
- revise o texto da política pública de Conteúdo Violento e Explícito para assegurar que ela seja coerente com as orientações internas para moderadores.
- notifique os usuários do Instagram quando uma tela de aviso for aplicada ao conteúdo deles e forneça o fundamento da política específica que justifica a aplicação.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
A Meta removeu uma publicação do Instagram que continha um vídeo legendado que mostrava o resultado de um ataque a uma igreja na Nigéria, por violar suas políticas sobre Conteúdo Violento e Explícito, Bullying e Assédio e Organizações e Indivíduos Perigosos. A maioria do Comitê considera que o conteúdo deva ser restaurado na plataforma com uma tela de aviso de “conteúdo perturbador”, na qual os usuários devam clicar para ver o vídeo. Uma minoria do Comitê discorda e manteria a decisão da Meta de remover o conteúdo.
2. Descrição do caso e histórico
Em 5 de junho de 2022, terroristas atacaram uma igreja católica em Owo, no sudoeste da Nigéria, matando no mínimo 40 pessoas e ferindo aproximadamente outras 90. Algumas horas depois do ataque, um usuário do Instagram na Nigéria publicou um vídeo em sua conta pública retratando o que parece ser o resultado do ataque, mostrando corpos imóveis e ensanguentados no chão da igreja, alguns deles com o rosto visível. No plano de fundo, é possível ouvir sons caóticos, incluindo o de pessoas chorando e gritando. Inicialmente, o vídeo foi publicado sem legendas. Houve menos de 50 comentários. Os que foram vistos pelo Comitê incluíam orações pelas vítimas, emojis chorando e declarações sobre a segurança na Nigéria. O autor da publicação respondera a vários deles, demonstrando solidariedade a esses sentimentos.
Depois que o usuário publicou o conteúdo, o último foi identificado por um dos bancos de dados do Serviço de Correspondência de Mídias com Conteúdo Violento e Explícito da Meta, que continha um vídeo substancialmente semelhante. Esse banco de dados sinaliza automaticamente conteúdos que tenham sido identificados anteriormente por analistas humanos como violadores das regras da empresa. Neste caso, o banco de dados indicou o vídeo do usuário a uma ferramenta de moderação de conteúdo automatizada denominada classificador, que tem a capacidade de avaliar a probabilidade de que um determinado conteúdo viole uma política da Meta. O classificador determinou que o vídeo deveria ser permitido no Instagram. Ele determinou também que o conteúdo provavelmente continha imagens de mortes violentas, e, consequentemente, aplicou automaticamente uma tela de aviso de “conteúdo perturbador”, conforme exigido pela política de Conteúdo Violento e Explícito. A Meta não notificou ao usuário que a tela de aviso tinha sido aplicada. Durante as 48 horas seguintes, três usuários denunciaram o conteúdo, inclusive por mostrar ferimentos graves e mortes.
Ao mesmo tempo, o pessoal da Meta estava trabalhando para identificar e lidar com o conteúdo gerado pelo ataque. A equipe de políticas da Meta foi alertada sobre o ataque pelos funcionários regionais e adicionou vídeos do incidente a outro banco de dados do Serviço de Correspondência de Mídias, um “banco de dados de escalonamentos”. O conteúdo desse banco foi considerado como violador pelas equipes internas especializadas da Meta, e todo conteúdo correspondente é removido imediatamente. Os vídeos adicionados ao banco de dados de escalonamentos após o incidente incluíam uma filmagem que mostrava órgãos internos humanos (que o vídeo em questão neste caso não mostrava). Outras equipes da Meta foram solicitadas a indicar vídeos potencialmente semelhantes à equipe de políticas, que, por sua vez, determinaria então se esses também deveriam ser adicionados ao banco de dados de escalonamentos.
Três dias depois do ataque, a Meta adicionou ao banco de dados de escalonamentos um vídeo com conteúdo quase idêntico ao deste caso. Como resultado, os sistemas da Meta compararam esse vídeo com conteúdos já presentes na plataforma para verificar se havia correspondências. Enquanto essa análise retroativa estava sendo realizada, o usuário modificou a sua publicação original, adicionando ao vídeo uma legenda em inglês. A legenda afirma que atiradores atacaram a igreja e várias pessoas morreram, além de descrever o incidente como “sad” (triste). A legenda incluía um grande número de hashtags. A maioria delas eram sobre o jogo de ação em pessoa “airsoft” (em que várias equipes competem para acertar as outras e removê-las do jogo atirando projéteis de plástico com armas simuladas). Outra hashtag, segundo a Meta, aludiam ao som de armas de fogo e é usada também para comercializar armas de fogo. Outras hashtags faziam referência a pessoas que colecionam armas de fogo e acessórios de armas de fogo, bem como simulações militares.
Pouco tempo depois da adição da legenda, a análise retroativa do banco de dados de escalonamentos fez a correspondência entre a publicação do usuário e o vídeo quase idêntico recém-adicionado, e o removeu da plataforma. O usuário fez uma apelação. Um moderador humano analisou o conteúdo e manteve a decisão de remoção. O usuário, então, fez uma apelação ao Comitê.
A essa altura, as três denúncias do conteúdo feitas por usuários ainda não tinham sido analisadas e foram encerradas. A Meta disse ao Comitê que as denúncias tenham sido atribuídas por engano a uma fila de baixa prioridade.
Em resposta à seleção do caso pelo Comitê, a Meta analisou o vídeo quase idêntico que tinha sido colocado no banco de dados de escalonamentos. A empresa determinou que ele não violava nenhuma política, porque não havia “órgãos internos à vista” nem legendas sádicas, e o removeu do banco de dados. No entanto, a Meta manteve a sua decisão de remover o conteúdo neste caso, declarando que, embora a narrativa sobre o evento e a expressão de tristeza do usuário não fossem violadoras, as hashtags adicionadas à legenda pelo usuário violavam várias políticas. Em resposta às perguntas do Comitê, a Meta analisou o histórico de publicações do usuário e constatou que ele tinha incluído hashtags semelhantes em muitas de suas publicações recentes no Instagram.
O Comitê observa como contexto pertinente o histórico recente de violência e incidentes terroristas na Nigéria. Especialistas consultados pelo Comitê declararam que o governo nigeriano tinha suprimido algumas vezes a divulgação doméstica de ataques terroristas, mas que não parece ter feito isso em medida significativa com relação ao ataque de 5 dejunho, que foi amplamente divulgado pela mídia tradicional. Imagens explícitas do ataque e de suas vítimas circularam amplamente nas plataformas das redes sociais, incluindo Instagram e Facebook, mas não foram mostradas na mesma medida pela mídia tradicional. Em resposta às perguntas do Comitê, a Meta confirmou que o governo nigeriano não entrou em contato com a empresa com relação ao ataque, nem solicitou que o conteúdo fosse removido.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos).
De acordo com a seção 5 do artigo 3 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o artigo 4 do Estatuto. As decisões do Comitê podem incluir pareceres consultivos sobre política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com a seção 4 do artigo 3 e .
4. Fonte de autoridade
O Comitê de Supervisão considerou as seguintes autoridades e padrões:
I.Decisões do Comitê de Supervisão:
- “Poema russo” (decisão sobre o caso 2022-008-FB-UA): o Comitê discutiu sobre os desafios decorrentes da moderação de conteúdo em situações de conflito e observou que a política sobre Conteúdo Violento e Explícito era pouco clara.
- “Menção do Talibã na divulgação de notícias” (decisão sobre o caso 2022-005-FB-UA): o Comitê discutiu sobre como os usuários podem comentar atividades de entidades terroristas.
- “Ilustração retratando policiais colombianos” (decisão sobre o caso 2022-004-FB-UA): o Comitê recomendou que a Meta melhore os procedimentos para remover conteúdos não violadores adicionados incorretamente aos bancos de dados do Serviço de Correspondência de Mídias.
- “Vídeo explícito do Sudão” (decisão sobre o caso 2022-002-FB-MR): o Comitê discutiu sobre a necessidade de modificar e esclarecer a política sobre Conteúdo Violento e Explícito.
- "Protestos a favor de Navalny na Rússia” (decisão sobre o caso 2021-004-FB-UA): o Comitê discutiu sobre o objetivo legítimo do Padrão da Comunidade sobre Bullying e Assédio.
- “Citação nazista” (decisão sobre o caso 2020-005-FB-UA): o Comitê discutiu sobre os comentários de um conteúdo deixados pelos amigos e seguidores do autor, como indicador da intenção provável de um autor de publicações.
II. Políticas de conteúdo da Meta:
Este caso envolve as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook. O relatório de transparência do terceiro trimestre da Meta afirma que “o Facebook e o Instagram compartilham políticas de conteúdo. Isso significa que, se um conteúdo é considerado como uma violação no Facebook, ele também é considerado como uma violação no Instagram”.
As Diretrizes da Comunidade do Instagram afirmam que a Meta poderá “remover vídeos de violência explícita e intensa para garantir que a plataforma seja apropriada para todos”. Isso está vinculado ao Padrão da Comunidade sobre Conteúdo Violento e Explícito do Facebook, onde o fundamento da política afirma:
Para proteger os usuários contra imagens perturbadoras, removemos conteúdo particularmente violento ou explícito, como vídeos que mostram desmembramento, órgãos internos à vista ou corpos carbonizados. Também removemos conteúdo que contenha comentários sádicos sobre imagens que retratam sofrimento humano e animal. No contexto de discussões sobre temas importantes como abusos de direitos humanos, conflitos armados ou atos terroristas, permitimos conteúdo explícito (com algumas limitações) para ajudar as pessoas a condenar e conscientizar sobre essas situações.
A política sobre Conteúdo Violento e Explícito afirma que as “Imagens que mostrem a morte violenta de uma ou mais pessoas por acidente ou homicídio” serão colocadas por trás de uma tela de aviso de conteúdo perturbador. A seção “Não publique” das regras explica que os usuários não podem publicar observações sádicas sobre imagens que requerem uma tela de aviso de acordo com a política. Ela afirma também que o conteúdo será removido se houver “órgãos internos à vista”.
O fundamento da política sobre Bullying e Assédio da Meta explica que ela remove uma variedade de conteúdo “porque ele impede que as pessoas se sintam seguras e respeitadas no Facebook”. De acordo com o Nível 4 das regras específicas, a empresa proíbe todo conteúdo que “enalteça, comemore ou zombe da morte ou ferimentos graves de terceiros”.
O fundamento da política sobre Organizações e Indivíduos Perigosos da Meta explica que a empresa proíbe “conteúdo que elogie, apoie substancialmente ou represente eventos que o Facebook designa como eventos violentos que violem nossas políticas, incluindo ataques terroristas, eventos de ódio, ato criminoso com várias vítimas ou tentativas de ato criminoso com várias vítimas.” De acordo com o Nível 1 das regras específicas, a Meta remove todo elogio de tais eventos.
III. Os valores da Meta:
Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook, e a empresa confirmou que esses valores se aplicam ao Instagram. O valor "Voz" é definido como "fundamental":
O objetivo de nossos Padrões da Comunidade é criar um lugar em que as pessoas possam se expressar e tenham voz. A Meta quer que as pessoas possam falar abertamente sobre os assuntos importantes para elas, ainda que seja sobre temas que gerem controvérsias e objeções.
A Meta limita a “Voz” em nome de outros quatro valores, três dos quais são pertinentes aqui:
Segurança: temos o compromisso de fazer do Facebook um lugar seguro. Removemos conteúdo que possa contribuir para o risco de danos à segurança física das pessoas. Conteúdos com ameaças podem intimidar, excluir ou silenciar pessoas, e isso não é permitido no Facebook.
Privacidade:temos o compromisso de proteger a privacidade e as informações pessoais. A privacidade dá às pessoas a liberdade de serem elas mesmas, escolher como e quando compartilhar no Facebook e criar conexões mais facilmente.
Dignidade: acreditamos que todas as pessoas são iguais no que diz respeito à dignidade e aos direitos. Esperamos que as pessoas respeitem a dignidade alheia e não assediem ou difamem terceiros.
IV. Normas internacionais dos direitos humanos:
Os UN Guiding Principles on Business and Human Rights (Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, UNGPs, pelas iniciais em inglês), que contam com o apoio do Conselho de Direitos Humanos da ONU desde 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou seu compromisso com relação aos direitos humanos de acordo com os UNGPs. Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise que o Comitê fez das responsabilidades da Meta em termos de direitos humanos.
- O direito à liberdade de expressão: Article 19, International Covenant on Civil and Political Rights (artigo 19 do Pacto Internacional dos Direitos Civis e Políticos, PIDCP); General comment No. 34 (Comentário geral n.º 34), do Comitê de Direitos Humanos, de 2011; Relatórios do relator especial da ONU sobre a liberdade de opinião e expressão: A/HRC/38/35 (2018) e A/74/486 (2019).
- O direito à privacidade: Article 17, ICCPR (artigo 17 do PIDCP).
5. Envios de usuário
Em sua declaração ao Comitê, o usuário explicou que compartilhara o vídeo para conscientizar sobre o ataque e para informar o mundo sobre o que estava acontecendo na Nigéria.
6. Envios da Meta
Na sua argumentação, a Meta explicou que, de acordo com a política sobre Conteúdo Violento e Explícito, as imagens, incluindo vídeos, que mostrem a morte violenta de pessoas, são geralmente colocadas por trás de uma tela de aviso que indica que elas podem ser perturbadoras. Os usuários adultos podem clicar na tela para visualizar o conteúdo, enquanto os menores de idade não têm essa opção. No entanto, a Meta também explicou que, quando um conteúdo desse tipo é acompanhado de observações sádicas, ele é removido. De acordo com a empresa, isso é para impedir que as pessoas usem as plataformas para glorificar a violência ou celebrar o sofrimento de terceiros. A Meta confirmou que, sem uma legenda, o vídeo seria permitido no Instagram por trás de uma tela de aviso de conteúdo perturbador. Se o vídeo incluísse “órgãos internos à vista”, como era o caso de outros vídeos do mesmo incidente, ele seria removido sob a política sobre Conteúdo Violento e Explícito, mesmo sem conter observações sádicas.
Inicialmente, a Meta disse ao Comitê que neste caso o usuário não foi notificado sobre a tela de aviso, ou sobre a política usada para aplicá-la, devido a um erro técnico. No entanto, após questionamentos adicionais por parte do Comitê, a empresa revelou que, enquanto os usuários do Facebook geralmente recebem notificação sobre a adição de uma tela de aviso e sobre a razão dessa adição, os usuários do Instagram não recebem nenhuma notificação.
A Meta explicou que suas orientações internas para moderadores, as Perguntas Conhecidas, definem as observações sádicas como aquelas que “se deleitam ou obtêm prazer com o sofrimento/a humilhação de um ser humano ou de um animal”. As Perguntas Conhecidas fornecem exemplos de observações que se qualificam como sádicas, divididas entre as que mostram “prazer com o sofrimento” e as “respostas humorísticas”. A Meta confirmou também que as observações sádicas podem ser expressas através de hashtags e emojis.
Em sua análise das hashtags usadas neste caso, a empresa explicou que a referência ao som de armas de fogo era uma “resposta humorística” à violência, que tratava como pouco importante o ataque terrorista de 5 de junho. A Meta explicou que a mesma hashtag também é usada para comercializar armas, e também declarou que a hashtag de armas de fogo, assim como aquela que se referia a indivíduos que colecionam armas de fogo e acessórios relacionados, “podiam ser interpretadas como uma glorificação da violência e uma minimização do sofrimento das vítimas, ao invocar o senso de humor e ao falar positivamente sobre as armas e equipamentos usados para perpetrar a morte dessas pessoas”. A empresa explicou também que a hashtag que se referia a simulações militares comparava o ataque a uma simulação, “minimizando a tragédia efetiva e os danos do mundo real sofridos pelas vítimas e por suas comunidades”. A Meta declarou também que as hashtags que se referiam ao “airsoft” comparavam o ataque a um jogo de uma forma que glorifica a violência como algo feito por prazer
e explicou que a legenda do usuário afirmando que ele não apoia a violência e que o ataque foi um dia triste “não indica claramente que ele está compartilhando o vídeo para conscientizar sobre o ataque”. A empresa esclareceu também que, mesmo se o usuário mostrasse a intenção de conscientizar, o uso de “hashtags sádicas” ainda assim resultaria na remoção. Para corroborar essa posição, a Meta explicou que alguns usuários tentam burlar a moderação por meio da inclusão de textos enganosos ou contraditórios em suas publicações. A Meta distinguiu este caso da decisão do Comitê sobre o caso “Vídeo explícito do Sudão” (2022-002-FB-FBR), onde o usuário deixou clara a sua intenção de conscientizar ao compartilhar conteúdo perturbador. Em resposta às perguntas do Comitê, a empresa informou a ele que o usuário incluíra as mesmas hashtags na maioria de suas publicações recentes. A Meta não pôde determinar por que esse usuário estava usando repetidamente as mesmas hashtags,
e declarou ainda que a publicação do usuário violava a política sobre Bullying e Assédio, que proíbe conteúdo que zombe da morte de terceiros. Neste caso, a hashtag que fazia referência ao som de armas de fogo foi considerada como uma resposta humorística à violência mostrada no vídeo.
Em resposta às perguntas do Comitê, a Meta determinou também que o conteúdo violava a política sobre Organizações e Indivíduos Perigosos. A Meta designou o ataque de 5 de junho como um “evento de violência com várias vítimas” e, consequentemente, qualquer conteúdo considerado como um elogio, um apoio substancial ou uma representação desse evento é proibido pela política sobre Organizações e Indivíduos Perigosos. A empresa explicou que isso era coerente com seus comprometimentos de acordo com a chamada para ação da Christchurch, e que, no Fórum Global da Internet para o Combate ao Terrorismo, ela chamou a atenção de seus parceiros do setor para o ataque de 5 de junho. A Meta explicou que, embora se trate de um “caso limítrofe”, o conteúdo neste caso parece zombar das vítimas do ataque e falar positivamente sobre as armas utilizadas, e portanto se configura como um elogio de um evento designado de acordo com essa política,
e também declarou que a remoção do conteúdo neste caso realiza um equilíbrio adequado entre seus valores. A legenda do usuário demonstrava falta de respeito pela dignidade das vítimas, de suas famílias e da comunidade afetada pelo ataque — tudo isso supera o valor da Voz do próprio usuário. Em resposta às perguntas do Comitê, a Meta confirmou não ter estabelecido nenhuma tolerância a conteúdo de interesse jornalístico com relação a conteúdo que inclua imagens violentas relacionadas com o ataque de 5 de junho.
Por fim, a empresa explicou que suas ações eram coerentes com a legislação internacional de direitos humanos, declarando que a sua política sobre observações sádicas é clara e acessível, que essa política tem como objetivo proteger os direitos de terceiros, a ordem pública e a segurança nacional, e que todas as ações aquém da remoção não seriam respostas adequadas para o risco de danos. A Meta apontou a decisão do Tribunal Europeu dos Direitos Humanos em Hachette Filipacchi Associés v. França (2007), que afirmava que os jornalistas que publicavam fotos da morte violenta de alguém em uma revista de larga difusão “intensified the trauma suffered by the relatives” (intensificavam o trauma sofrido pelos parentes), e apontou também um artigo de Sam Gregory de 2010, “Cameras Everywhere: Ubiquitous Video Documentation of Human Rights, New Forms of Video Advocacy, and Considerations of Safety, Security, Dignity and Consent” no Journal of Human Rights Practice, que explica que “the most graphic violations” (as violações mais explícitas), como os ataques violentos, “most easily translate into a loss of dignity, privacy, and agency, and which carries with it the potential for real re-victimization” (se transformam mais facilmente em uma perda de dignidade, privacidade e capacidade de ação, e carregam em si o potencial de uma real revitimização). A empresa observou que a sua política não é de remover conteúdo explícito, mas sim de colocá-lo por trás de uma tela de aviso, que limita o seu acesso aos menores de idade. Ela afirmou que sua política de remover observações sádicas “vai além”, porque “o valor de Dignidade é mais importante que o valor de Voz”.
O Comitê fez 29 perguntas à Meta, das quais 28 foram respondidas de forma completa. A empresa não respondeu a uma pergunta sobre a porcentagem de denúncias de usuários que são encerradas sem análise no mercado da África Subsaariana.
7. Comentários públicos
O Comitê de Supervisão considerou nove comentários públicos relacionados ao caso em questão. Um dos comentários foi enviado da Ásia-Pacífico e Oceania, um da Ásia Central e do Sul, um do Oriente Médio e Norte da África, um da África Subsaariana e cinco dos Estados Unidos e Canadá.
Os envios cobriam temas que incluíam a necessidade de esclarecer a política sobre Conteúdo Violento e Explícito e questões específicas da Nigéria das quais o Comitê deveria estar ciente ao tomar decisões sobre este caso.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8.Análise do Comitê de Supervisão
O Comitê avaliou se esse conteúdo deve ser restaurado sob três pontos de vista: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.
8.1 Conformidade com as políticas de conteúdo da Meta
O Comitê analisou três das políticas de conteúdo da Meta: Conteúdo Violento e Explícito, Bullying e Assédio e Organizações e Indivíduos Perigosos. A maioria do Comitê considera que nenhuma política foi violada.
I. Regras sobre conteúdo
Conteúdo Violento e Explícito
O fundamento da política afirma que a Meta remove “conteúdo que contenha comentários sádicos sobre imagens retratando sofrimento humano e animal”. No entanto, afirma também que permite conteúdo explícito, com algumas limitações, para ajudar as pessoas a condenar e a conscientizar sobre “questões importantes como abusos dos direitos humanos, conflitos armados e atos de terrorismo”. A política também prevê telas de aviso para alertar as pessoas de que o conteúdo pode ser perturbador, inclusive quando as imagens mostram mortes violentas. Nas regras que se encontram imediatamente sob o fundamento da política, a Meta explica que os usuários não podem publicar “comentários sádicos sobre imagens que foram excluídas ou colocadas atrás de uma tela de aviso de acordo com esta política”. A empresa não fornece nenhuma outra explicação pública, nem exemplos de observações sádicas.
O Comitê concorda com a Meta de que o vídeo em questão neste caso mostra mortes violentas e que, sem uma legenda, ele deveria ter uma tela de aviso. Diferentemente do conteúdo contemplado pela decisão do Comitê sobre o caso “Vídeo explícito do Sudão”, o vídeo deste caso, embora retrate cadáveres ensanguentados, não mostra órgãos internos, o que exigiria a sua remoção conforme esta política. No caso “Vídeo explícito do Sudão”, as hashtags indicavam uma clara intenção de documentar abusos de direitos humanos, e o Comitê se baseou parcialmente na intenção clara dessas hashtags e na tolerância a conteúdo de interesse jornalístico estabelecida pela Meta para restaurar o conteúdo. Neste caso, a avaliação do conteúdo feita pelo Comitê tendo como referência as políticas de conteúdo da empresa baseia-se em parte na ausência de quaisquer órgãos internos, desmembramentos ou carbonizações visíveis no vídeo, bem como nas hashtags utilizadas. A diferença entre as posições da maioria e da minoria gira em torno do propósito ou do significado que devem ser atribuídos às hashtags neste caso.
A maioria do Comitê baseia a sua posição no uso comum de hashtags por usuários para promover uma publicação junto a uma determinada comunidade e para associar-se a outras pessoas que compartilham interesses comuns e indicar relacionamentos. Quando usadas dessa forma, elas não estão necessariamente comentando uma imagem ou um tema. A maioria do Comitê considera que as hashtags na legenda não são sádicas, já que não são usadas de uma forma que mostre que o usuário esteja “desfrutando ou sentindo prazer” com o sofrimento de terceiros. A interpretação da longa lista de hashtags idiossincráticas como comentários sobre o vídeo é, neste caso, equivocada. Isso distingue este caso da decisão do Comitê sobre o caso “Vídeo explícito do Sudão”, no qual as hashtags indicavam claramente a intenção do usuário ao compartilhar um vídeo explícito. A inclusão que o usuário fez das hashtags sobre o jogo airsoft, bem como aquelas relacionadas a armas de fogo e a simulações militares, não deveria ter sido interpretada como uma “glorificação da violência” (nos termos da política sobre Organizações e Indivíduos Perigosos), e ainda menos como uma “ridicularização” (nos termos da política sobre Bullying e Assédio), ou como demonstração de que o usuário estivesse “desfrutando ou sentindo prazer com o sofrimento de terceiros” (nos termos da política sobre Violência Explícita). Muitos usuários de redes sociais têm e compartilham interesses no airsoft, em armas de fogo e em simulações militares, e pode ocorrer que eles usem hashtags para se conectar com outras pessoas, sem expressar de forma alguma apoio ao terrorismo ou à violência contra indivíduos. As hashtags sobre o airsoft estão associadas mais diretamente ao entusiasmo pelo jogo, e são, em conjunto, incongruentes com o conteúdo do vídeo e com o comentário que o usuário compartilhou imediatamente abaixo do vídeo. Isso deveria ter indicado à Meta que o usuário estava tentando conscientizar as pessoas com as quais ele se comunica normalmente no Instagram, e alcançar outras pessoas. Dado que o design do Instagram incentiva o uso livre de hashtags como meio de promover conteúdos e conectar-se com novos públicos, é importante que a Meta aja com cautela antes de atribuir más intenções ao seu uso. Pesquisas independentes encomendadas pelo Comitê confirmaram que as hashtags utilizadas nessa publicação são usadas amplamente pelos entusiastas do airsoft e de armas de fogo, e a Meta não considerou que elas tivessem sido usadas como uma ridicularização disfarçada para burlar a detecção em suas plataformas.
Para a maioria, também era claro que o comentário que o usuário adicionou ao vídeo, depois da aplicação da tela de aviso, não indicava que ele estivesse desfrutando ou sentindo prazer com o ataque. O usuário declarou que o ataque representava um “sad day” (dia triste), e que ele não apoia a violência. Os comentários da publicação indicavam também que os seguidores do usuário entendiam que a intenção era conscientizar, como no caso da “Citação nazista”. As respostas do usuário a esses comentários também mostravam solidariedade pelas vítimas. O Comitê aceita o argumento da Meta de que as declarações explícitas de usuários em conteúdos, dizendo que eles não apoiam a violência, não devem sempre ser aceitas literalmente, já que alguns usuários podem tentar burlar a moderação por meio da inclusão dessas declarações, contrariamente à verdadeira finalidade de suas publicações. Ainda, o Comitê lembra a sua conclusão de que não deve ser necessário que os usuários declarem expressamente condenação ao comentar atividades de entidades terroristas, e que pretender que eles o façam poderia limitar drasticamente a expressão nas regiões em que esses grupos são ativos (veja a decisão do Comitê sobre o caso “Menção do Talibã na divulgação de notícias”).
Uma minoria do Comitê conclui que ao se avaliar o conjunto, a justaposição de hashtags relacionadas com tiroteios com o vídeo dá a impressão de sadismo, comparando o assassinato das pessoas retratadas com jogos, e dá também a impressão de estar promovendo armas que imitam aquelas que foram utilizadas no ataque. Isso seria percebido como sádico para os sobreviventes do ataque e os parentes dos mortos, e o potencial de retraumatização não seria reduzido colocando-se o conteúdo por trás de uma tela de aviso. Dado o contexto de violência terrorista na Nigéria, a minoria considera que a Meta está justificada em tender para o lado da cautela em um caso em que os comentários sobre violência explícita dão a impressão de sadismo, mesmo em presença de um certo grau de ambiguidade. Isso é particularmente pertinente para conteúdos como este vídeo, onde vítimas específicas são identificáveis devido à visibilidade de seus rostos, e onde o aumento da violência ou retaliações posteriores contra os sobreviventes pelos atacantes não podem ser descartados. Uma minoria do Comitê também considera que as afirmações contidas na legenda neste caso não anulam o efeito sádico da justaposição de hashtags associadas a entusiastas de armas de fogo com um vídeo que retrata o resultado horrendo da violência perpetrada com armas de fogo. Embora as hashtags possam atender a uma finalidade associativa para os membros de uma comunidade, uma minoria do Comitê acredita que seja apropriado, em situações como esta, que a Meta aplique suas políticas de uma maneira que considere o conteúdo a partir da perspectiva dos sobreviventes e das famílias das vítimas.
Também é importante levar em consideração como a Meta pode aplicar suas políticas de conteúdo de forma rápida e coerente em situações de crise, como após atos terroristas, em que as imagens se espalham rapidamente pelas redes sociais. A minoria considerou pertinente que um moderador ou um leitor casual não saberiam que o usuário incluíra de forma rotineira essas hashtags na maioria de suas publicações recentes. Em uma situação que muda rapidamente, a minoria considera que a Meta estava certa em interpretar o uso das hashtags relacionadas com armas de fogo como indicando que o usuário está sentindo prazer com o sofrimento retratado. A maioria considera a remoção do conteúdo como um erro razoável e concorda com a Meta de que se tratava de “uma decisão difícil”. Apesar disso, a análise independente feita pelo Comitê (auxiliado por especialistas que forneceram informações contextuais sobre o tiroteio, sobre a violência na Nigéria de modo mais geral e sua relação com as redes sociais, e sobre o significado e uso das hashtags) leva a maioria a concluir que seja um erro caracterizar essas hashtags como sádicas simplesmente por estarem associadas a usuários de armas de fogo.
Bullying e Assédio
O Nível 4 da política sobre Bullying e Assédio proíbe conteúdo que zombe da morte ou de ferimentos graves de terceiros.
Pelos mesmos motivos estabelecidos na seção anterior, a maioria do Comitê considera que o conteúdo não seja uma zombaria, já que a finalidade das hashtags não é uma tentativa de fazer humor, e sim de se associar a outras pessoas; isso é confirmado pelas reações à publicação e ao engajamento do usuário com elas. A Meta errou ao presumir que uma sequência de hashtags constitua um comentário ao vídeo compartilhado. Como observado acima, o fato de o usuário não estar solicitando aos entusiastas de armas de fogo a zombarem das vítimas parece ser confirmado pelas reações à publicação que expressam choque e solidariedade, provenientes, como confirmado pela Meta, principalmente por usuários da Nigéria, e pelo engajamento do usuário com essas reações (veja a decisão do Comitê sobre o caso “Citação nazista”). Embora a maioria concorde com a importância de se considerar as perspectivas dos sobreviventes e das famílias das vítimas, as reações a esse conteúdo indicam que essas perspectivas não pesam necessariamente contra a manutenção do conteúdo na plataforma, levando-se em consideração particularmente a frequência dos ataques contra cristãos na Nigéria.
Uma minoria do Comitê discorda. Ao adicionar hashtags envolvendo imitações de armas de fogo, tem-se a impressão de que o usuário estava intencionalmente direcionando um vídeo que retrata as vítimas de um tiroteio para entusiastas de armas de fogo. A Meta estava certa em considerar que isso dá a impressão de uma ridicularização, e é apropriado que a empresa priorize as perspectivas dos sobreviventes das famílias das vítimas ao fazer essa avaliação.
Organizações e Indivíduos Perigosos
O Nível 1 da política sobre Organizações e Indivíduos Perigosos proíbe conteúdo que elogie, substancialmente apoie ou represente “violência com várias vítimas”.
O Comitê concorda com o fato de que, de acordo com a definição da Meta de “violência com várias vítimas”, o ataque de 5 de junho se qualifica como tal. No entanto, a maioria considera que o uso de hashtags na legenda não constitua um “elogio” do ataque, e, pelo mesmo motivo, que não constitua sadismo. A minoria discorda e considera que, embora se trate de um caso limítrofe, pelos mesmos motivos descritos nas seções anteriores, a justaposição das hashtags e do conteúdo possa ser percebida como um elogio do ataque em si.
II. Ação de monitoramento
Inicialmente, a Meta informou o Comitê de que, devido a um problema técnico, não foi enviada ao usuário nenhuma mensagem quando seu conteúdo foi colocado por trás de uma tela de aviso. No entanto, em resposta às perguntas do Comitê, a Meta investigou e determinou que os usuários do Instagram não recebem notificação quando seu conteúdo é colocado por trás de uma tela de aviso. Neste caso, a adição de uma legenda na qual o usuário declara explicitamente que não apoia a violência pode ter sido uma tentativa de reagir à imposição da tela de aviso. A Meta deve assegurar que todos os usuários sejam notificados quando seu conteúdo é colocado por trás de telas de aviso, e que lhes seja dito o motivo de a Meta ter tomado essa medida.
O Comitê observa que o conteúdo deste caso foi removido porque o vídeo correspondia a outro quase idêntico que fora adicionado por engano a um banco de dados de escalonamentos que remove automaticamente os conteúdos correspondentes. No caso “Ilustração retratando policiais colombianos”, o Comitê afirmou que a Meta deveria ter sistemas e processos de exame preventivo robustos para avaliar um conteúdo antes de ele ser adicionado a quaisquer bancos de dados do Serviço de Correspondência de Mídias que removem correspondências sem análise adicional. O Comitê entende que imediatamente após uma crise, a Meta estava provavelmente tentando assegurar que um conteúdo violador não se disseminasse em suas plataformas. No entanto, dados os impactos em cadeia dos bancos de dados do Serviço de Correspondência de Mídias, os controles permanecem como cruciais. A Meta deve assegurar que todo conteúdo removido por engano devido a essas adições errôneas aos bancos de dados seja restaurado e todas as eventuais advertências relacionadas sejam revestidas.
O Comitê está preocupado com o fato que as três denúncias de usuários sobre o conteúdo não tenham sido analisadas nos cinco dias anteriores à remoção do conteúdo. Em resposta às perguntas do Comitê, a Meta explicou que isso era devido a um problema técnico desconhecido que ela está investigando, e, em resposta a outras perguntas, afirmou não poder apurar qual porcentagem das denúncias de usuários do Instagram na África Subsaariana são encerradas sem análise.
8.2 Conformidade com os valores da Meta
O Comitê conclui que a remoção do conteúdo neste caso era incompatível com o valor de “Voz” da Meta.
O Comitê reconhece os interesses conflitantes em situações como a deste caso. Neste caso, o conteúdo envolve a dignidade e a privacidade das vítimas do ataque de 5 de junho, bem como as de suas respectivas famílias e comunidades. Várias vítimas que aparecem no vídeo têm o rosto visível e provavelmente são identificáveis.
O Comitê lembra que nos casos “Vídeo explícito do Sudão” e “Poema russo” recomendou melhorias na política da Meta sobre Conteúdo Violento e Explícito para que esteja em sintonia com os valores da empresa. O Comitê concluiu que o tratamento que a política fazia do compartilhamento de conteúdo explícito para “conscientizar” não era suficientemente claro. Em vários casos, o Comitê concluiu que as telas de aviso podem ser mecanismos apropriados para equilibrar os valores da Meta de “Voz”, “Privacidade”, Dignidade” e “Segurança” (veja as decisões do Comitê sobre os casos “Vídeo explícito do Sudão” e “Poema russo”). O Comitê concorda que, em contextos nos quais o espaço cívico e a liberdade da mídia são ilegitimamente restringidos pelo estado, como ocorre na Nigéria, o valor de “Voz” da Meta torna-se ainda mais importante (veja a decisão sobre o caso “Protestos na Colômbia”). Ele concorda também que conscientizar sobre abusos de direitos humanos é um aspecto particularmente importante da “Voz”, que pode por sua vez fazer avançar a “Segurança” ao assegurar o acesso à informação. As telas de aviso podem ajudar a exercer a “Voz”, embora elas possam ser inadequadas quando o conteúdo não é suficientemente explícito, já que elas reduzem significativamente o alcance e o engajamento com o conteúdo (veja a decisão sobre o caso “Poema russo”).
Essencialmente pelo mesmo motivo estabelecido na seção anterior, a maioria e a minoria chegaram a conclusões diferentes sobre o que os valores da Meta requerem para interpretar as hashtags adicionadas à legenda do vídeo. A maioria observa que existe uma necessidade particularmente grande de proteger a “Voz” quando o conteúdo chama a atenção para violações graves dos direitos humanos e atrocidades, incluindo ataques contra igrejas na Nigéria, e também considera que essas hashtags não contradizem a solidariedade declarada pelo usuário com relação às vítimas, expressa na legenda, e que seu uso é coerente com os esforços do usuário no sentido de conscientizar. Como a legenda não é “sádica”, a restauração do conteúdo com uma tela de aviso com restrição de idade é compatível com os valores da Meta. Embora a maioria reconheça que a adição de uma tela de aviso pode afetar a “Voz” ao limitar o alcance dos conteúdos que conscientizam sobre abusos dos direitos humanos, dada a identificabilidade das vítimas, é necessário equilibrar adequadamente os valores de “Dignidade” e “Segurança”.
A minoria considera justificada a remoção do conteúdo para proteger a “Dignidade” e a “Segurança” das famílias das vítimas e dos sobreviventes, que têm um alto risco de retraumatização por exposição a conteúdos que deem a impressão de fornecer comentários sádicos e ridicularizantes sobre os assassinatos de seus entes queridos. O fato de que os rostos de várias das vítimas estejam visíveis e identificáveis no vídeo e não estejam desfocados é pertinente. Para respeitar o valor de “Voz”, a minoria considera pertinente que um conteúdo semelhante sem hashtags tenha sido compartilhado na plataforma com a proteção de uma tela de aviso, e para o usuário em questão continuou sendo possível compartilhar conteúdos semelhantes sem hashtags relacionadas com armas de fogo. Portanto, a remoção desse conteúdo por parte da Meta não prejudicou excessivamente os esforços da comunidade na Nigéria de conscientização e responsabilização sobre essas atrocidades.
8.3 Conformidade com as responsabilidades que a Meta tem com os direitos humanos
A maioria do Comitê considera que remover o conteúdo neste caso é incoerente com as responsabilidades da Meta com os direitos humanos. No entanto, assim como no caso “Vídeo explícito do Sudão”, tanto a maioria como a minoria concordam que a Meta deve modificar a política sobre Conteúdo Violento e Explícito para esclarecer quais regras da política afetam os conteúdos que têm a finalidade de conscientizar sobre abusos e violações dos direitos humanos.
Liberdade de expressão (Artigo 19 do PIDCP)
O Artigo 19 do PIDCP oferece ampla proteção à liberdade de expressão, inclusive o direito de buscar e receber informações. No entanto, é possível restringir esse direito em determinadas condições específicas, avaliadas de acordo com um teste tripartite de legalidade, legitimidade e necessidade e proporcionalidade. O Comitê adotou esse quadro de referência para analisar as políticas de conteúdo e as práticas de monitoramento da Meta. O Relator Especial da ONU para a liberdade de expressão encorajou as empresas de redes sociais a se orientarem por esses princípios ao moderar a expressão online, ciente de que a regulamentação da expressão em escala por empresas privadas pode dar origem a questões específicas a esse contexto (A/HRC/38/35, parágrafos 45 e 70).
I.Legalidade (clareza e acessibilidade das regras)
O princípio de legalidade exige que toda restrição do direito à liberdade de expressão seja clara e acessível, de maneira que os indivíduos saibam o que eles podem e não podem fazer (Comentário Geral nº 34, parágrafos 25 e 26). A falta de especificidade pode levar à interpretação subjetiva das regras e sua aplicação arbitrária. Os Princípios de Santa Clara Sobre Transparência e Responsabilização na Moderação de Conteúdo, que foram endossados pela Meta, têm como base assegurar o respeito das empresas pelos direitos humanos em conformidade com os padrões internacionais, incluindo a liberdade de expressão. Eles estabelecem que as empresas devem ter “understandable rules and policies” (regras e políticas compreensíveis), incluindo “detailed guidance and examples of permissible and impermissible content” (orientações detalhadas e exemplos de conteúdos permissíveis e não permissíveis).
Antes de examinar cada política de conteúdo, o Comitê observa suas recomendações anteriores de que a Meta esclareça a relação entre as Diretrizes da Comunidade do Instagram e os Padrões da Comunidade do Facebook (caso “Sintomas de câncer de mama e nudez”, 2020-004-IG-UA-2, e caso “Isolamento de Öcalan”, 2021-006-IG-UA-10), e incita a Meta a concluir a implementação dessa recomendação o quanto antes.
Conteúdo Violento e Explícito
O Comitê reitera a sua preocupação com o fato de a política sobre Conteúdo Violento e Explícito ser insuficientemente clara com relação a como os usuários podem conscientizar sobre violência explícita nos termos da política em questão. Neste caso, existem preocupações adicionais sobre o conteúdo capturado sob a definição adotada pela Meta para o termo “sádico”.
Na decisão sobre o caso “Vídeo explícito do Sudão”, o Comitê declarou que:
A política sobre Conteúdo Violento e Explícito não esclarece como a Meta permite que os usuários compartilhem conteúdo explícito para conscientizar ou registrar abusos. O fundamento dos Padrões da Comunidade, que define seus objetivos, não está de acordo com as regras da política. O fundamento da política declara que a Meta permite que os usuários publiquem conteúdo explícito “para ajudar a conscientizar pessoas” sobre a violação de direitos humanos, mas a política proíbe todos os vídeos (compartilhados para conscientizar ou não) que mostrem “pessoas ou cadáveres em ambientes não hospitalares caso retratem desmembramento.”
O Comitê recomendou que a empresa modifique a política para permitir especificamente o compartilhamento de imagens de pessoas e cadáveres para documentar ou conscientizar sobre abusos dos direitos humanos. Ele recomendou também que ela desenvolva critérios para identificar vídeos compartilhados com essa finalidade. A Meta declarou que está avaliando a viabilidade dessas recomendações e que conduzirá um processo de desenvolvimento de política para determinar se elas podem ser implementadas e atualizou o fundamento da política “para assegurar que ela reflita a faixa completa de ações de monitoramento cobertas na política e que seja adicionado um esclarecimento sobre a exclusão de conteúdo excepcionalmente explícito e de observações sádicas”. No entanto, o Comitê observa que as regras sobre o que pode e o que não pode ser publicado segundo essa política ainda não são claras sobre como um conteúdo proibido por outros critérios pode ser publicado para “conscientizar”.
O Comitê observa também que após ele ter anunciado publicamente a seleção deste caso e ter enviado perguntas à empresa, a Meta atualizou o fundamento da política para incluir uma referência à proibição existente de observações “sádicas”. No entanto, o termo ainda não está definido publicamente, já que a política fornece apenas uma lista de tipos de conteúdo sobre os quais os usuários não podem fazer observações sádicas. O Comitê considera que o uso comum do termo “sádico” tem conotações de gravidade e depravação intencional, o que não está adequadamente em sintonia com as orientações internas da Meta para moderadores, as Perguntas Conhecidas. As orientações internas mostram que a definição adotada pela empresa para o termo “sádico” é ampla e se estende a qualquer reação humorística ou discurso positivo sobre sofrimento de seres humanos ou animais. Isso parece estabelecer um patamar mais baixo para a remoção de conteúdo em comparação com o que é comunicado pela política destinada ao público.
Bullying e Assédio
De acordo com a política da Meta sobre Bullying e Assédio, a empresa proíbe conteúdo que zombe da morte ou de ferimentos físicos graves de terceiros. O Comitê não considerou que o enquadramento dessa regra tenha gerado preocupações de ordem jurídica neste caso.
Organizações e Indivíduos Perigosos
De acordo com o Nível 1 dessa política, a Meta proíbe o elogio de “eventos violentos violadores” designados, uma categoria que inclui ataques terroristas, “violência com várias vítimas e chacinas”. O Comitê observa que a Meta não parece ter uma política coerente com relação a quando ela anuncia publicamente os eventos designados pela empresa. Sem essa informação, os usuários, em numerosas situações, podem não saber por que o conteúdo deles foi removido.
II. Objetivo legítimo
As restrições à liberdade de expressão devem defender um objetivo legítimo, que inclui a proteção dos direitos de outras pessoas, como o direito à privacidade das vítimas identificáveis, incluindo as que morreram, retratadas no conteúdo em questão (Comentário Geral 34, parágrafo 28).
O Comitê avaliou anteriormente as três políticas em questão neste caso e determinou que cada uma delas persegue o objetivo legítimo de proteger os direitos de terceiros. A política sobre Conteúdo Violento e Explícito foi avaliada no caso “Vídeo explícito do Sudão”, a política sobre Bullying e Assédio foi avaliada no caso “Protestos a favor de Navalny na Rússia”, e a política sobre Organizações e Indivíduos Perigosos foi avaliada no caso “Menção do Talibã na divulgação de notícias”.
III. Necessidade e proporcionalidade
As restrições à liberdade de expressão “devem ser apropriadas para cumprir sua função protetora; devem ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral 34, parágrafo 34).
O Comitê discutiu se as telas de aviso são uma restrição proporcional da expressão na decisão sobre o “Vídeo explícito do Sudão” e o “Poema russo”. A natureza e a gravidade da violência explícita foram determinantes nessas decisões, e as responsabilidades da Meta com os direitos humanos às vezes têm apresentado tensões com suas políticas declaradas sobre conteúdo e com a aplicação destas. O caso “Poema russo” dizia respeito a uma foto, tirada a distância, do que parecia ser um cadáver. O rosto não era visível, a pessoa não era identificável e não havia indicadores de violência explícitos visíveis. Nesse caso, o Comitê concluiu que não era necessária uma tela de aviso. Por outro lado, o caso “Vídeo explícito do Sudão” dizia respeito a um vídeo que mostrava desmembramento e órgãos internos à vista, filmado a uma distância mais curta. Nesse caso, o Comitê concluiu que o conteúdo era suficientemente explícito para justificar a aplicação de uma tela de aviso. Essa decisão baseava-se na tolerância a conteúdo de interesse jornalístico, que é usada para permitir conteúdos violadores que, sem ela, seriam proibidos. Isso foi usado porque a própria política não era clara sobre como ela podia ser aplicada para permitir conteúdos que conscientizam sobre violações dos direitos humanos.
No caso em questão, o Comitê concorda que, em ausência das hashtags, era necessária uma tela de aviso para proteger os direitos de privacidade das vítimas e de suas famílias, principalmente porque os rostos das vítimas eram visíveis e o local do ataque era conhecido. Isso torna as vítimas identificáveis, e afeta mais diretamente seus direitos de privacidade e os direitos de suas famílias. As imagens de morte são também significativamente mais explícitas do que no caso do “Poema russo”, com cadáveres mostrados a uma distância muito menor. No entanto, no vídeo não há desmembramentos nem “órgãos internos à vista”. Se qualquer um desses dois itens estivesse presente, o conteúdo teria que ser removido ou ser objeto de uma instância de tolerância a conteúdo de interesse jornalístico para permanecer na plataforma. Uma tela de aviso reduzirá tanto o alcance quanto o engajamento com o conteúdo; além disso, é uma medida proporcional, seja para respeitar a expressão, seja para respeitar o direito de terceiros.
A maioria do Comitê considera que a remoção do conteúdo não era uma restrição necessária nem proporcional da liberdade de expressão do usuário, e que ele deve ser restaurado com uma tela de aviso de “conteúdo perturbador”. A maioria considera que a adição das hashtags não aumentou o risco de prejudicar os direitos de privacidade e a dignidade das vítimas, dos sobreviventes e de suas famílias, já que vídeos substancialmente semelhantes já estão no Instagram com a proteção de uma tela de aviso.
Ao reduzir drasticamente o número de pessoas que veriam o conteúdo, a aplicação de uma tela de aviso neste caso promove o respeito da privacidade das vítimas (como em outros exemplos de vídeos semelhantes), permitindo ao mesmo tempo a discussão de eventos que alguns estados podem querer suprimir. Em contextos de insegurança contínua, é particularmente importante que os usuários possam conscientizar as pessoas sobre eventos recentes, documentar abusos dos direitos humanos e promover a responsabilização pelas atrocidades.
Para a maioria do Comitê, a legenda como um todo, incluindo as hashtags, não era sádica, e deveria conter sadismo, ridicularização ou glorificação da violência mais claramente demonstrados para que a remoção do conteúdo fosse considerada necessária e proporcional.
Uma minoria do Comitê concorda com a maioria em termos da abordagem analítica e da visão geral das políticas da Meta nessa área, mas discorda com a interpretação da maioria com relação às hashtags, e portanto com o resultado da análise dos direitos humanos.
Para a minoria, a remoção da publicação estava em conformidade com as responsabilidades da Meta com os direitos humanos e com os princípios de necessidade e proporcionalidade. Quando ocorrem eventos como esse ataque, vídeos dessa natureza frequentemente se disseminam de forma a viral. O usuário deste caso tinha um grande número de seguidores. É crucial que, em resposta a incidentes como esse, a Meta aja rapidamente e em escala, inclusive através da colaboração com parceiros do setor, para prevenir e mitigar danos aos direitos humanos das vítimas, dos sobreviventes e de suas famílias. Isso atende também a uma finalidade pública mais ampla de combater o terror generalizado que os responsáveis por esse tipo de ataques procuram incutir, sabendo que as redes sociais amplificarão seus impactos psicológicos. Para a minoria é, portanto, menos importante em termos de direitos humanos, se o usuário neste caso tinha ou não a intenção principal de usar as hashtags para se conectar com sua própria comunidade ou aumentar seu alcance. O valor dessas associações, para os indivíduos interessados e o público mais amplo, embora não seja insignificante, é superado de longe pela importância de se respeitar o direito de privacidade e dignidade dos sobreviventes e das vítimas. Os rostos das vítimas são visíveis e identificáveis a curta distância no vídeo, em um local de culto, com seus corpos cobertos de sangue. A justaposição disso e das hashtags militaristas sobre armas na legenda é chocante e dá a impressão de uma ridicularização. Expor as vítimas e os membros de suas famílias a esse conteúdo iria provavelmente traumatizá-los novamente, mesmo se essa não fosse a intenção do autor da publicação.
Para a minoria, isso se distingue do caso do “Vídeo explícito do Sudão”, onde as hashtags indicavam muito claramente a intenção de documentar abusos dos direitos humanos. Embora declarações explícitas de intenção de conscientizar não deveriam ser uma exigência de uma política (veja as decisões do Comitê sobre “Cinto Wampum” e “Menção do Talibã na divulgação de notícias”), a remoção de hashtags que evocam, de forma não crítica, entusiasmo por armas juntamente com imagens identificáveis de pessoas assassinadas com armas de fogo é coerente com as responsabilidades da Meta com os direitos humanos. Nessas circunstâncias, a minoria acredita que a Meta deveria tender para a remoção.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover o conteúdo e exige que a publicação seja restaurada com uma tela de aviso “marcar como perturbador”.
10. Declaração de parecer consultivo
Política de conteúdo
1. A Meta deveria revisar o texto destinado ao público na política sobre Conteúdo Violento e Explícito para garantir que ele fique mais coerente com as orientações internas da empresa sobre como a política deve ser aplicada. O Comitê considerará que essa recomendação foi implementada quando a política tiver sido atualizada com uma definição e exemplos, da mesma forma que a Meta explica conceitos como “elogio” na política sobre Organizações e Indivíduos Perigosos.
Monitoramento
2. A Meta deveria notificar os usuários do Instagram quando uma tela de aviso for aplicada ao conteúdo deles e forneça o fundamento da política específica que justifica a aplicação. O Comitê considerará que essa recomendação foi implementada quando a empresa confirmar que são fornecidas notificações aos usuários do Instagram em todos os idiomas oferecidos pela plataforma.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, contratou-se uma pesquisa independente em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo e com uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também recebeu assistência da Duco Advisors, uma firma de consultoria especializada na interseção entre geopolítica, confiança e segurança e tecnologia, e da Memetica, um grupo de investigações digitais que fornece serviços de consultoria de risco e de informações sobre ameaças para mitigar os danos online.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas