Decisão de múltiplos casos
Filmagens de ataque terrorista em Moscou
O Comitê anulou as decisões da Meta de remover três postagens do Facebook que mostravam a filmagem do ataque terrorista de março de 2024 em Moscou, exigindo que o conteúdo fosse restaurado com telas de aviso “Marcar como perturbador”.
3 casos incluídos neste pacote
FB-A7NY2F6F
Caso sobre conteúdo violento e explícito no Facebook
FB-G6FYJPEO
Caso sobre conteúdo violento e explícito no Facebook
FB-33HL31SZ
Caso sobre conteúdo violento e explícito no Facebook
Para ler a decisão completa em russo, clique aqui.
Чтобы прочитать это решение на русском языке, нажмите здесь.
Para baixar um PDF da decisão completa, clique aqui.
Resumo
O Comitê anulou as decisões da Meta de remover três postagens do Facebook que mostravam a filmagem do ataque terrorista de março de 2024 em Moscou, exigindo que o conteúdo fosse restaurado com telas de aviso “Marcar como perturbador”.
Embora as postagens não seguissem as regras da empresa sobre mostrar o momento de ataques designados a vítimas visíveis, removê-las não era consistente com as responsabilidades de direitos humanos da empresa. As postagens, que discutiam um evento de destaque em noticiários do mundo todo, são de alto valor de interesse público e devem ser protegidas pela permissão para conteúdo de interesse jornalístico, de acordo com a maioria do Comitê. Em um país como a Rússia, onde a mídia é fechada, a acessibilidade para esse tipo de conteúdo nas redes sociais é ainda mais importante. Cada uma das postagens contém uma linguagem clara condenando o ataque, demonstrando solidariedade ou preocupação com as vítimas, sem nenhum risco claro de que isso leve à radicalização ou incitação.
Suprimir questões de interesse público vital com base em medo infundado de que isso possa promover a radicalização não é consistente com as responsabilidades da Meta com a liberdade de expressão. Dessa forma, ela deve permitir, com uma tela de aviso “Marcar como Perturbador”, imagens de um evento designado feitas por terceiros mostrando o momento de ataques a vítimas visíveis, mas não identificáveis, quando compartilhadas para fins de reportagens jornalísticas, condenação e conscientização.
Sobre os casos
O Comitê analisou três casos juntos envolvendo conteúdo postado no Facebook por diferentes usuários imediatamente após o ataque terrorista de 22 de março de 2024 em uma casa de shows e um complexo de varejo em Moscou.
O primeiro caso apresentou um vídeo mostrando parte do ataque dentro do complexo de varejo, aparentemente filmado por um espectador. Embora os agressores e as pessoas baleadas estivessem visíveis, mas não facilmente identificáveis, outras pessoas que saíram do prédio eram identificáveis. A legenda questionava o que estava acontecendo na Rússia e incluía orações pelas pessoas afetadas.
O segundo caso apresentou um clipe mais curto da mesma filmagem, com uma legenda alertando os espectadores sobre o conteúdo e afirmando que não há lugar no mundo para o terrorismo.
O terceiro caso envolveu uma postagem compartilhada em uma página de grupo do Facebook por um administrador. A descrição do grupo expressa apoio ao ex-candidato à presidência francês Éric Zemmour. A postagem incluía uma imagem estática do ataque, que poderia ter sido tirada do mesmo vídeo, mostrando homens armados e as vítimas. Além disso, havia um vídeo curto mostrando o complexo de varejo em chamas, filmado por alguém que passava de carro. A legenda afirmava que a Ucrânia declarou não ter nada a ver com o ataque, mas ressaltava que ninguém havia assumido a responsabilidade. Ela também incluía uma declaração de apoio ao povo russo.
A Meta removeu todas as três postagens por não seguir sua Política sobre Organizações e Indivíduos Perigosos, que proíbe imagens de terceiros retratando o momento de ataques desse tipo a vítimas visíveis. A Meta designou o ataque em Moscou como um ataque terrorista no dia em que aconteceu. De acordo com a empresa, o mesmo vídeo compartilhado nos dois primeiros casos já havia sido postado por um usuário diferente e então encaminhado aos especialistas da empresa em política ou no assunto para análise adicional no início do dia. Após essa análise, a Meta decidiu remover o vídeo e adicioná-lo a um Banco de Serviço de Correspondência de Mídias (MMS, na sigla em inglês). Posteriormente, o Banco de MMS determinou que o conteúdo dos dois primeiros casos correspondia ao vídeo armazenado que havia sido marcado para remoção e o removeu automaticamente. No terceiro caso, o conteúdo foi removido pela Meta após análise humana.
O ataque realizado em 22 de março de 2024 na Prefeitura de Crocus, em Moscou, custou a vida de pelo menos 143 pessoas. Um afiliado do Estado Islâmico, o ISIS-K, assumiu a responsabilidade logo após o ataque. De acordo com especialistas consultados pelo Comitê, dezenas de milhões de russos assistiram ao vídeo do ataque em canais de mídia estatais, bem como em plataformas de rede social russas. Embora o presidente russo, Vladimir Putin, tenha afirmado que o caso tinha ligações com a Ucrânia e o apoio da inteligência ocidental para o ataque, a Ucrânia negou qualquer envolvimento.
Principais conclusões
Embora as postagens estivessem relatando, conscientizando ou condenando os ataques, a Meta não aplica essas exceções conforme a Política sobre Organizações e Indivíduos Perigosos a “imagens de terceiros retratando o momento de ataques [designados] a vítimas visíveis”. Dessa forma, fica claro para o Comitê que todas as três postagens não seguem as regras da Meta.
No entanto, a maioria do Comitê considera que a remoção desse conteúdo não era consistente com as responsabilidades de direitos humanos da Meta, e o conteúdo deveria ter sido protegido pela permissão para conteúdo de interesse jornalístico. Todas as três postagens continham assuntos de debate público urgente relacionados a um evento que foi notícia de destaque no mundo todo. Não há risco claro de que as postagens levem à radicalização ou incitação. Cada postagem contém linguagem clara condenando o ataque, mostrando solidariedade ou preocupação com as vítimas e buscando informar o público. Em combinação com a falta de liberdade de imprensa na Rússia e o fato de as vítimas não serem facilmente identificáveis, isso move ainda mais essas postagens na direção do interesse público.
Suprimir conteúdo sobre questões de interesse público vital com base em medo infundado de que isso possa promover a radicalização não é consistente com as responsabilidades da Meta com a liberdade de expressão. Esse é particularmente o caso quando a filmagem foi vista por milhões de pessoas e acompanhada de alegações de que o ataque foi parcialmente atribuído à Ucrânia. O Comitê observa a importância de manter o acesso à informação durante crises, especialmente na Rússia, onde as pessoas dependem das redes sociais para acessar informações ou para conscientizar públicos internacionais.
Embora, em determinadas circunstâncias, a remoção de conteúdo que retrata vítimas identificáveis seja necessária e proporcional (por exemplo, em conflitos armados quando as vítimas são prisioneiros de guerra), como as vítimas nesses casos não são facilmente identificáveis, restaurar as postagens com uma tela de aviso com restrição de idade está mais de acordo com as responsabilidades de direitos humanos da Meta. Portanto, a empresa deve alterar sua política para permitir imagens de terceiros mostrando vítimas visíveis, mas não pessoalmente identificáveis, quando claramente compartilhadas para fins de reportagem jornalística, condenação ou conscientização.
Uma minoria do Comitê discorda e apoiaria as decisões da Meta de remover as postagens do Facebook. Para a minoria, a natureza explícita das imagens e o fato de mostrarem o momento do ataque e, nesse caso, a morte de vítimas visíveis, torna a remoção necessária para a dignidade das vítimas e de suas famílias.
Além disso, o Comitê considera que a atual disposição da regra sobre filmagens de eventos violentos em violação conforme a Política sobre Organizações e Indivíduos Perigosos gera confusão para os usuários. Embora a seção “Nós removemos” implique que a condenação e a cobertura de notícias são permitidas, outras seções declaram que imagens geradas por autores de crimes e imagens de terceiros mostrando o momento dos ataques a vítimas visíveis são proibidas e não especificam que a Meta removerá esse conteúdo, mesmo que condene os ataques ou conscientize sobre eles.
Decisão do Comitê de Supervisão
O Comitê de Supervisão anula as decisões da Meta de remover as três postagens, exigindo que o conteúdo seja restaurado com telas de aviso “Marcar como perturbador”.
O Comitê recomenda que a Meta faça o seguinte:
- Permitir, com uma tela de aviso “Marcar como perturbador”, imagens de terceiros de um evento designado mostrando o momento de ataques a vítimas visíveis, mas não pessoalmente identificáveis, quando compartilhadas em contextos de reportagens jornalísticas, condenação e conscientização.
- Incluir uma regra na seção “Nós removemos” dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos em relação a eventos violentos designados. Também deve mover a explicação de como a Meta lida com conteúdo que descreve eventos designados da seção de fundamento da política para essa seção.
*Os resumos de casos fornecem uma visão geral dos casos e não têm valor de precedente.
Decisão completa sobre o caso
1. Descrição do caso e histórico
O Comitê de Supervisão analisou três casos juntos envolvendo conteúdo postado no Facebook por diferentes usuários imediatamente após o ataque terrorista de 22 de março de 2024 em uma casa de shows e complexo de varejo em Moscou. As plataformas da Meta estão bloqueadas na Rússia desde março de 2022, quando um ministério do governo rotulou a empresa como uma “organização extremista”. No entanto, as plataformas da empresa permanecem acessíveis às pessoas por meio de Redes Privadas Virtuais (VPNs).
No primeiro caso, um usuário do Facebook postou um pequeno videoclipe em seu perfil acompanhado de uma legenda em inglês. O vídeo mostrou parte do ataque de dentro do complexo comercial, com as imagens aparentemente sendo feitas por um espectador. Pessoas armadas foram mostradas atirando à queima-roupa em pessoas desarmadas, com algumas vítimas agachadas no chão e outras fugindo. A filmagem não era de alta resolução. Embora os agressores e as pessoas baleadas estivessem visíveis, mas não facilmente identificáveis, outras pessoas que saíram do prédio eram identificáveis. No áudio, era possível ouvir tiros e pessoas gritando. A legenda questionava o que estava acontecendo na Rússia e incluía orações pelas pessoas afetadas. Quando a Meta removeu a publicação minutos após sua postagem, ela tinha menos de 50 visualizações.
No segundo caso, um usuário diferente do Facebook postou um clipe mais curto da mesma filmagem, também acompanhado de uma legenda em inglês, que alertava os espectadores sobre o conteúdo, afirmando que não há lugar no mundo para o terrorismo. Quando a Meta removeu a publicação minutos após sua postagem, ela tinha menos de 50 visualizações.
O terceiro caso envolve uma postagem compartilhada em uma página de grupo por um administrador. A descrição do grupo expressa apoio ao ex-candidato à presidência francês Éric Zemmour. A postagem incluía uma imagem estática do ataque, que poderia ter sido tirada do mesmo vídeo, mostrando homens armados e as vítimas. Além disso, havia um vídeo curto mostrando o complexo de varejo em chamas, filmado por alguém que passava de carro. A legenda em francês incluía a palavra “Alert” (Alerta) junto com comentários sobre o ataque, como o número relatado de fatalidades. A legenda também afirmava que a Ucrânia havia declarado não ter nada a ver com o ataque, mas ressaltava que ninguém havia assumido a responsabilidade por ele. Ela terminava com uma comparação ao ataque terrorista do Bataclan em Paris e uma declaração de apoio ao povo russo. Quando a Meta removeu a postagem no dia seguinte em que foi feita, ela tinha cerca de 6 mil visualizações.
A empresa removeu todas as três postagens de acordo com seus Padrões da Comunidade sobre Organizações e Indivíduos Perigosos, que proíbe o compartilhamento de todo conteúdo gerado por autores de crimes relacionado a ataques designados, bem como filmagens capturadas ou imagens produzidas por terceiros (por exemplo, espectadores, jornalistas), retratando o momento de ataques terroristas contra vítimas visíveis. A Meta designou o ataque em Moscou como um ataque terrorista no mesmo dia em que aconteceu. De acordo com a empresa, o mesmo vídeo compartilhado nos dois primeiros casos já havia sido postado por um usuário diferente e então encaminhado aos especialistas da empresa em política ou no assunto para análise adicional no início do dia. Após essa análise, a Meta decidiu remover o vídeo e adicioná-lo a um Banco de Serviço de Correspondência de Mídias (MMS, na sigla em inglês). Posteriormente, o Banco de MMS determinou que o conteúdo dos dois primeiros casos correspondia ao vídeo armazenado que havia sido marcado para remoção e o removeu automaticamente. A Meta não aplicou uma advertência ou um limite de recursos aos perfis dos usuários, pois o banco foi configurado para remover conteúdo sem impor uma advertência. No terceiro caso, o conteúdo foi removido pela Meta após análise humana, com a empresa aplicando uma advertência que resultou em um limite de recurso com duração de 30 dias. O limite de recursos aplicado ao usuário o impedia de criar conteúdo na plataforma, criar ou entrar em salas do Messenger e anunciar ou criar vídeos ao vivo. Não está claro por que o sistema de MMS não identificou esse conteúdo.
Em todos os três casos, os usuários fizeram uma apelação à Meta. Os analistas humanos consideraram violadora cada postagem. Depois que o Comitê selecionou esses casos para análise, a Meta confirmou que suas decisões de remover todas as três postagens estavam corretas, mas removeu a advertência no terceiro caso.
O Comitê observa o seguinte contexto ao tomar uma decisão.
O ataque realizado em 22 de março de 2024 na Prefeitura de Crocus, em Moscou, custou a vida de pelo menos 143 pessoas. Um afiliado do Estado Islâmico, o ISIS-K, assumiu a responsabilidade logo após o ataque. Investigadores russos rapidamente indiciaram quatro homens. As autoridades russas declararam que havia 11 pessoas sob custódia, incluindo os quatro supostos atiradores, e alegaram ter encontrado uma ligação entre os agressores e a Ucrânia, embora o país tenha negado qualquer envolvimento.
O ISIS-K surgiu em 2015, formado por combatentes descontentes do Talibã paquistanês. O grupo tem lutado contra o Talibã no Afeganistão, além de realizar ataques direcionados no Irã, na Rússia e no Paquistão. De acordo com relatórios, o grupo “disseminou uma enxurrada de propaganda antirrussa, denunciando o Kremlin por suas intervenções na Síria e condenando o Talibã por se envolver com as autoridades russas décadas depois que a União Soviética invadiu o Afeganistão”.
De acordo com especialistas consultados pelo Comitê, dezenas de milhões de russos assistiram ao vídeo do ataque em canais de mídia estatais, bem como em plataformas de rede social russas. O presidente russo, Vladimir Putin, afirmou que o caso tinha ligações com a Ucrânia e apoio da inteligência ocidental para realizar o ataque. De acordo com uma pesquisa de opinião pública conduzida pelo Levada Center na Rússia de 18 a 24 de abril, quase todos os entrevistados afirmaram que sabiam do ataque e estavam acompanhando o caso de perto, enquanto metade acreditava que os serviços de inteligência ucranianos estavam envolvidos.
De acordo com uma pesquisa encomendada pelo Comitê, o vídeo compartilhado nesses casos foi amplamente divulgado online, inclusive por contas de redes sociais russas e internacionais. Pesquisadores encontraram algumas postagens no Facebook com as filmagens e instâncias isoladas de contas possivelmente afiliadas ou apoiando o ISIS comemorando o ataque. Pesquisadores relatam que plataformas de rede social com moderação de conteúdo menos rigorosa contêm significativamente mais conteúdo gerado por autores de crimes.
Em 2024, o VK, o WhatsApp e o Telegram foram as plataformas mais usadas na Rússia. O governo exerce controle significativo na mídia, com autoridade direta ou indireta sobre “todas as redes nacionais de televisão e a maioria dos meios de comunicação de rádio e imprensa”. Desde a invasão da Ucrânia, o “governo também começou a restringir o acesso a [uma] grande variedade de sites, incluindo os de veículos de notícias nacionais e estrangeiros. Mais de 300 meios de comunicação foram forçados a suspender suas atividades.” O governo também restringe severamente o acesso de veículos de comunicação estrangeiros a relatórios e submete jornalistas afiliados a falsas acusações, detenções e prisão.
2. Envios de usuários
Os usuários em todos os três casos fizeram uma apelação ao Comitê. Em suas declarações, eles explicaram que compartilharam o vídeo para alertar as pessoas na Rússia para que se mantenham seguras. Eles afirmaram que condenam o terrorismo e que a Meta não deveria impedi-los de informar as pessoas sobre eventos reais.
3. Políticas de conteúdo e envios da Meta
I. Políticas de conteúdo da Meta
Padrões da Comunidade sobre Organizações e Indivíduos Perigosos
O fundamento da Política sobre Organizações e Indivíduos Perigosos declara que, em um esforço para prevenir e impedir danos no mundo real, a Meta não permite a presença de organizações ou indivíduos que proclamam uma missão violenta ou que estejam envolvidos em violência em suas plataformas. Os Padrões da Comunidade proíbem “conteúdo que glorifique, apoie ou represente eventos que a Meta designa como eventos violentos violadores”, incluindo ataques terroristas. Também não permite “(1) a glorificação, o apoio ou a representação dos autores de ataques desse tipo; (2) conteúdo gerado pelo autor do crime relacionado a ataques desse tipo; ou (3) imagens de terceiros retratando o momento desses ataques a vítimas visíveis,” (ênfase adicionada). Os Padrões da Comunidade fornecem os seguintes exemplos de violação de eventos violentos: “ataques terroristas, eventos de ódio, violência com múltiplas vítimas ou tentativa de violência com múltiplas vítimas, assassinatos em série ou crimes de ódio”. Entretanto, não fornece critérios específicos para designação nem uma lista de eventos designados.
De acordo com as diretrizes internas para analistas, a Meta remove imagens que retratam o momento de ataques a vítimas visíveis “independentemente do contexto de compartilhamento”.
Padrões da Comunidade sobre Conteúdo Violento e Explícito
O fundamento da Política sobre Conteúdo Violento e Explícito afirma que a empresa entende que as pessoas “têm diferentes níveis de sensibilidade com relação a imagens explícitas e violentas”, e que a Meta remove a maior parte do conteúdo explícito, adicionando também um aviso a outros conteúdos explícitos para alertar as pessoas. Essa política permite, com uma tela de aviso “Marcar como perturbador”, “imagens (vídeos e imagens estáticas) retratando a morte violenta de uma pessoa (incluindo o momento da morte ou após) ou uma pessoa em um evento com risco de morte”. A política proíbe essas imagens quando retratam desmembramento, vísceras visíveis, queimaduras ou cortes de garganta.
Permissão para conteúdo de interesse jornalístico
Em determinadas circunstâncias, a empresa permitirá que conteúdo que possa não seguir suas políticas permaneça na plataforma se for “de interesse jornalístico e se mantê-lo visível for de interesse público”. Ao fazer essa determinação, “[A Meta] avaliará se esse conteúdo expõe uma ameaça iminente à saúde ou segurança pública, ou dá voz a perspectivas que são debatidas como parte do processo político.” A análise é embasada pelas circunstâncias específicas do país, considerando a natureza do discurso e a estrutura política do país afetado. “Quando o conteúdo que permitimos pode ser sensível ou perturbador, incluímos uma tela de aviso. Nesses casos, também impedimos que menores de 18 anos vejam o conteúdo. A permissão para conteúdo de interesse jornalístico pode ser “específica”, quando se aplica a um único trecho de conteúdo, ou “escalonada”, quando pode se aplicar a algo de maneira mais abrangente, como uma frase.”
II. Envios da Meta
A Meta constatou que todas as três postagens não seguiam sua Política sobre Organizações e Indivíduos Perigosos, que proíbe imagens de terceiros retratando o momento de ataques desse tipo a vítimas visíveis. Ela acredita que “remover esse conteúdo ajuda a limitar comportamentos de imitação e evitar a disseminação de conteúdo que glorifique o autor do crime e que pode ter valor de propaganda para ele”. Além disso, a empresa pretende “proteger a dignidade de vítimas que não consentiram em ser alvo da curiosidade pública e da atenção da mídia”. De acordo com a Meta, assim como em todos os fóruns de políticas, a empresa considerará uma série de fontes ao tomar uma decisão, incluindo pesquisas acadêmicas, feedback de partes interessadas externas e insights de equipes internas de políticas e operações.
Ela também explicou que permitirá esse tipo de conteúdo violador, de forma limitada, conforme a permissão para conteúdo de interesse jornalístico. Entretanto, nesses três casos, a empresa não aplicou a permissão, pois concluiu que o valor do interesse público de permitir que o conteúdo fosse distribuído não superava o risco de dano. A Meta levou em consideração o fato de que a filmagem expôs vítimas visíveis e foi compartilhada logo após os ataques. Na sua opinião, a exibição dessa filmagem não era necessária para condenar ou conscientizar.
A Meta reconhece que remover esse tipo de conteúdo, independentemente do contexto, “pode causar o risco de aplicação excessiva no discurso e limitar as informações e a conscientização sobre eventos de interesse público, principalmente quando associados a comentários condenando, conscientizando ou discutindo de forma neutra ataques desse tipo”. A abordagem padrão atual é que a empresa configura os Bancos de MMS para remover todo o conteúdo que corresponda ao conteúdo do banco, independentemente da legenda, sem aplicar uma advertência. A abordagem impede a distribuição de conteúdo ofensivo sem aplicar uma penalidade, reconhecendo que muitos usuários podem estar compartilhando representações de uma crise por motivos legítimos ou sem motivos prejudiciais. A Meta conduziu um processo formal de desenvolvimento de políticas em relação a imagens de ataques violentos designados, incluindo vídeos retratando ataques terroristas. Esse processo foi concluído este ano, depois que o conteúdo desses três casos foi postado. Como resultado desse processo, a Meta adotou a seguinte abordagem: depois que um evento é designado, a Meta remove todas as imagens de eventos violadores (geradas pelo autor do crime ou por terceiros mostrando o momento dos ataques às vítimas) sem avisos em todos os contextos de compartilhamento por períodos mais longos do que o protocolo atual. Após esse período, apenas imagens compartilhadas com glorificação, apoio ou representação serão removidas e receberão uma advertência grave. A empresa declarou que essa abordagem é o meio menos restritivo disponível para mitigar danos aos direitos de terceiros, incluindo o direito à privacidade e a proteção da dignidade das vítimas e de suas famílias.
O Comitê perguntou à Meta se a empresa considerou o impacto em países com mídia fechada da proibição de todas as imagens de autores de crime e terceiros retratando o momento de ataques a vítimas visíveis; se há alavancas de política no Protocolo de Política de Crise relevantes para eventos designados; e o resultado do processo de desenvolvimento de políticas da Meta sobre imagens de eventos designados. A Meta respondeu a todas as perguntas.
4. Comentários públicos
O Comitê de Supervisão recebeu seis comentários públicos que atenderam aos termos para envio. Cinco dos comentários foram enviados dos Estados Unidos e do Canadá e um da África Ocidental. Para ler comentários públicos enviados com consentimento de publicação, clique aqui.
Os envios abordaram os seguintes temas: riscos de aplicação excessiva; uso de vídeos explícitos por entidades designadas e risco de radicalização; os danos psicológicos da proliferação de conteúdo explícito; o desafio de distinguir entre filmagens produzidas por autores de crimes e por terceiros; a importância das redes sociais para informações oportunas durante crises; o valor desse conteúdo para documentação pelo público, por jornalistas e pesquisadores; a opção de telas de aviso com restrição de idade; e a necessidade de esclarecer definições nas Políticas sobre Organizações e Indivíduos Perigosos e sobre Conteúdo Violento e Explícito.
5. Análise do Comitê de Supervisão
O Comitê analisou as decisões da Meta nesses casos em relação às políticas de conteúdo, aos valores e às responsabilidades de direitos humanos da empresa. O Comitê também avaliou as implicações desses casos quanto à abordagem mais ampla da Meta em relação à governança de conteúdo.
5.1 Conformidade com as políticas de conteúdo da Meta
I. Regras sobre conteúdo
Está claro para o Comitê que todas as três postagens (dois vídeos e uma imagem) não cumprem a proibição da Meta sobre “imagens de terceiros retratando o momento de ataques [designados] a vítimas visíveis”. A Meta designou o ataque de 22 de março em Moscou com base em sua Política sobre Organizações e Indivíduos Perigosos antes que as postagens fossem compartilhadas. A regra, conforme estabelecida nos Padrões da Comunidade e explicada com mais detalhes nas diretrizes internas, proíbe todas as filmagens de ataques, independentemente do contexto ou da legenda com a qual são compartilhadas (ver a decisão do caso Reféns sequestrados de Israel).
O vídeo mostrava indivíduos armados atirando à queima-roupa em pessoas desarmadas, com algumas vítimas agachadas no chão e outras fugindo. O vídeo incluía áudio com tiros e sons de pessoas gritando. A terceira postagem capturou o mesmo evento em uma imagem estática. Embora todas as três postagens estivessem relatando, conscientizando ou condenando os ataques, a Meta não aplica sua exceção para esses propósitos conforme a proibição de imagens de terceiros do momento dos ataques a vítimas visíveis.
No entanto, a maioria do Comitê considera que todas as três postagens estão no cerne do que a permissão para conteúdo de interesse jornalístico visa proteger. O conteúdo descreve um evento que foi notícia de destaque no mundo todo. Cada conteúdo foi compartilhado logo após o ataque e incluía informações destinadas ao público. Durante esse período, quando fatos sobre o que havia acontecido, quem poderia ser o responsável e como o governo russo estava respondendo a isso eram assuntos de debate e discussão urgentes, o valor de interesse público desse conteúdo era especialmente alto. Imagens e vídeos como esses permitem que pessoas do mundo todo formem suas próprias impressões sobre os eventos sem ter que depender inteiramente de conteúdo filtrado por governos, mídia ou outros meios de comunicação. O Comitê considera a falta de liberdade de imprensa na Rússia e seu impacto no acesso à informação relevantes para sua análise, uma vez que ressaltam a importância do conteúdo que pode ajudar a facilitar a formação de um público informado. O fato de as vítimas serem visíveis, mas não identificáveis, em todas as três postagens ajuda a levar ainda mais esse conteúdo na direção do interesse público, em comparação com os interesses de privacidade e dignidade em pauta. Para ver a análise adicional e a visão minoritária, relevantes para a decisão do Comitê, confira a seção de direitos humanos abaixo.
II. Transparência
De acordo com a Meta, a empresa tem um conjunto de alavancas do Protocolo de Política de Crise para lidar com “a aplicação excessiva conforme necessário em situações de crise”. No entanto, não utilizou essas alavancas, pois o ataque em Moscou não foi designado como uma crise pelo protocolo. A Meta criou o Protocolo de Política de Crise em resposta a uma recomendação do Comitê de que a empresa deveria desenvolver e publicar uma política que regesse a resposta da Meta a crises ou situações novas (Suspensão do ex-presidente Trump, recomendação n.º 19). O Comitê então solicitou que a Meta publicasse mais informações sobre o Protocolo de Política de Crise (Gabinete de Comunicações da Região do Tigré, recomendação n.º 1). Em resposta, a Meta publicou essa explicação em sua Central de Transparência, mas ainda se recusou a compartilhar publicamente o protocolo na íntegra. O Comitê considera que a breve explicação compartilhada publicamente não é suficiente para permitir que ele, os usuários e o público entendam o Protocolo de Política de Crise. Ele já enfatizou a importância desse protocolo para garantir uma resposta eficaz e consistente da Meta a situações de crise e conflito. Uma “ Declaração de princípios para governança de conteúdo e plataforma em tempos de crise” (Declaration of principles for content and platform governance in times of crisis, em inglês) de 2022 – desenvolvida pelas ONGs Access Now, Article 19, Mnemonic, Center of Democracy and Technology, JustPeace Labs, Digital Security Lab Ukraine, Center for Democracy and Rule of Law (CEDEM) e Myanmar Internet Project – identifica o desenvolvimento de um protocolo de crise como uma ferramenta essencial para uma governança de conteúdo eficaz durante uma crise. No entanto, o Comitê e o público não sabem por que o Protocolo de Política de Crise não foi aplicado nesse caso e como o tratamento do conteúdo poderia ter sido diferente se ele tivesse sido aplicado. Portanto, é necessária maior transparência sobre quando e como o protocolo é usado, os resultados das auditorias e avaliações que a empresa realiza sobre a eficácia do protocolo e quaisquer alterações em políticas ou sistemas que abordem deficiências identificadas. De acordo com os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos (UNGPs), as empresas devem “monitorar a eficácia das suas [medidas de mitigação]” (Princípio 20) e “comunicá-la externamente” (Princípio 21). Sem essas divulgações, é impossível para o Comitê, a base de usuários da Meta ou a sociedade civil entender o desempenho do protocolo ou como sua eficácia pode ser aprimorada.
5.2 Conformidade com as responsabilidades da Meta relativas aos direitos humanos
O Comitê conclui que, embora as postagens não sigam a Política sobre Organizações e Indivíduos Perigosos da Meta, a remoção desse conteúdo não foi consistente com as políticas da empresa, seu compromisso com o valor da voz ou suas responsabilidades de direitos humanos.
Liberdade de expressão (Artigo 19 do PIDCP)
Em 16 de março de 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, na qual destaca o compromisso de respeitar os direitos de acordo com os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU (UNGPs, na sigla em inglês). Os UNGPs, sancionados pelo Comitê de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Essas responsabilidades significam, entre outras coisas, que as empresas devem “se abster de infringir os direitos humanos de terceiros e enfrentar os impactos negativos sobre os direitos humanos nos quais tenham algum envolvimento” (Princípio 11, UNGPs). Espera-se que as empresas: “(a) Evitem que suas próprias atividades gerem impactos negativos sobre direitos humanos ou para estes contribuam, bem como enfrentem essas consequências quando vierem a ocorrer; (b) Busquem prevenir ou mitigar os impactos negativos sobre os direitos humanos diretamente relacionadas com operações, produtos ou serviços prestados por suas relações comerciais, inclusive quando não tenham contribuído para gerá-los” (Princípio 13, UNGPs).
As práticas de moderação de conteúdo da Meta podem ter impactos adversos no direito à liberdade de expressão. O Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos (PIDCP) estabelece uma ampla proteção desse direito, dada a sua importância para o discurso político, e o Comitê de Direitos Humanos observou que ele protege também expressões que podem ser “profundamente ofensivas” (Comentário Geral nº 34, parágrafos 11, 13 e 38). Quando um estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade, segundo o parágrafo 3 do Artigo 19 do PIDCP. Esses requisitos costumam ser chamados de “teste tripartite”. O Comitê usa essa estrutura para interpretar os compromissos voluntários de direitos humanos da Meta, tanto em relação às decisões de conteúdo individual sob análise quanto à abordagem mais ampla da Meta à governança de conteúdo. Como afirmou o Relator Especial da ONU sobre liberdade de opinião e expressão, embora “as empresas não tenham obrigações governamentais, seu impacto é do tipo que exige que avaliem o mesmo tipo de questões sobre a proteção do direito de seus usuários à liberdade de expressão” ( A/74/486, parágrafo 41).
I. Legalidade (clareza e acessibilidade das regras)
O princípio da legalidade exige que as regras que limitam a expressão sejam acessíveis e claras, formuladas com precisão suficiente para permitir que um indivíduo regule sua conduta de acordo com elas (Comentário Geral nº 34, parágrafo 25). Além disso, essas regras “podem não conceder liberdade de ação irrestrita para a restrição da liberdade de expressão aos encarregados de [sua] execução” e devem “fornecer instrução suficiente aos encarregados de sua execução para permitir-lhes determinar quais tipos de expressão são propriamente restritas e quais tipos não são,” (Ibid). O Relator Especial da ONU sobre a liberdade de expressão declarou que, quando aplicadas à governação do discurso online por parte de intervenientes privados, as regras devem ser claras e específicas (A/HRC/38/35, parágrafo 46). As pessoas que usam as plataformas da Meta devem ser capazes de acessar e entender as regras, e os moderadores de conteúdo devem ter orientações claras sobre sua aplicação.
O Comitê considera que a atual disposição da regra sobre filmagens de eventos violentos em violação conforme a Política sobre Organizações e Indivíduos Perigosos provavelmente gera confusão para os usuários. A seção “Nós removemos” da política afirma: “Removemos a glorificação a entidades de Nível 1 e Nível 2 e eventos designados. Para eventos de Nível 1 e designados, também podemos remover referências pouco claras ou sem contexto se a intenção do usuário não estiver claramente indicada.” A linha que explica especificamente a proibição de imagens geradas por autores de crime e por terceiros (que é uma política separada da acima) aparece no “Fundamento da política” e na seção marcada “Tipos e níveis de organizações perigosas” nos Padrões da Comunidade. A linguagem na seção “Nós removemos” implica que a condenação e a cobertura de notícias são permitidas, enquanto a linguagem nas outras seções (fundamento da política e tipos/níveis) declara que imagens geradas por autores de crimes e imagens de terceiros do momento de ataques a vítimas visíveis são proibidas, e não especifica que a Meta removerá esse conteúdo independentemente do motivo ou enquadramento com o qual o conteúdo é compartilhado (por exemplo, condenação ou conscientização). A disposição da regra e a falta de clareza no escopo das exceções aplicáveis geram confusão desnecessária. A Meta deve mover a regra sobre filmagens de eventos designados para a seção “Nós removemos”, criando uma seção para eventos violentos violadores.
II. Objetivo legítimo
A Política sobre Organizações e Indivíduos Perigosos da Meta visa “prevenir e impedir danos no mundo real”. Em várias decisões, o Comitê constatou que essa política atende ao objetivo legítimo de proteger os direitos de terceiros, como o direito à vida (ICCPR, Artigo 6) e o direito à não discriminação e à igualdade (ICCPR, Artigos 2 e 26), porque abrange organizações que promovem o ódio, a violência e a discriminação, bem como eventos violentos designados motivados pelo ódio. Ver decisões dos casos Uso do termo “shaheed” em referência a indivíduos designados como perigosos,Vídeo de prisioneiro das Forças de Apoio Rápido do Sudão, Reféns sequestrados de Israel e Campanha eleitoral de 2023 na Grécia. As políticas da Meta também perseguem o objetivo legítimo de proteger o direito à privacidade das vítimas identificáveis e das suas famílias (ver decisão do caso Vídeo após ataque à igreja na Nigéria).
III. Necessidade e proporcionalidade
Nos termos do artigo 19(3) do PIDCP, a necessidade e a proporcionalidade exigem que as restrições à expressão “devem ser adequadas para atingir sua função de proteção; devem ser o instrumento menos intrusivo entre aqueles que podem atingir sua função de proteção; devem ser proporcionais ao interesse a ser protegido” (Comentário Geral nº 34, parágrafo 34).
Nesses três casos, a maioria do Comitê considera que não há risco claro e real de que essas três postagens levem à radicalização e à incitação. Cada postagem contém linguagem clara condenando o ataque, mostrando solidariedade ou preocupação com as vítimas e buscando informar o público. Os vídeos foram postados imediatamente após o ataque, com a legenda da primeira postagem mostrando explicitamente apoio às vítimas e indicando que a pessoa que postou o conteúdo o fez para compartilhar informações para entender melhor o que havia acontecido. A pessoa que fez a segunda postagem expressou solidariedade às vítimas na Rússia, condenando a violência. E a terceira postagem forneceu informações junto com uma imagem estática e um breve vídeo, relatando que ninguém havia assumido a responsabilidade ainda e que a Ucrânia havia declarado não ter nada a ver com o ataque; conteúdo contradizendo a propaganda amplamente disseminada pela mídia estatal russa. Suprimir conteúdo sobre questões de interesse público vital com base em medo infundado de que isso poderia promover a radicalização não é consistente com as responsabilidades de liberdade de expressão da Meta, especialmente quando a mesma filmagem foi vista por milhões de pessoas acompanhada de alegações de que o ataque foi parcialmente atribuível à Ucrânia. O Comitê observa a importância de manter o acesso à informação durante crises e considerando a mídia fechada na Rússia, onde as pessoas dependem das redes sociais para acessar informações ou para conscientizar públicos internacionais.
Permitir essas imagens com uma tela de aviso, de acordo com os Padrões da Comunidade sobre Conteúdo Violento e Explícito da Meta, fornece um meio menos restritivo de proteger os direitos de terceiros (veja a análise completa dos meios menos restritivos abaixo). Essa política permite, com uma tela de aviso “Marcar como perturbador”, “imagens (vídeos e imagens estáticas) retratando a morte violenta de uma pessoa (incluindo o momento da morte ou após) ou uma pessoa em um evento com risco de morte”.
Além disso, como o Comitê já decidiu, quando as vítimas desse tipo de violência são identificáveis na imagem, o conteúdo “envolve mais diretamente seus direitos de privacidade e os direitos de suas famílias” (ver decisão do caso Vídeo após ataque à igreja na Nigéria ). Naquela decisão, em que o conteúdo mostrava as consequências horríveis de um ataque terrorista, a maioria do Comitê decidiu que remover o conteúdo não era necessário nem proporcional, restaurando a postagem com uma tela de aviso com restrição de idade. As filmagens em questão nessas três postagens não são de alta resolução, e os agressores e as pessoas baleadas são visíveis, mas não facilmente identificáveis. Em determinadas circunstâncias, a remoção de conteúdo que retrate vítimas identificáveis será a medida necessária e proporcional (por exemplo, em conflitos armados, quando as vítimas são prisioneiros de guerra ou reféns sujeitos a proteções especiais pelo direito internacional). No entanto, nesses três casos, dado que as vítimas não são facilmente identificáveis, ou vistas de forma humilhante ou degradante, restaurar as postagens com uma tela de aviso com restrição de idade está mais de acordo com as responsabilidades de direitos humanos da Meta.
Uma minoria do Comitê discorda e apoiaria a decisão da Meta de remover as três postagens do Facebook. A minoria concorda que o conteúdo nesse caso, capturado por alguém no local e compartilhado para relatar ou condenar um ataque, provavelmente não incitará a violência ou promoverá a radicalização. No entanto, para a minoria, a natureza explícita das filmagens com sons de tiros e gritos das vítimas, e como mostram o momento do ataque e, neste caso, a morte de vítimas visíveis, embora não facilmente identificáveis, significa que a privacidade e a dignidade das vítimas e de suas famílias tornam a remoção necessária. Após ataques terroristas, quando imagens de violência se espalham rápida e amplamente, e podem traumatizar novamente os sobreviventes e as famílias das pessoas falecidas, a minoria acredita que a Meta tem justificativa para priorizar a privacidade e a dignidade das vítimas e suas famílias acima do valor do interesse público de permitir que as pessoas tenham acesso a conteúdo de interesse jornalístico. Para a minoria, o valor jornalístico do conteúdo é um fator que impede sua permanência na plataforma. A minoria sustenta que o ataque de 22 de março foi amplamente coberto na Rússia e também pela mídia internacional. Portanto, na visão da minoria, permitir essas filmagens nas plataformas da Meta não era necessário para garantir o acesso às informações sobre o ataque. Os usuários que desejavam comentar o ataque ou desafiar a narrativa do governo atribuindo-o à Ucrânia, poderiam ter feito isso sem compartilhar os momentos mais explícitos da filmagem.
O Comitê entende que, ao desenvolver e adotar sua política sobre imagens de ataques terroristas durante o recente processo de desenvolvimento de políticas, a Meta errou em relação à segurança e à privacidade, adotando raciocínio semelhante ao da minoria sobre a privacidade. A empresa explicou que há um risco de comportamento adversário, por exemplo, a reutilização de filmagens de terceiros por indivíduos violentos, e há desafios de aplicação em termos de moderação de conteúdo em grande escala, o que significa que uma abordagem mais permissiva aumentaria esses riscos. A empresa também destacou os riscos à privacidade e à dignidade das vítimas desses ataques e de suas famílias, quando as vítimas são visíveis. Um comentário público enviado pelo Congresso Judaico Mundial destaca considerações semelhantes às articuladas pela Meta. Referindo-se à proliferação online de vídeos do ataque de 7 de outubro de 2023 pelo Hamas a Israel, o envio observa que “nesses tipos de eventos, a compreensão de quem é um ‘espectador’ ou ‘terceiro’ é problemática, pois muitos cúmplices estavam filmando e distribuindo conteúdo terrorista” (PC-29651).
O Comitê reconhece que, na era digital, a videografia e a fotografia são ferramentas empregadas por alguns terroristas para documentar e glorificar seus atos. Mas nem todos os vídeos de ataques envolvendo entidades designadas são criados com essa finalidade, calibrados para produzir esse efeito ou vistos como tal pelos espectadores. Imagens que não são produzidas pelos autores de crimes ou seus apoiadores não são criadas com o propósito de glorificar ou promover o terrorismo. Quando gravadas por um espectador, uma vítima, um jornalista independente ou por uma câmera de CFTV, as imagens em si não têm a intenção e geralmente são menos propensas a causar sensacionalismo e fetichizar a violência (ou seja, a filmagem gravada por uma câmera acoplada na cabeça do autor do crime é diferente da filmagem capturada por uma câmera de CFTV ou por um espectador). Ela capturará o horror da violência, mas não poderá banalizá-la ou promovê-la em sua apresentação. Embora haja riscos de imagens de ataques serem reutilizadas para incentivar a glorificação da violência ou do terrorismo e comportamento imitador, na ausência de sinais dessa reformulação, uma proibição geral ignora o potencial de vídeos que documentam ataques violentos para despertar simpatia pelas vítimas, promover a responsabilização e conscientizar o público sobre eventos importantes, potencialmente gerando raiva ou desprezo pelos autores dos crimes e alertando o público sobre a natureza brutal de grupos e movimentos terroristas.
No parecer consultivo sobre política no caso Uso do termo “shaheed” em referência a indivíduos designados como perigosos, o Comitê observou várias resoluções do Conselho de Segurança da ONU convocando os estados a abordar a incitação a atos terroristas e levantando preocupações sobre o uso da Internet por organizações terroristas. Ver Resolução 1624 do Conselho de Segurança da ONU (2005), Resolução 2178 do CSNU (2014) e Resolução 2396 do CSNU (2017). A abordagem da Meta pode ser entendida como um esforço para abordar essas preocupações. No entanto, como o Comitê também observou naquele parecer consultivo sobre política, o Relator Especial da ONU sobre a promoção e proteção dos direitos humanos e liberdades fundamentais no combate ao terrorismo alertou contra a adoção de regras excessivamente amplas e falou sobre o impacto de se concentrar no conteúdo do discurso em vez do “vínculo causal ou risco real de ocorrência do resultado proibido” (Relatório A/HRC/40/52, parágrafo 37). Ver também Declaração Conjunta sobre a Internet e sobre Medidas Antiterrorismo do Relator Especial da ONU sobre a liberdade de expressão, do Representante da OSCE sobre a liberdade de imprensa e do Relator Especial da OEA sobre a liberdade de expressão (2005).
O Comitê concorda que há o risco de que a criação de exceções à política possa levar à aplicação insuficiente de conteúdo que retrata ataques terroristas e à reutilização de filmagens para propósitos negativos que a Meta não será capaz de identificar e remover de forma eficaz. O Comitê elogia a Meta por tentar abordar o risco de suas plataformas serem usadas por indivíduos violentos para recrutar e radicalizar pessoas, e por abordar os danos à privacidade e à dignidade das vítimas. No entanto, como demonstram as três postagens nesses casos, imagens de ataques podem ter múltiplas funções e há riscos à liberdade de expressão, ao acesso à informação e à participação pública em uma política que priorize a aplicação excessiva, quando meios menos restritivos estão disponíveis para permitir um resultado mais proporcional.
Quando a Meta aplica uma tela de aviso com restrição de idade, o conteúdo não fica disponível para usuários menores de 18 anos, outros usuários precisam clicar para visualizar o conteúdo, e o conteúdo é removido das recomendações para usuários que não seguem a conta (veja as decisões dos casos Hospital Al-Shifa e Reféns sequestrados de Israel). A Meta pode recorrer aos Bancos de MMS para aplicar automaticamente uma tela de aviso “Marcar como perturbador” a todo conteúdo que contenha imagens identificadas. Essas medidas podem mitigar os riscos de o conteúdo se tornar viral ou atingir usuários particularmente vulneráveis ou impressionáveis que não procuraram por ele. Uma tela de aviso diminui, portanto, a probabilidade de que o conteúdo forneça inspiração não intencional para atos de imitação. Uma tela de aviso não reduz totalmente os riscos de as filmagens serem reutilizadas por indivíduos mal-intencionados. No entanto, uma vez que o risco de efeito viral é mitigado, a Meta tem outras ferramentas mais direcionadas para identificar a reutilização por indivíduos mal-intencionados e remover esse conteúdo da plataforma (por exemplo, equipes internas procurando proativamente esse conteúdo e canais de Parceiros Confiáveis). Uma abordagem mais direcionada exigirá, sem dúvida, recursos adicionais. Dada a extensão dos recursos da Meta e o impacto na expressão e no acesso à informação da abordagem atual, uma abordagem mais direcionada é necessária.
Imagens de ataques podem comunicar e evocar indignação moral, criar um senso de solidariedade com as vítimas e fornecer um mecanismo para compartilhar informações com pessoas no local ou com públicos internacionais. Há também alguns indícios de que há uma tendência maior de ajudar ou uma resposta emocional mais forte das pessoas quando elas podem ver uma foto ou um vídeo de uma vítima específica, em comparação quando a informação é apresentada por meio de uma descrição abstrata ou meros números. Em um país com mídia fechada, onde o governo exerce controle significativo sobre o que as pessoas veem e como as informações são apresentadas, a acessibilidade nas redes sociais de conteúdo com grande interesse em conscientização pública e relevância política é ainda mais importante. A maioria conclui que a proibição e remoção de todas as imagens de terceiros de ataques a vítimas visíveis, mas não pessoalmente identificáveis, quando compartilhadas para reportagens jornalísticas, conscientização e condenação, não é uma medida necessária nem proporcional. Quando o vídeo/imagem é gerado pelo autor do crime, mostra vítimas pessoalmente identificáveis em circunstâncias degradantes ou retrata vítimas particularmente vulneráveis (por exemplo, reféns ou menores), ou não tem um propósito claro de conscientização, denúncia ou condenação, pode ser adequado que a Meta priorize a remoção. Mas uma regra que proíbe todas as imagens de terceiros de ataques a vítimas visíveis, independentemente do motivo e do contexto em que a postagem é compartilhada, evita uma abordagem mais proporcional e menos restritiva, quando não está claro que uma abordagem tão rígida é necessária.
A Meta deve permitir, com um intersticial “Marcar como perturbador”, imagens de terceiros mostrando o momento dos ataques a vítimas visíveis, mas não identificáveis, quando compartilhadas em reportagens jornalísticas e contextos de condenação. Isso estaria de acordo com o fundamento da Política sobre Organizações e Indivíduos Perigosos, que afirma: As políticas da Meta são desenvolvidas para permitir espaço para … referências a organizações e indivíduos designados no contexto do discurso social e político [incluindo] conteúdo relatando, discutindo de forma neutra ou condenando organizações e indivíduos perigosos e suas atividades.” No entanto, dados os diferentes tipos de ataques violentos que são qualificados para designação e que o contexto de uma determinada situação pode apresentar riscos especialmente altos de comportamento imitador ou uso malicioso, a Meta deve utilizar análise humana especializada para avaliar situações específicas e aplicar a exceção de política recomendada pelo Comitê.
Para a minoria, a política atual da Meta que proíbe todas as imagens de ataques designados que retratem vítimas visíveis está em linha com as responsabilidades de direitos humanos da empresa e os princípios de necessidade e proporcionalidade. Quando imagens gráficas de um ataque retratam vítimas visíveis, mesmo quando elas não são facilmente identificáveis, o objetivo de proteger o direito à privacidade e à dignidade dos sobreviventes e vítimas supera, em muito, o valor da voz, na visão da minoria. Até mesmo o conteúdo gravado por terceiros pode prejudicar a privacidade e a dignidade das vítimas e de suas famílias. E aplicar uma tela de aviso a um conteúdo que mostre a morte de uma pessoa, como a maioria recomenda, não protege a privacidade ou a dignidade das vítimas ou de suas famílias daqueles que optam por ignorar a tela. Como afirmou a minoria na decisão do caso Vídeo após ataque à igreja na Nigéria, quando ocorrem ataques terroristas, vídeos dessa natureza frequentemente se tornam virais, agravando os danos e aumentando o risco de traumatizar as vítimas novamente. A Meta deve agir rapidamente e em larga escala para prevenir e mitigar os danos aos direitos humanos das vítimas, sobreviventes e suas famílias. Isso atende também à finalidade pública mais ampla de combater o terror generalizado que os responsáveis por esse tipo de ataques procuram incutir, sabendo que as redes sociais amplificarão seus impactos psicológicos. Além disso, como o Comitê indicou em decisões anteriores, a Meta poderia aliviar a carga sobre os usuários e mitigar os riscos à privacidade, fornecendo aos usuários instruções mais específicas ou acesso dentro de seus produtos a, por exemplo, ferramentas de desfoque de rosto para vídeos que retratam vítimas visíveis de violência (ver decisão do caso Documentário sobre abuso infantil no Paquistão).
6. Decisão do Comitê de Supervisão
O Comitê de Supervisão anula as decisões da Meta de remover as três postagens, exigindo que o conteúdo seja restaurado com telas de aviso “Marcar como perturbador”.
7. Recomendações
Política de Conteúdo
1. Para garantir que seus Padrões da Comunidade sobre Organizações e Indivíduos Perigosos sejam adaptados para promover seus objetivos, a Meta deve permitir, com uma tela de aviso “Marcar como Perturbador”, imagens de terceiros de um evento designado mostrando o momento de ataques a vítimas visíveis, mas não pessoalmente identificáveis, quando compartilhadas em reportagens de notícias, condenações e contextos de conscientização.
O Comitê considerará essa recomendação implementada quando a Meta atualizar os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos voltado ao público de acordo com o exposto acima.
2. Para garantir clareza, a Meta deve incluir uma regra na seção “Nós removemos” dos Padrões da Comunidade sobre Organizações e Indivíduos Perigosos e mover a explicação de como a Meta lida com conteúdo que descreve eventos designados da seção de fundamento da política para essa seção.
O Comitê considerará essa recomendação implementada quando a Meta atualizar os Padrões da Comunidade sobre Organizações e Indivíduos Perigosos voltado para o público, movendo a regra sobre filmagens de eventos designados para a seção “Nós removemos” da política.
*Nota processual:
- As decisões do Comitê de Supervisão são tomadas por painéis de cinco membros e aprovadas por maioria de votos do Comitê inteiro. As decisões dele não representam, necessariamente, as opiniões de todos os membros.
- De acordo com seu Estatuto, o Comitê de Supervisão pode analisar apelações de usuários cujo conteúdo foi removido pela Meta, apelações de usuários que denunciaram conteúdo que a Meta manteve ativo e decisões que a Meta encaminha a ele (Seção 1 do Artigo 2 do Estatuto). O Comitê tem autoridade vinculativa para manter ou anular as decisões de conteúdo da Meta (Seção 5 do Artigo 3 e 4 do Estatuto). O Comitê pode emitir recomendações não vinculativas às quais a Meta é obrigada a responder (Seção 4 do Artigo 3 e 4 do Estatuto). Quando a Meta se compromete a agir de acordo com as recomendações, o Comitê monitora sua implementação.
- Para a decisão sobre o caso em questão, uma pesquisa independente foi encomendada em nome do Comitê. O Comitê recebeu assistência da Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, confiança e segurança, e tecnologia. A Memetica, um grupo de investigações digitais que fornece serviços de consultoria de risco e inteligência contra ameaças para mitigar danos online, também forneceu pesquisas.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas