Anúncio dos próximos casos do Comitê e das alterações nos nossos regulamentos internos
2 de Novembro de 2021
Hoje, o Comitê está anunciando três novos casos para apreciação e mudanças nos nossos regulamentos internos.
Seleção dos casos
Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários no mundo todo, apresentam grande importância para o discurso público ou suscitam questões relevantes sobre as políticas do Facebook, que agora se chama Meta.
Os casos que anunciamos hoje são os seguintes:
2021-015-FB-UA
Apelação de um usuário para restaurar conteúdo no Facebook
Envie um comentário público aqui.
Em junho de 2021, um usuário do Facebook nos Estados Unidos criou uma publicação em um grupo privado para adultos com transtorno do déficit de atenção com hiperatividade (TDAH). A publicação apresenta um texto em inglês, com um "CW" (Aviso de conteúdo) no início para tratar sobre "Medication, addiction" (Medicação, dependência). O usuário se identifica como uma pessoa que tem TDAH e pergunta ao grupo como falar sobre medicamentos específicos com um médico. Esse usuário afirma que o medicamento Adderall funcionou para ele no passado, ao passo que outros medicamentos “zombie me out” (deixavam-no dopado), mas tem medo de parecer dependente químico ao pedir uma receita diretamente ao médico. A publicação tinha comentários de membros do grupo que descrevem suas próprias experiências e oferecem conselhos sobre como explicar a situação a um médico. Os administradores do grupo estão no Canadá e na Nova Zelândia.
A Meta removeu o conteúdo segundo a política dos Padrões de Comunidade do Facebook sobre produtos regulamentados. Como o Comitê selecionou o caso em apreço, a Meta identificou a remoção como um “erro de monitoramento” e restaurou o conteúdo. Quando removido, ele tinha sido visto mais de 700 vezes, mas não tinha sido compartilhado. Nenhum usuário denunciou o conteúdo.
Segundo a política do Facebook sobre produtos regulamentados, a Meta retira conteúdo que “[tente] comprar, vender ou comercializar medicamentos controlados...[ou] [solicite] medicamentos controlados, exceto quando o conteúdo discute a acessibilidade e a eficácia dos medicamentos em um contexto médico".
Na apelação ao Comitê, o usuário declarou que é um paciente em busca de orientação sobre a melhor forma de discutir uma questão importante com o médico. Ele chamou a atenção para a importância de ter conversas abertas e maduras sobre questões de assistência médica e de saúde mental.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- Se a decisão inicial da Meta de remover a publicação foi consistente com a política dos Padrões da Comunidade do Facebook sobre produtos regulamentados e com os valores declarados.
- Se a decisão inicial da Meta de remover a publicação está de acordo com as responsabilidades e os compromissos de direitos humanos que a empresa defende.
- Como a moderação de conteúdo da Meta, incluindo o uso de automação, afeta a liberdade de expressão e o acesso a informações sobre assistência médica e como os efeitos negativos podem ser evitados ou reduzidos.
- O impacto das políticas de conteúdo do Facebook e a aplicação delas nas discussões sobre medicamentos controlados, assim como a capacidade dos usuários de compartilhar e discutir questões de saúde mental, incluindo a possível estigmatização dessas questões.
- O papel e o impacto das redes sociais no abuso de medicamentos vendidos com receita.
Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 30 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.
2021-016-FB-FBR
Caso encaminhado pela Meta
Envie um comentário público aqui.
Observação: o resumo do caso a seguir inclui material possivelmente sensível sobre conteúdo de violência sexual contra menores de idade. Alguns detalhes do conteúdo sob análise foram retirados desse resumo para proteger os interesses das vítimas.
Em 20 de setembro de 2021, a Meta encaminhou ao Comitê um caso sobre um jornalista sueco que denunciava violência sexual contra menores de idade. O conteúdo foi publicado em sueco na página verificada do jornalista no Facebook em meados de 2019.
O conteúdo apresenta detalhes sobre os estupros de duas menores não identificadas, especificando a idade de cada uma e o município em que ocorreram os primeiros crimes. A publicação também detalha as condenações que dois sujeitos não identificados receberam por esses crimes. Um deles teria recebido uma pena de prisão simples por ser menor de idade quando cometeu a infração. O autor do outro caso teria completado recentemente uma pena de prisão privativa por um crime de violência contra outra mulher. A publicação argumenta que o sistema de justiça criminal sueco é muito leniente e incentiva o crime. O usuário defende a criação de um registro de agressores sexuais no país.
O conteúdo dá detalhes minuciosos e explícitos do impacto prejudicial do crime sobre a primeira vítima, incluindo a descrição dos danos físicos e mentais, o assédio offline e online e o apoio psicológico recebido. A publicação também contém citações atribuídas ao autor supostamente se gabando aos amigos sobre o estupro e referindo-se à menor de idade com termos sexualmente explícitos.
A publicação recebeu mais de 14.000 visualizações, de 1.800 comentários e de 10.000 reações. Um usuário denunciou o conteúdo em setembro de 2019 como bullying e assédio, o que levou a uma análise automática que avaliou o conteúdo como não violador e o manteve na plataforma. Mais tarde, os sistemas automatizados do Facebook detectaram a publicação como possivelmente violadora em agosto de 2021. Em seguida, um analista de conteúdo a classificou como violadora dos Padrões da Comunidade. Por fim, ela foi removida. Ou seja, o conteúdo permaneceu na plataforma por aproximadamente dois anos.
A Meta removeu o conteúdo por violar a política do Facebook sobre exploração sexual, abuso e nudez infantil. Segundo essa política, a Meta remove conteúdo que, entre outras coisas, "mostre crianças em um contexto erótico". No seu encaminhamento ao Comitê, a Meta explicou que a publicação violava a política porque "descreve como o agressor tratava a menor de idade com termos sexualmente explícitos".
Ainda nesse encaminhamento, a Meta afirmou que tomar uma decisão sobre o conteúdo é difícil porque destaca a tensão e os desafios que a empresa "enfrenta ao equilibrar os valores de segurança, de dignidade e de voz". A Meta também observou que o caso é significativo porque "o usuário é um jornalista de investigação conhecido que fez uma publicação sobre um crime de interesse público". A empresa também indicou que, embora seja importante que os usuários possam "se conscientizar cada vez mais sobre crimes, atrocidades e violações dos direitos humanos no Facebook", é importante que a plataforma "não sirva para retraumatizar as vítimas desses crimes ou facilitar o assédio delas".
O Comitê não recebeu uma declaração do usuário até a data de publicação do resumo em questão.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- Se a decisão da Meta de remover a publicação está de acordo com a política dos Padrões da Comunidade sobre exploração sexual, abuso ou nudez infantil, os valores declarados do Facebook e as responsabilidades e os compromissos de direitos humanos que a empresa defende.
- Se as políticas do Facebook e a aplicação delas protegem adequadamente as identidades e os direitos das crianças vítimas de crimes sexuais, incluindo proteção contra a retraumatização delas, ao mesmo tempo em que permitem o debate de interesse público sobre esses crimes e o sistema de justiça criminal.
- Se as escolhas de design da Meta incentivam denúncias sensacionalistas sobre questões que afetam os direitos das crianças, se ou como a Meta deve responder a esses impactos, além da relevância dos padrões de jornalismo ético a respeito disso.
Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 30 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.
2021-017-FB-UA
Apelação de um usuário para restaurar conteúdo no Facebook
Envie um comentário público aqui.
Em agosto de 2021, um usuário no Afeganistão que afirma ser jornalista escreveu uma publicação em dari na linha do tempo do Facebook sobre a tomada do país pelo Talibã, a nova responsabilidade do grupo de governar o Afeganistão e os próximos desafios.
O usuário começa afirmando que a meta do Talibã era "sacred and virtuous, at least to their way of thinking”(sagrada e virtuosa, pelo menos na sua maneira de pensar"), que eles lutavam para "liberate Afghanistan from what they called occupation and colonization" (libertar o Afeganistão do que chamavam de ocupação e colonização) e que alcançaram esse objetivo.
Ele continua dizendo que o Talibã agora tem a responsabilidade de governar o país e discute os desafios dessa transição, em particular uma que vai contra as demandas globais pela democracia. O usuário diz que "capitalists, businessmen, and other financial resources have fled the country" (capitalistas, empresários e outros recursos financeiros fugiram do país), deixando uma economia quebrada e uma sociedade desprovida de recursos. Caso o auxílio internacional seja interrompido e o sistema bancário do Afeganistão não seja restaurado, o usuário declara que "chaos and civil war will ensue" (o caos e a guerra civil serão instalados). Ele prossegue dizendo que a tempestade está por vir no Afeganistão e que uma sociedade sem comida não tem nada a perder e "strive to overthrow the system" (se esforçará para derrubar o sistema).
O usuário observa que, embora a situação de segurança no Afeganistão "may seem adequate today" (possa parecer adequada hoje), o Talibã deve estabelecer uma estrutura administrativa o mais rápido possível, especificar o papel dos bancos e desenvolver uma estratégia econômica. Ele também observa que, se o Talibã conseguir garantir a segurança e melhorar a economia, ele terá muito mais sucesso do que os governos anteriores. Por fim, o usuário afirma que a principal demanda de uma sociedade é alimentação e segurança e que a ausência disso leva ao caos.
A publicação foi visualizada mais de 600 vezes e recebeu mais de 20 reações e cerca de cinco comentários. De acordo com a Meta, a conta do usuário está localizada em Cabul, no Afeganistão. A publicação foi automaticamente denunciada. A Meta removeu a publicação por violar a política dos Padrões da Comunidade do Facebook sobre organizações e indivíduos perigosos. Como o Comitê selecionou o caso em apreço, a Meta identificou a remoção do conteúdo como um “erro de monitoramento” e o restaurou.
De acordo com o Nível 1 da política dos Padrões da Comunidade sobre organizações e indivíduos perigosos, o Facebook proíbe conteúdo que elogia, apoia substancialmente ou representa organizações terroristas que causam sérios danos no meio físico, incluindo a organização de atos de violência contra civis ou a defesa disso. A política disponível ao público foi atualizada em 26 de agosto de 2021 para incluir entidades e indivíduos designados que os Estados Unidos designam como Organizações Terroristas Estrangeiras (FTOs, pelas iniciais em inglês) ou Terroristas Globais Especialmente Designados (SDGTs, pelas iniciais em inglês). O Facebook designou o Talibã como uma organização perigosa nos termos das políticas da empresa.
Embora o conteúdo desse caso estivesse escrito em dari, o usuário enviou uma apelação ao Comitê em inglês. Nela, o usuário explica que é jornalista e quis elaborar uma avaliação analítica e crítica da situação no Afeganistão nessa publicação. Ele não explica se trabalha para uma organização de mídia ou se é um jornalista autônomo. O usuário alega que a publicação não tinha teor terrorista e que apenas dava informações sobre o futuro do seu país. Ele afirma que essa foi a terceira vez que o Facebook restringiu sua conta, apesar de ter sido muito cuidadoso. Por fim, alega que esse tratamento mostra que os funcionários do Facebook que falam persa "are not impartial" (não são imparciais).
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- Se a decisão inicial da Meta de remover a publicação está de acordo com a política dos Padrões da Comunidade sobre organizações e indivíduos perigosos, os valores declarados do Facebook e as responsabilidades e os compromissos de direitos humanos que a empresa defende.
- Desafios de moderação de conteúdo específicos ao Afeganistão e aos idiomas falados lá.
- Como as políticas de moderação de conteúdo impactam o discurso público no Afeganistão antes e depois da tomada do poder pelo Talibã.
- A segurança dos jornalistas e a extensão da liberdade de imprensa no Afeganistão desde a tomada do Talibã, e como esses fatores afetam as reportagens sobre o grupo e o acesso do público às informações sobre os desafios políticos e de segurança que o país enfrenta.
- Se a política dos Padrões da Comunidade do Facebook sobre organizações e indivíduos perigosos limita desnecessariamente a discussão de grupos designados que formam ou substituem governos.
- A relação entre a lei estadunidense que proíbe o apoio material de organizações terroristas designadas e as políticas de conteúdo do Facebook e como isso pode afetar a liberdade de expressão no mundo todo.
Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 30 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.
Comentários públicos
Se você ou sua organização acha que pode contribuir com perspectivas valiosas para ajudar a resolver os casos anunciados hoje, clique nos links acima para enviar um comentário. O período para deixar comentários públicos sobre esses casos ficará aberto por 14 dias e será fechado às 15h (UTC) do dia 16 de novembro, terça-feira.
Alterações nos regulamentos internos
Durante o último ano, o trabalho do Comitê expandiu nossos horizontes para melhor servir os usuários na forma como selecionamos e tomamos decisões sobre os casos. Assim, hoje estamos anunciando várias mudanças nos nossos regulamentos internos.
Segundo os regulamentos internos revisados, estendemos o prazo de seleção dos casos de 60 dias para 90 a partir do momento em que eles são encaminhados para nós, permitindo uma análise mais abrangente das apelações. Além disso, agora o prazo de 90 dias para publicar nossas decisões começará a ser contado quando publicarmos a seleção de um caso, não quando ele é atribuído a uma comissão. Os casos anunciados hoje serão os últimos a funcionar de acordo com o cronograma anterior. De agora em diante, será aplicado o calendário estabelecido nessa última versão dos regulamentos internos.
Também fizemos mudanças para que tenhamos mais tempo para tomar uma decisão definitiva quando confrontados com questões técnicas ou operacionais. Finalmente, alteramos os regulamentos internos para publicar informações sobre a participação e as recusas de comissões encarregadas de um caso, sem nomear membros específicos do Comitê.
Essas mudanças nos regulamentos internos foram aprovadas antes do anúncio feito na última semana sobre a mudança de nome do Facebook. Vamos atualizar nosso site e os documentos em vigor para refletir o novo nome no devido tempo, mas essas mudanças não estão refletidas na versão dos regulamentos internos em voga hoje.
Próximos passos
Nas próximas semanas, os membros do Comitê deliberarão sobre os casos em foco. Quando eles chegarem às decisões finais, nós as publicaremos no site do Comitê de Supervisão. Para receber atualizações sobre quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.