Comitê de Supervisão anuncia novos casos e revisão das políticas de desinformação sobre a COVID-19 da Meta
26 de Julho de 2022
Hoje, o Comitê de Supervisão anunciou que aceitou uma solicitação da Meta para um parecer consultivo sobre a remoção de desinformação em relação à COVID-19. O Comitê também anunciou novos casos para análise sobre identidade de gênero e nudez, discurso de ódio, invasão da Ucrânia pela Rússia e gênero musical drill no Reino Unido.
Como parte do parecer consultivo e de novos casos, incentivamos pessoas e organizações a enviar comentários públicos.
- Envie comentários sobre o parecer consultivo para COVID-19 aqui.
- Envie comentários sobre os casos de “Identidade de gênero e nudez” aqui.
- Envie comentários sobre o caso do “Poema russo” aqui.
- Envie comentários sobre o caso do “Gênero musical drill no Reino Unido” aqui.
Parecer consultivo
Além de analisar casos individuais de remoção ou de restauração de conteúdo, o Comitê também pode aceitar solicitações da Meta para enviar orientações sobre suas políticas de conteúdo mais amplas. Após receber a solicitação da Meta e as contribuições das partes interessadas externas, o Comitê apresenta recomendações detalhadas sobre alterações que a Meta deveria fazer em determinado tópico de suas políticas.
A Meta deve enviar essas recomendações do Comitê por meio de seu processo oficial de desenvolvimento de políticas e fazer atualizações constantes sobre o assunto, inclusive por meio do Newsroom. Embora o parecer consultivo do Comitê não seja vinculativo, a Meta deve dar uma resposta pública e tomar medidas de acompanhamento em 60 dias após o recebimento das nossas recomendações.
Até o momento, o Comitê adotou dois outros pareceres consultivos: publicando o primeiro em fevereiro de 2022 sobre o compartilhamento de informações residenciais privadas no Facebook e no Instagram e iniciando uma análise do sistema de verificação cruzada da Meta em outubro de 2021.
Remoção de desinformação sobre a COVID-19 (PAO 2022-01)
Envie um comentário público aqui.
A Meta solicitou um parecer consultivo sobre sua abordagem em relação à desinformação sobre a COVID-19, conforme descrito na política da empresa sobre desinformação prejudicial à saúde.
A solicitação da Meta ao Comitê está disponível na íntegra aqui.
Em sua solicitação, a Meta questiona o Comitê se ela deve continuar removendo conteúdos de acordo com essa política ou se outra abordagem menos restritiva seria melhor de acordo com os valores e responsabilidades de direitos humanos da empresa.
A Meta informou ao Comitê que sua abordagem em relação à desinformação em suas plataformas se baseia, principalmente, na contextualização de alegações potencialmente falsas e da redução de seu alcance, e não na remoção do conteúdo. Como é difícil definir com precisão o que constitui desinformação em vários tópicos, a remoção de desinformação em grande escala coloca a expressão dos usuários em risco. No entanto, a empresa começou a adotar uma abordagem diferente em janeiro de 2020, quando o impacto geral da COVID-19 começou a ser mais evidente. A Meta continuou removendo de suas plataformas categorias inteiras de desinformação sobre a pandemia. A Meta afirma que isso foi feito porque “especialistas externos em saúde informaram que a desinformação sobre a COVID-19, como falsas alegações sobre curas, máscaras, distanciamento social e transmissibilidade do vírus, poderiam contribuir para o risco de danos físicos iminentes”.
A abordagem atual da Meta é remover desinformações que possam contribuir diretamente para o risco de danos físicos iminentes e identificar, verificar os fatos e rebaixar desinformações que não atendam ao padrão sobre “danos físicos iminentes”.
De acordo com a Meta, “a desinformação prejudicial à saúde é removida se os seguintes critérios forem atendidos: (1) se houver uma emergência de saúde pública; (2) se as principais organizações globais de saúde ou autoridades locais de saúde informarem que uma determinada alegação é falsa; e (3) essas organizações ou autoridades informarem que a alegação pode contribuir diretamente para o risco de danos físicos iminentes”. O artigo da Central de Ajuda sobre a COVID-19 fornece uma lista de 80 “alegações falsas diferentes” que a empresa remove porque “contribui diretamente para um risco de danos físicos iminentes, conforme avaliado por um especialista externo”. Essas alegações incluem curas falsas, informações falsas destinadas a desestimular o tratamento, informações falsas sobre prevenção, informações falsas sobre disponibilidade ou acesso a recursos de saúde ou informações falsas sobre a localização ou a gravidade de um surto da doença.
Para conteúdos que não se enquadram nesses padrões de remoção, a empresa conta com verificadores de fato independentes para analisar e avaliar a precisão dos conteúdos mais virais. Os verificadores de fatos independentes analisam trechos individuais de conteúdo e podem rotular o conteúdo como "Falso", "Alterado", "Parcialmente falso" ou "Sem contexto". O conteúdo identificado como "Falso" ou "Alterado" é coberto por uma tela de aviso, que exige que os usuários cliquem para visualizar o conteúdo. A tela de aviso também apresenta links para artigos fornecidos pelo verificador de fatos que nega a alegação. O conteúdo rotulado como "Parcialmente falso" ou "Sem contexto" tem um rótulo menos intrusivo, que não oculta a publicação nem exige cliques para visualizá-la. Esse rótulo também contém um link para artigos fornecidos pelos verificadores de fatos. De acordo com a Meta, o conteúdo classificado como "Falso", "Alterado" ou "Parcialmente falso" é rebaixado nos feeds dos usuários, enquanto o conteúdo classificado como "Sem contexto" geralmente não é rebaixado.
A Meta também afirma que emprega uma medida temporária de redução de emergência quando “há um aumento de desinformação sobre uma crise específica em nossas plataformas e nossos verificadores de fatos independentes não conseguem acompanhar a classificação dessas alegações”. Nessas circunstâncias, a empresa informa que rebaixa, em grande escala, alegações importantes e verificadas repetidamente.
A Meta afirma, em sua solicitação, que, em circunstâncias limitadas, pode adicionar um rótulo a conteúdo não violador sobre a COVID-19 que direciona os usuários à COVID-19: Central de Informações. De acordo com a empresa, “esses rótulos não indicam uma opinião sobre a veracidade da publicação”.
Em sua solicitação para um parecer consultivo, a Meta aponta para a mudança no cenário que envolve a COVID-19 como o motivo pelo qual a empresa busca orientações do Comitê sobre sua abordagem atual. Primeiramente, de acordo com a Meta, não houve uma orientação oficial no início da pandemia, o que “gerou uma falta de informações e estimulou a disseminação de boatos, especulações e desinformações”. Hoje, as pessoas têm mais acesso à informação. “Apesar de ainda existir desinformações sobre a COVID-19, informações verdadeiras e baseadas em dados sobre a pandemia foram publicadas em uma quantidade surpreendente.” Em segundo lugar, o desenvolvimento de vacinas, tratamentos terapêuticos e a evolução de variantes de doenças demonstram que a COVID-19 é menos letal. Por fim, a Meta afirma que “as autoridades de saúde pública estão avaliando, continuamente, se a COVID-19 evoluiu para um estado de menor gravidade”. A Meta reconhece em sua solicitação ao Comitê que a situação da pandemia continua e continuará variando em todo o mundo, dada a instabilidade nas taxas de vacinação, na capacidade e nos recursos do sistema de saúde e na menor confiança em orientações do governo, o que contribui para o provável efeito desproporcional que a doença terá na população de diferentes países.
A solicitação da Meta destaca as decisões anteriores do Comitê sobre a COVID-19, “Alegação sobre a cura da COVID” e “Confinamento devido à COVID no Brasil.” Nesses casos, a resposta da Meta às recomendações de política do Comitê pode ser encontrada aqui.
Perguntas feitas pela Meta ao Comitê:
A Meta mostrou as seguintes opções de política ao Comitê para consideração:
- Continuidade da remoção de desinformação sobre a COVID-19. Essa opção indica que a Meta continuará com a abordagem atual de remover conteúdo que contribua diretamente para o risco de danos físicos iminentes. A Meta afirma que, com essa opção, a empresa acabaria deixando de remover desinformações quando elas não representassem mais um risco de danos iminentes e solicita a orientação do Comitê sobre como deve determinar isso.
- Medidas temporárias de redução de emergência. De acordo com essa opção, a Meta deixaria de remover desinformações sobre a COVID-19 e, assim, reduziria a distribuição das alegações. Esta seria uma medida temporária, e a empresa solicita orientação do Comitê sobre quando deixar de usá-la, caso seja adotada.
- Verificação de fatos independente. Nessa opção, o conteúdo atualmente sujeito à remoção seria enviado a verificadores de fatos independentes para avaliação. A Meta destaca que “o número de verificadores de fatos disponíveis para avaliar o conteúdo sempre será limitado. Se a Meta implementasse essa opção, os verificadores de fatos não conseguiriam analisar todos os conteúdos sobre a COVID-19 em nossas plataformas, e alguns deles não seriam avaliados quanto à precisão, ao rebaixamento e ao rótulo”.
- Rótulos. Nessa opção, a Meta adicionaria rótulos ao conteúdo que não impediriam os usuários de visualizá-lo, mas forneceriam links diretos para informações oficiais. A Meta considera essa medida temporária e solicita orientação do Comitê sobre os fatores a considerar caso decida parar de usar esses rótulos.
A Meta explicou ao Comitê que cada uma dessas opções tem vantagens e desvantagens, principalmente em termos de escalabilidade, precisão e quantidade de conteúdo afetado. Por razões técnicas, a empresa recomenda a adoção de uma abordagem global, em vez de adotar abordagens específicas por país ou região.
Embora o Comitê considere as opções específicas fornecidas pela Meta, as recomendações do Comitê e o parecer consultivo podem não se restringir a essas opções.
O Comitê solicita comentários públicos que abordem:
- A prevalência e o impacto de desinformações sobre a COVID-19 em diferentes países ou regiões, especialmente em locais onde o Facebook e o Instagram são o principal meio de compartilhamento de informações e em locais onde o acesso à assistência médica, incluindo vacinas, é limitado.
- A eficácia das intervenções das redes sociais para lidar com desinformações sobre a COVID-19, inclusive como elas afetam a disseminação de desinformação, a confiança nas medidas de saúde pública e os resultados da saúde pública, bem como os impactos na liberdade de expressão, principalmente no debate público e científico.
- Os critérios que a Meta deve aplicar para suspender as intervenções temporárias de desinformação conforme o surgimento de situações de emergência.
- O uso de sistemas algorítmicos ou de recomendação para detectar e aplicar intervenções de desinformação e formas de melhorar a precisão e transparência desses sistemas.
- O tratamento adequado aos usuários cuja expressão sofre impacto com as intervenções de redes sociais para lidar com a desinformação, inclusive a capacidade do usuário de contestar a aplicação de rótulos, telas de aviso ou rebaixamento de seu conteúdo.
- Princípios e melhores práticas para orientar os relatórios de transparência da Meta sobre as intervenções em resposta à desinformação sobre saúde.
Comentários públicos
Uma parte importante do processo do Comitê para elaboração do parecer consultivo é a coleta de informações adicionais e especializadas de pessoas e de organizações. Com elas, os membros do Comitê podem ter mais conhecimento e entender como as políticas da Meta afetam pessoas diferentes em todo o mundo.
Se você ou sua organização acreditam que podem ajudar com perspectivas importantes para essa solicitação de parecer consultivo, enviem sua contribuição aqui.
O período para deixar comentários públicos sobre essa solicitação termina na quinta-feira, 25 de agosto, às 15h (UTC).
Esse período é mais longo do que o destinado a novos casos, pois o processo de parecer consultivo não tem as mesmas restrições de tempo. Além disso, os comentários públicos podem ter até seis páginas e ser enviados em qualquer idioma disponível no site do Comitê para permitir uma participação geral nas questões consideradas. A lista completa de idiomas está disponível no link acima.
Próximos passos
Como o Comitê aceitou a solicitação de parecer consultivo, estamos coletando as informações necessárias, inclusive por meio da convocação para envio de comentários públicos que fizemos hoje. Após as deliberações, o Comitê votará no parecer consultivo. Se for aprovado, ele será publicado no site do Comitê.
Novos casos
Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários ao redor do mundo, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta.
Os casos que anunciamos hoje são os seguintes:
Identidade de gênero e nudez (2022-009-IG-UA 2022-010-IG-UA)
Apelações do usuário para restaurar conteúdo do Instagram
Envie comentários públicos aqui.
Esses casos tratam de duas decisões sobre conteúdo da Meta que o Comitê de Supervisão pretende abordar em conjunto. Duas imagens separadas com legendas foram publicadas em uma mesma conta do Instagram, mantida em conjunto por um casal americano. As duas imagens mostram o casal, que afirmou, nas publicações e em envios ao Comitê, ser transgênero e não binário. Na primeira imagem, publicada em 2021, as duas pessoas estão nuas da cintura para cima e usam uma fita cor de pele sobre os mamilos, que não estão visíveis. Na segunda imagem, publicada em 2022, uma pessoa está vestida, e a outra está com o peito nu e com as mãos cobrindo os mamilos. As legendas dessas imagens mencionam como a pessoa com o peito nu em ambas as fotos fará uma mamoplastia em breve. O casal fala sobre os planos de registrar o procedimento cirúrgico e debater questões de saúde da população transgênera. As publicações incluem uma campanha de arrecadação de fundos para pagar a cirurgia.
A Meta removeu as duas publicações de acordo com os Padrões da Comunidade sobre propostas de cunho sexual. Em ambos os casos, os sistemas automatizados da Meta identificaram o conteúdo como potencialmente violador.
- No primeiro caso, a denúncia foi encerrada automaticamente sem ser analisada. Em seguida, três usuários denunciaram o conteúdo por pornografia e automutilação. Essas denúncias foram analisadas por moderadores humanos que consideraram a publicação não violadora. Quando o conteúdo foi denunciado pela quarta vez, outro analista humano identificou a publicação como violadora e a removeu.
- No segundo caso, a publicação foi identificada duas vezes como potencialmente violadora pelos sistemas automatizados da Meta, foi enviada para análise humana e considerada não violadora. Dois usuários denunciaram o conteúdo, mas cada uma das denúncias foi encerrada automaticamente sem passar por análise. Por fim, os sistemas automatizados da Meta identificaram o conteúdo como potencialmente violador pela terceira vez e o enviaram para análise humana. O analista considerou a publicação violadora e a removeu.
Os proprietários da conta fizeram uma apelação das duas decisões de remoção, e a Meta manteve as decisões de remover as duas publicações.
Os proprietários da conta fizeram uma apelação das duas decisões de remoção ao Comitê. O Comitê fará a análise em conjunto. Nas declarações ao Comitê, o casal demonstrou não ter entendido como o conteúdo violou as políticas da Meta. O casal explicou que as mamas nas fotos não são femininas e que é importante que os corpos transgêneros não sejam censurados na plataforma, especialmente quando os direitos da população transgênera e o acesso aos cuidados de saúde de afirmação de gênero estão sob ameaça nos Estados Unidos.
Considerando que o Comitê selecionou essas publicações, a Meta identificou as remoções como um “erro de aplicação de normas” e restaurou as publicações.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- Se as políticas da Meta sobre nudez e propostas de cunho sexual respeitam, de forma adequada, os direitos de usuários transgêneros e não binários.
- Se a exceção à proibição da Meta para mamilos femininos no caso de cirurgias de confirmação de gênero na política de nudez tem efeito na prática.
- Se a Meta possui procedimentos suficientes para lidar com conteúdo não violador denunciado e mitigar o risco de remoção incorreta.
- Como a automação usada pela Meta para detectar propostas de cunho sexual e nudez pode ser melhorada.
- Análises sobre o contexto sociopolítico nos Estados Unidos (e em todo o mundo), particularmente em relação a desafios ou limitações à liberdade de expressão, inclusive a expressão de gênero e expressão sobre direitos de pessoas transgêneras e não binárias e questões de acesso aos cuidados de saúde envolvendo afirmação de gênero.
- Análises sobre o papel das redes sociais globalmente como recurso e fórum de expressão para usuários transgêneros e não binários.
Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculativas, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para os casos em questão.
Poema russo (2022-008-FB-UA)
Apelação de um usuário para restaurar conteúdo no Facebook
Envie comentários públicos aqui.
Em abril de 2022, um usuário do Facebook na Letônia publicou uma foto e um texto em russo em seu feed de notícias. A foto mostra uma vista da rua com uma pessoa deitada no chão e imóvel, provavelmente morta. Não há feridas visíveis. No texto, o usuário comenta sobre supostos crimes cometidos por soldados soviéticos na Alemanha durante a Segunda Guerra Mundial. E que esses crimes foram justificados pelo fato de que os soldados estavam se vingando dos horrores causados pelos nazistas à URSS.
O usuário faz uma conexão entre a Segunda Guerra Mundial e a invasão da Ucrânia, argumentando que o exército russo “became fascist” (se tornou fascista). O texto descreve que o exército russo na Ucrânia “насиловать девочек, резать их отцов, пытать и убивать мирных людей мирных окраин Киева” (estupra meninas, corta seus pais, tortura e mata pessoas pacíficas nos arredores pacíficos de Kyiv).
O usuário conclui que “after Bucha, Ukrainians will also want to repeat ... and will be able to repeat” (depois de Bucha, os ucranianos também vão querer repetir... e poderão repetir) tais ações. Ao final da publicação, o usuário compartilha trechos do poema “Kill him!” (Mate-o!) escrito pelo poeta soviético Konstantin Simonov, incluindo os versos: “kill the fascist so he will lie on the ground’s backbone, not you”; “kill at least one of them as soon as you can” (mate o fascista para que ele, e não você, deite na espinha dorsal do chão; mate pelo menos um deles assim que puder); “Kill him! Kill him! Kill!”.
A publicação foi visualizada cerca de 20.000 vezes. No mesmo dia em que o conteúdo foi publicado, outro usuário o denunciou como “violent and graphic content” (conteúdo violento e explícito). Com base na decisão de um analista humano, a Meta removeu o conteúdo por violar seus Padrões da Comunidade sobre discurso de ódio. Horas depois, o usuário que publicou o conteúdo fez uma apelação, e um segundo analista avaliou o conteúdo como uma violação da política de discurso de ódio.
O usuário fez uma apelação ao Comitê de Supervisão. Como o Comitê selecionou a apelação para análise em 31 de maio de 2022, a Meta determinou que a decisão anterior de remover o conteúdo estava errada e o restaurou. Em 24 de junho de 2022, vinte e quatro dias após a restauração do conteúdo, a Meta colocou uma tela de aviso na foto da publicação de acordo com os Padrões da Comunidade sobre conteúdo violento e explícito, pois ela mostrava a morte violenta de uma pessoa.
Na apelação ao Comitê, o usuário afirma que a foto compartilhada é a “most innocuous” (mais inofensiva) das imagens que documentam os “crimes of the Russian army in the city of Bucha” (crimes do exército russo na cidade de Bucha), “where dozens of dead civilians lie on the streets” (onde dezenas de civis mortos jazem nas ruas). O usuário afirma que sua publicação não incita violência e aborda uma “past history and the present” (história do passado e do presente). Ele informa que o poema foi originalmente dedicado à “struggle of Soviet soldiers against the Nazis” (luta dos soldados soviéticos contra os nazistas) e que a publicação foi feita para mostrar como “the Russian army became an analogue of the fascist army” (o exército russo se tornou um análogo do exército fascista). Como parte da apelação, o usuário afirma que é jornalista e acredita que é importante as pessoas entenderem o que está acontecendo, especialmente em tempos de guerra.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- Como as políticas da Meta devem tratar o discurso de ódio ou incitação à violência tendo como base a nacionalidade no contexto de um conflito armado internacional, inclusive quando direcionado principalmente aos militares?
- Como a Meta deve avaliar as leis de conflito armado ao fazer a moderação do conteúdo sobre esse tema.
- Se a política da Meta deve fazer uma distinção entre ataques a instituições (como o exército ou militares) e cidadãos dentro dessas instituições (como soldados).
- Análises relacionadas à moderação de conteúdo da Meta que inclui comentários de jornalistas e/ou expressão artística, especialmente arte que pode abordar temas sensíveis como guerra.
- A obra de Konstantin Simonov, o contexto envolvido e como ela é referenciada hoje, inclusive em relação ao conflito atual.
- Análises relacionadas ao compartilhamento e à visibilidade de fotos que retratam possíveis violações de direitos humanos ou crimes de guerra em conflitos armados nas plataformas da Meta.
Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculativas, a empresa deve enviar uma resposta dentro de 60 dias. O Comitê aceita comentários públicos com recomendações relevantes para o caso em questão.
Gênero musical drill no Reino Unido (2022-007-IG-MR)
Caso indicado pela Meta
Envie comentários públicos aqui.
Em janeiro de 2022, uma conta do Instagram que se identifica como divulgadora da música britânica publicou um vídeo com uma breve legenda na sua conta pública. O vídeo mostra um clipe de 21 segundos de uma música britânica do gênero drill chamada “Secrets Not Safe” do rapper Chinx (OS). A legenda marca Chinx (OS) e um artista afiliado e destaca que a faixa havia acabado de ser lançada. O videoclipe mostra parte do segundo verso da música e acaba com uma tela preta com o texto “OUT NOW”. Drill é um subgênero do rap popular no Reino Unido, com uma grande quantidade de artistas drill ativos em Londres.
Logo após a publicação do vídeo, a Meta recebeu uma solicitação das autoridades policiais do Reino Unido para remover o conteúdo que incluía essa faixa. A Meta declarou que foi informada pela polícia de que alguns elementos podem contribuir para o risco de danos no meio físico. A empresa também estava ciente de que a música fazia referência a um antigo tiroteio que gerava preocupação de que poderia provocar mais violência. Por isso, a publicação foi encaminhada para análise interna a especialistas da Meta.
Os especialistas da Meta determinaram que o conteúdo violou a política de violência e incitação, especificamente a proibição de “declarações codificadas em que o método de violência ou lesão não esteja claramente enunciado, mas cuja ameaça seja velada ou implícita”. A lista de Padrões da Comunidade indica que o conteúdo pode incluir ameaças veladas ou implícitas. Isso inclui conteúdo “compartilhado em um contexto de retaliação” e conteúdo com “referências a incidentes históricos ou fictícios de violência”. Mais informações e/ou contexto são sempre necessários para identificar e remover várias categorias diferentes listadas no final da política de violência e incitação, entre eles, ameaças veladas. A Meta explicou ao Comitê que a aplicação das normas dessas categorias não está sujeita à análise em grande escala (o processo de análise padrão realizado por moderadores terceirizados) e somente pode ser aplicada pelas equipes internas da Meta. A Meta explicou ainda que os Padrões da Comunidade do Facebook se aplicam ao Instagram.
Quando a Meta removeu o conteúdo, dois dias depois de ser publicado, ela também removeu cópias do vídeo publicadas por outras contas. Com base nas informações recebidas das autoridades policiais do Reino Unido, a equipe de Políticas Públicas de Meta acreditava que a faixa “poderia aumentar o risco potencial de violência com retaliação entre gangues” e “seria algo que se assemelhasse a uma incitação hostil que poderia contribuir para um risco de violência ou danos físicos iminentes, incluindo violência com retaliação entre gangues”
Horas após a remoção do conteúdo, o proprietário da conta fez uma apelação. Um analista humano avaliou o conteúdo como não violador e o restaurou no Instagram. Depois de oito dias, após uma segunda solicitação das autoridades policiais do Reino Unido, a Meta removeu o conteúdo novamente e derrubou outros trechos do vídeo encontrados nas suas plataformas. Essa conta tem menos de 1.000 seguidores, a maioria dos quais mora no Reino Unido. O usuário recebeu notificações da Meta nas duas vezes em que o conteúdo foi removido, mas não foi informado de que as remoções foram iniciadas após uma solicitação das autoridades policiais do Reino Unido.
Após encaminhar esse assunto ao Comitê, a Meta afirma que o caso é particularmente difícil, pois envolve o equilíbrio entre os interesses conflitantes de expressão artística e segurança pública. A Meta explica que, embora a empresa valorize muito a expressão artística, é difícil determinar quando essa expressão se torna uma ameaça real. A Meta pede ao Comitê que avalie se, nesse caso e de forma mais geral, os riscos de segurança associados à potencial incitação da violência entre gangues são maiores do que o valor da expressão artística na música do gênero drill.
O Comitê gostaria de receber comentários públicos que abordassem o seguinte:
- O significado artístico e cultural da música do gênero drill do Reino Unido e qualquer relação entre o compartilhamento dessa música online e atos de violência no mundo real.
- A responsabilidade de direitos humanos da Meta de respeitar a expressão artística, além de garantir que suas plataformas não sejam usadas para incitar violência, e como informar sua abordagem à moderação de conteúdo de música.
- Se as políticas da Meta sobre violência e incitação devem incluir permissões para humor, sátira ou expressão artística e, em caso afirmativo, como devem ser redigidas e aplicadas com precisão em grande escala.
- Como as plataformas de redes sociais devem gerenciar solicitações de aplicação de normas para análise ou remoção de conteúdo que não viola as leis nacionais, mas pode violar as regras de conteúdo de uma plataforma.
- Como as plataformas de redes sociais devem incorporar solicitações de aplicação da norma para remoção de conteúdo, especialmente solicitações que não são baseadas em suposta ilegalidade, em seus relatórios de transparência.
Nas suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculativas, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para os casos em questão.
Comentários públicos
Se você ou sua organização acha que pode contribuir com perspectivas valiosas para ajudar a resolver os casos anunciados hoje, clique nos links acima para enviar um comentário. O prazo para enviar comentários públicos sobre esses casos será de 14 dias e será encerrado às 15h (UTC) do dia 9 de agosto de 2022, terça-feira.
Próximos passos
Nas próximas semanas, os membros do Comitê deliberarão sobre os casos em foco. Quando chegarem às decisões finais, nós as publicaremos no site do Comitê de Supervisão. Para receber atualizações quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.