Comitê de Supervisão anuncia dois novos casos sobre imagens explícitas de figuras públicas femininas criadas por IA

Hoje, o Comitê está anunciando dois novos casos para análise. Por esse motivo, convidamos pessoas e organizações a enviar comentários públicos.

Seleção dos casos

Como não podemos analisar todas as apelações, o Comitê prioriza os casos que têm potencial de afetar vários usuários no mundo inteiro, apresentam grande importância para o debate público ou suscitam questões relevantes sobre as políticas da Meta.

Os casos que anunciamos hoje são os seguintes:

Imagens explícitas de figuras públicas femininas criadas por IA

2024-007-IG-UA, 2024-008-FB-UA

Apelação do usuário para remover conteúdo do Instagram e apelação do usuário para restaurar conteúdo no Facebook

Envie comentários públicos, que podem ser feitos anonimamente, aqui .

Esses casos dizem respeito a duas decisões de conteúdo tomadas pela Meta, uma no Instagram e outra no Facebook, que o Comitê de Supervisão pretende abordar em conjunto. Para cada caso, o Comitê decidirá se o conteúdo deve ser permitido no Instagram ou no Facebook.

O primeiro caso envolve uma imagem gerada por IA de uma mulher nua publicada no Instagram. A imagem foi criada usando inteligência artificial (IA) para se parecer com uma figura pública da Índia. A conta que publicou esse conteúdo compartilha apenas imagens de mulheres indianas geradas por IA. A maioria dos usuários que reagiram à publicação tem contas na Índia, onde os deepfakes têm se tornado um problema cada vez maior.

Nesse caso, um usuário denunciou o conteúdo à Meta por considerar pornográfico. Essa denúncia foi encerrada automaticamente porque não foi analisada em 48 horas. O mesmo usuário apelou da decisão da Meta de deixar o conteúdo ativo, mas essa apelação também foi encerrada automaticamente, e o conteúdo permaneceu ativo. O usuário, então, fez uma apelação ao Comitê. Como resultado da seleção desse caso pelo Comitê, a Meta determinou que sua decisão de deixar o conteúdo ativo foi um erro e removeu a publicação por não seguir o Padrão da Comunidade sobre Bullying e Assédio.

O segundo caso diz respeito a uma imagem publicada em um grupo do Facebook para criações de IA. O conteúdo apresenta uma imagem gerada por IA de uma mulher nua com um homem apalpando seus seios. A imagem foi criada com IA para se assemelhar a uma figura pública americana, que também é citada na legenda. A maioria dos usuários que reagiram à publicação possui contas nos Estados Unidos.

Nesse caso, um usuário diferente já havia publicado essa imagem, o que fez com que ela fosse encaminhada para especialistas da política da Meta ou do assunto, que decidiram remover o conteúdo como uma violação da Política sobre Bullying e Assédio, especificamente para “photoshop ou desenhos sexualizados depreciativos”. A imagem foi adicionada a um Banco de Serviço de Correspondência de Mídia, que é uma parte do sistema automatizado de monitoramento da Meta que encontra e remove automaticamente imagens que já foram identificadas por analistas humanos como violadoras das regras da empresa. Portanto, nesse caso, a imagem já foi considerada uma violação dos Padrões da Comunidade do Facebook e foi removida. O usuário que publicou o conteúdo fez uma apelação, mas a denúncia foi encerrada automaticamente. O usuário, então, fez uma apelação ao Comitê.

O Comitê selecionou esses casos para avaliar se as políticas da Meta e suas práticas de monitoramento são eficazes na abordagem de imagens explícitas geradas por IA. Esse caso está alinhado com a prioridade estratégica de gênero do Comitê.

O Comitê gostaria de receber comentários públicos que abordassem o seguinte:

  • A natureza e a gravidade dos danos causados pela pornografia deepfake, incluindo como eles afetam as mulheres, especialmente as que são figuras públicas.
  • Informações contextuais sobre o uso e a prevalência da pornografia deepfake em todo o mundo, inclusive nos Estados Unidos e na Índia.
  • Estratégias sobre como a Meta pode lidar com a pornografia deepfake em suas plataformas, incluindo as políticas e processos de monitoramento que podem ser mais eficazes.
  • O monitoramento pela Meta de sua regra em relação a “photoshop ou desenhos sexualizados depreciativos” na Política sobre Bullying e Assédio, incluindo o uso de Bancos de Serviços de Correspondência de Mídia.
  • Os desafios de recorrer a sistemas automatizados que encerram automaticamente as apelações em 48 horas, caso nenhuma análise tenha sido realizada.

Como parte de suas decisões, o Comitê pode emitir recomendações de política à Meta. Embora elas não sejam vinculantes, a empresa deve enviar uma resposta dentro de 60 dias. Dessa forma, o Comitê aceita comentários públicos com recomendações relevantes para os casos em questão.

Comentários públicos

Se você ou sua organização acham que podem contribuir com perspectivas valiosas para ajudar na deliberação dos casos anunciados hoje, clique no link acima. Observe que os comentários públicos podem ser enviados anonimamente. O período para deixar comentários públicos ficará aberto durante 14 dias e será encerrado às 23h59, horário local, na terça-feira, 30 de abril.

Para respeitar seus direitos e mitigar os riscos de agravamento do assédio às mulheres retratadas nessas publicações, o Comitê solicita que os comentários públicos evitem divulgar nomes ou de outra forma compartilhar informações privadas sobre terceiros ou especular sobre as identidades das pessoas retratadas no conteúdo desses casos.

O próximo passo

Durante as próximas semanas, os membros do Comitê deliberarão sobre esses casos. Quando eles chegarem às decisões finais, nós as publicaremos no site do Comitê de Supervisão.

Para receber atualizações quando o Comitê anunciar novos casos ou publicar decisões, cadastre-se aqui.

Voltar às Notícias