Comitê de Supervisão mantém a decisão da Meta no caso do vídeo adulterado do Presidente Biden
5 de Fevereiro de 2024
OComitê de Supervisão manteve a decisão da Meta de deixar ativo um vídeo editado para fazer parecer que o Presidente dos EUA, Joe Biden, estava tocando de maneira inadequada o peito da neta adulta. O vídeo tem uma legenda descrevendo o Presidente como “pedophile” (pedófilo). A publicação do Facebook não viola a política contra mídia manipulada da Meta, a qual se aplica exclusivamente a vídeos criados por meio de inteligência artificial (IA) e apenas a conteúdo que mostre pessoas dizendo algo que não disseram. Como o vídeo dessa publicação não foi alterado por IA e mostra o Presidente Biden fazendo algo que não fez (e não algo que não disse), ele não viola a política vigente. Além disso, a alteração desse videoclipe é óbvia, e, portanto, é improvável que faça o “usuário comum” acreditar que seja autêntico, o que, segundo a Meta, é uma característica fundamental da mídia manipulada. No entanto, a preocupação do Comitê é em relação ao formato vigente da política contra mídia manipulada, por considerá-la incoerente, sem uma justificativa persuasiva e concentrada inadequadamente em como o conteúdo foi criado, em vez de nos danos específicos que deve prevenir (por exemplo, em processos eleitorais). A Meta deve reconsiderar essa política rapidamente, devido ao número de eleições em 2024.
Sobre o Caso
Em maio de 2023, um usuário do Facebook publicou um videoclipe de sete segundos, baseado em uma filmagem real do Presidente Biden de outubro de 2022, quando o Presidente foi votar pessoalmente durante as eleições de meio de mandato dos EUA. Na filmagem original, ele trocou adesivos de “I Voted” (eu votei) com a neta adulta, que estava votando pela primeira vez. Seguindo as instruções da neta, o Presidente colocou a etiqueta sobre o peito dela e a beijou no rosto. No videoclipe, publicado pouco mais de seis meses depois, a filmagem foi alterada para ser exibida em loop, repetindo o momento em que a mão do Presidente tocava o peito da neta para fazer parecer que a estava tocando de maneira inadequada. A trilha sonora do vídeo adulterado inclui o trecho “Girls rub on your titties” (garotas esfreguem seus peitos) da música “Simon Says”, de Pharoahe Monch, enquanto a legenda da publicação diz que o Presidente Biden é um “sick pedophile” (pedófilo doentio) e descreve as pessoas que votaram nele como “mentally unwell” (doentes mentais). Outras publicações contendo o mesmo videoclipe adulterado, mas não a mesma trilha sonora ou legenda, viralizaram em janeiro de 2023.
Outro usuário denunciou a publicação para a Meta como discurso de ódio, mas essa denúncia foi encerrada automaticamente pela empresa sem análise alguma. Ele então apelou dessa decisão da Meta, o que resultou em uma análise humana que decidiu que o conteúdo não era uma violação e o manteve ativo. Finalmente, o usuário fez uma apelação ao Comitê.
Principais descobertas
O Comitê concorda com a Meta que o conteúdo não viola a Política contra mídia manipulada, pois o clipe não mostra o Presidente Biden dizendo palavras que não disse e não foi alterado por IA. A política vigente só proíbe vídeos editados mostrando pessoas dizendo palavras que não disseram (não há proibição que inclua pessoas fazendo algo que não fizeram) e só se aplica a vídeo criado por IA. De acordo com a Meta, uma característica fundamental da “mídia manipulada” é que pode levar o usuário “comum” a acreditar que é autêntica ou que não foi adulterada. Nesse caso, a cena em loop do vídeo é uma adulteração óbvia.
Entretanto, o Comitê acha que a Política contra mídia manipulada da Meta não tem uma justificativa persuasiva, é incoerente e confusa para os usuários e não especifica claramente os danos que procura evitar. Em suma, a política deve ser reconsiderada.
A aplicação da política exclusivamente a conteúdo de vídeo, conteúdo adulterado ou gerado por IA e conteúdo que faça as pessoas aparentarem dizer algo que não disseram é muito restrita. A Meta deve ampliar a política para incluir áudio, bem como conteúdo que mostre as pessoas fazendo algo que não fizeram. O Comitê também não está convencido da lógica de tornar essas regras dependentes das medidas técnicas usadas para criar o conteúdo. Especialistas consultados pelo Comitê e comentários do público concordam, de modo geral, com o fato de que conteúdo não alterado por IA seja um fator preponderante e não necessariamente menos enganoso. Por exemplo, a maioria dos smartphones tem recursos de edição de conteúdo. Portanto, a política não deve tratar “deep fakes” de maneira diferente do conteúdo adulterado de outras maneiras (por exemplo, “cheap fakes”).
O Comitê reconhece que a Meta pode estabelecer medidas necessárias e proporcionais para evitar danos no meio físico causados por mídia manipulada, protegendo o direito ao voto e de participação da vida pública. Entretanto, a política vigente não especifica claramente os danos que pretende prevenir. A Meta precisa esclarecer melhor quais são esses danos e fazer análises rapidamente, devido ao número recorde de eleições em 2024.
No momento, a política também traz preocupações de legalidade. Atualmente, a Meta publica essa política em dois lugares: como uma política independente e como parte do Padrão da Comunidade sobre Desinformação. Há diferenças entre o fundamento e o texto operacional exato das duas versões. Essas diferenças precisam ser esclarecidas e, se houver erros, devem ser corrigidas.
Ao mesmo tempo, o Comitê acredita que, na maioria dos casos, a Meta poderia evitar o dano para os usuários causado pelo engano em relação à autenticidade de um conteúdo de áudio ou audiovisual por meios menos restritivos que a remoção do conteúdo. Por exemplo, a empresa poderia anexar rótulos ao conteúdo enganoso para informar os usuários de que foi significativamente adulterado, fornecendo contexto sobre a autenticidade dele. A Meta já usa rótulos como parte do seu programa de verificação de fatos independente, mas, se uma medida como essa fosse introduzida para impor essa política, deveria ser aplicada sem dependência de verificadores de fatos independentes e por toda a plataforma.
A decisão do Comitê de Supervisão
O Comitê de Supervisão manteve a decisão da Meta de deixar ativa a publicação.
O Comitê recomenda que a Meta faça o seguinte:
- Reconsidere o escopo da sua política contra mídia manipulada para incluir conteúdo de áudio e audiovisual, conteúdo mostrando pessoas fazendo algo que não fizeram (bem como dizendo algo que não disseram) e conteúdo independentemente de como foi criado ou alterado.
- Defina claramente, em uma única política unificada contra mídia manipulada, os danos que pretende evitar, além dos usuários sendo enganados. Por exemplo, evitar interferir no direito ao voto e à participação da vida pública.
- Pare de remover mídia manipulada quando nenhuma outra violação da política estiver presente e, em vez disso, aplique um rótulo indicando que o conteúdo foi significativamente adulterado e pode ser enganoso. Esse rótulo deve ser anexado à mídia (por exemplo, na parte inferior de um vídeo), e não inserido na publicação inteira, e deve ser aplicado a todas as instâncias dessa mídia nas plataformas da Meta.
Mais informações
Para ler a decisão na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre o caso, clique aqui.