Anulado
Ilustração retratando policiais colombianos
O Comitê de Supervisão revogou a decisão original da Meta de remover uma publicação no Facebook de uma ilustração que retratava violência policial na Colômbia.
Resumo do caso
O Comitê de Supervisão revogou a decisão original da Meta de remover uma publicação no Facebook de uma ilustração que retratava violência policial na Colômbia. O Comitê está preocupado com o fato de que os bancos de dados do Serviço de Correspondência de Mídias, que têm a capacidade de remover automaticamente imagens que violem as regras da Meta, possam amplificar o impacto de decisões incorretas no conteúdo dos bancos de dados. Como resposta, a Meta deve melhorar urgentemente seus procedimentos para remover, de forma rápida, todo conteúdo desses bancos de dados que não viole as regras.
Sobre o caso
Em setembro de 2020, um usuário do Facebook na Colômbia publicou uma ilustração parecida com o brasão oficial da Polícia Nacional da Colômbia, retratando três pessoas vestindo uniforme policial e segurando um cassetete acima da cabeça. Elas parecem chutar e agredir outra pessoa, que está deitada no chão com a cabeça ensanguentada. O texto do brasão diz, em espanhol: “República de Colombia - Policía Nacional - Bolillo y Pata”. A Meta traduziu o texto como “National Police – Republic of Colombia – Baton and Kick” (“Polícia Nacional – República da Colômbia – Cassetete e Chute”).
Segundo a Meta, em janeiro de 2022, 16 meses após o usuário ter publicado a ilustração, a empresa removeu o conteúdo pelo fato de ele corresponder a uma imagem de um banco de dados do Serviço de Correspondência de Mídias. Esses bancos de dados têm a capacidade de identificar e remover, automaticamente, imagens que tenham sido identificadas por analistas humanos como sendo violadoras das regras da empresa. Como resultado de o Comitê ter selecionado este caso, a Meta determinou que a publicação não violava suas regras e a restaurou. A empresa também restaurou outros itens de conteúdo que incluíam essa ilustração e que haviam sido removidos incorretamente por seus bancos de dados de Correspondência de Mídias.
Principais conclusões
Conforme a Meta reconheceu agora, essa publicação não violou suas políticas. A Meta errou ao adicionar essa ilustração ao banco de dados do seu Serviço de Correspondência de Mídias, o que levou a uma remoção em massa e desproporcional da imagem da plataforma, incluindo o conteúdo publicado pelo usuário neste caso. Apesar de 215 usuários terem feito apelações contra essas remoções, e de 98% dessas apelações terem tido êxito, a Meta ainda assim não havia removido a ilustração do banco de dados em questão até o caso chegar ao Comitê.
Este caso mostra como, ao usar sistemas automatizados para remover conteúdo, os bancos de dados do Serviço de Correspondência de Mídias podem amplificar o impacto de decisões incorretas de analistas humanos individuais. As consequências de adições incorretas a esses bancos de dados são especialmente graves quando, como neste caso, o conteúdo consiste em discurso político que critica agentes estatais.
Como resposta, a Meta deveria desenvolver mecanismos para remover, de forma rápida, todo conteúdo não violador que seja incorretamente adicionado aos bancos de dados do seu Serviço de Correspondência de Mídias. Quando decisões de remover conteúdo incluído nesses bancos de dados são frequentemente anuladas sob apelação, isso deveria desencadear imediatamente análises que possam remover o conteúdo em questão do banco de dados.
O Comitê está particularmente preocupado com o fato de que a Meta não mede a precisão dos bancos de dados do Serviço de Correspondência de Mídias para políticas de conteúdo específicas. Sem esses dados, que são cruciais para melhorar a forma como esses bancos de dados funcionam, a empresa não consegue saber se essa tecnologia funciona com maior eficácia para alguns Padrões da Comunidade do que para outros.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
O Comitê recomenda que a Meta:
- Assegure que os conteúdos com altas taxas de apelações e altas taxas de apelações bem-sucedidas sejam reavaliados para uma possível remoção dos bancos de dados do Serviço de Correspondência de Mídias.
- Limite o tempo entre o momento em que o conteúdo inserido no banco de dados é identificado para análise adicional e o momento em que, se considerado como não violador, ele é removido do banco de dados. Isso asseguraria que os conteúdos não violadores fossem removidos rapidamente dos bancos de dados do Serviço de Correspondência de Mídias.
- Publique as taxas de erro relacionadas a conteúdos incluídos erroneamente nos bancos de dados de conteúdos violadores do Serviço de Correspondência de Mídias, subdivididas por política de conteúdo, em seus relatórios de transparência.
*Os resumos de caso dão uma visão geral da ocorrência e não têm valor precedente.
Decisão completa sobre o caso
1. Resumo da decisão
O Comitê de Supervisão revoga a decisão original da Meta de remover uma publicação no Facebook de uma ilustração que retratava violência policial na Colômbia. O Comitê considera que a ilustração, que não violou nenhum Padrão da Comunidade do Facebook, foi inserida erroneamente em um dos bancos de dados do Serviço de Correspondência de Mídias da Meta, levando à remoção incorreta da publicação. Esses bancos de dados têm a capacidade de identificar e remover, de forma automática, imagens que tenham sido identificadas anteriormente como sendo violadoras das regras da empresa. Depois que o Comitê selecionou o caso, a Meta considerou esse conteúdo como não violador e reconheceu que ele foi removido por engano. O Comitê está preocupado com o fato de que a inclusão errônea de conteúdo não violador nos bancos de dados do Serviço de Correspondência de Mídias resulte em aplicação de políticas desproporcional e incorreta. Além disso, o fato de esse erro não ser evitado nem corrigido multiplica rapidamente o problema ao longo do tempo. Portanto, a Meta deve melhorar urgentemente seus mecanismos de análise para remover desses bancos de dados, de forma rápida, os conteúdos não violadores, monitorar o desempenho desses mecanismos e divulgar publicamente informações como parte dessas iniciativas de transparência.
2. Descrição do caso e histórico
Em setembro de 2020, um usuário do Facebook na Colômbia publicou uma ilustração nos comentários da publicação de outro usuário. A ilustração se parece com o brasão oficial da Polícia Nacional da Colômbia e retrata três pessoas vestindo uniforme policial e segurando um cassetete acima da cabeça. Essas pessoas parecem chutar e agredir outra pessoa, que está deitada no chão com a cabeça ensanguentada. Ao lado da pessoa deitada no chão, há um lápis e um livro. O texto do brasão diz, em espanhol: “República de Colombia - Policía Nacional - Bolillo y Pata”. Os mercados regionais da Meta traduziram o texto como “National Police – Republic of Colombia – Baton and Kick” (“Polícia Nacional – República da Colômbia – Cassetete e Chute”). A publicação foi feita durante um período de amplos protestos no país após um homicídio cometido pela polícia.
De acordo com a Meta, em janeiro de 2022, 16 meses após a publicação original no Facebook, a empresa removeu o conteúdo, uma vez que ele correspondia a uma imagem contida em um banco de dados do Serviço de Correspondência de Mídias de conteúdos que violam o Padrão da Comunidade do Facebook sobre Organizações e Indivíduos Perigosos. O usuário fez uma apelação, e a Meta manteve sua decisão de remover o conteúdo, mas baseou essa decisão no Padrão da Comunidade sobre Violência e Incitação. No momento da remoção, o conteúdo havia sido visualizado três vezes e não havia recebido nenhuma reação nem denúncia de usuários.
Como consequência da seleção deste caso pelo Comitê, a Meta analisou o conteúdo novamente e determinou que ele não violava o Padrão da Comunidade sobre Organizações e Indivíduos Perigosos nem o Padrão da Comunidade sobre Violência e Incitação. Em seguida, o conteúdo foi restaurado na plataforma cerca de um mês depois de ter sido removido.
A Meta também informou o Comitê de que, como a imagem estava em um banco de dados do Serviço de Correspondência de Mídias, outros conteúdos idênticos, inclusive o deste caso, foram removidos da plataforma. 215 dentre essas remoções foram objeto de apelação por usuários, e 210 dessas apelações foram bem-sucedidas, o que significa que os analistas desse conjunto de casos decidiram que o conteúdo não era violador. Todas as demais remoções, bem como todas as eventuais advertências e limites de recursos, também foram revertidos pela Meta após o caso ter sido selecionado pelo Comitê.
3. Escopo e autoridade do Comitê de Supervisão
O Comitê tem autoridade para analisar a decisão da Meta após uma apelação do usuário cujo conteúdo foi removido (Artigo 2, Seção 1 do Estatuto; e Seção 1 do Artigo 3 dos Regulamentos Internos). De acordo com o Artigo 3 da Seção 5 do Estatuto, o Comitê pode manter ou revogar a decisão da Meta, decisão essa que é vinculante para a empresa, segundo o Artigo 4 do Estatuto. A Meta também deve avaliar a viabilidade de aplicar sua decisão no que diz respeito a conteúdo idêntico em contexto paralelo, segundo o Artigo 4 do Estatuto. As decisões do Comitê podem incluir recomendações de política, além de sugestões não vinculantes às quais a Meta deve responder, de acordo com o Artigo 3 e 4 da Seção 4 do Estatuto .
Quando o Comitê seleciona casos como este, em que a Meta subsequentemente reconhece que cometeu um erro, o Comitê analisa a decisão original para aumentar a compreensão do processo de moderação de conteúdo que levou ao erro e para fazer recomendações estruturais a fim de reduzir erros e tratar os usuários de maneira mais justa no futuro.
4. Fontes de autoridade
O Comitê de Supervisão considerou as seguintes fontes de autoridade:
I.Decisões do Comitê de Supervisão:
A decisão mais pertinente do Comitê a respeito deste caso é a decisão sobre “Protestos na Colômbia” (2021-010-FB-UA). Nessa decisão, o Comitê destacou a utilidade pública de permitir conteúdo crítico em relação ao governo durante protestos, principalmente em contextos em que os estados são acusados de violar direitos humanos.
II.Políticas de conteúdo da Meta:
O Padrão da Comunidade do Facebook sobre Organizações e Indivíduos Perigosos afirma que a Meta “remove elogios, apoio substancial e representação de várias organizações perigosas”.
O Padrão da Comunidade do Facebook sobre Violência e Incitação afirma que a Meta “tem como objetivo prevenir potenciais danos no meio físico que possam estar relacionados ao Facebook” e que restringe a expressão “quando [ele] julga que existe um risco verdadeiro de lesão corporal ou ameaças diretas à segurança pública”.
O Padrão da Comunidade do Facebook sobre Conteúdo Violento e Explícito afirma que a Meta “remove conteúdos que glorificam a violência ou celebram o sofrimento ou a humilhação de outras pessoas”.
III.Os valores da Meta:
Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook, em que o valor “Voz” é descrito como “essencial”. A Meta limita a “Voz” em nome de quatro valores, a saber: “Autenticidade”, “Segurança”, “Privacidade” e “Dignidade”. “Segurança” e “Dignidade” são os mais pertinentes neste caso.
IV.Padrões internacionais dos direitos humanos:
Os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos (UNGPs, na sigla em inglês), endossados pelo Conselho de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas. Em 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, em que reafirmou o seu compromisso com relação aos direitos humanos de acordo com os UNGPs.
Neste caso, os Padrões de Direitos Humanos a seguir foram levados em consideração na análise feita pelo Comitê das responsabilidades da Meta em termos de direitos humanos que são aplicados na Seção 8 desta decisão:
- Os direitos à liberdade de opinião e de expressão: Artigo 19 do Pacto Internacional dos Direitos Civis e Políticos (PIDCP), Comentário geral n.º 34, Comitê de Direitos Humanos, 2011.
5. Envios do usuário
Em sua declaração ao Comitê, o usuário expressou confusão sobre o motivo de o conteúdo ter sido removido pela Meta. O usuário explicou que o conteúdo refletia uma realidade na Colômbia que era importante para as pessoas interessadas ou afetadas pela situação.
6. Envios da Meta
A Meta explicou, em sua justificativa, que removeu o conteúdo porque ele correspondia a uma imagem que havia sido erroneamente inserida por um analista humano em um banco de dados do Serviço de Correspondência de Mídias relacionado com Organizações e Indivíduos Perigosos. Por ocasião da apelação, a Meta manteve a remoção, mas decidiu que o conteúdo violava a sua política sobre Violência e Incitação, e não a política sobre Organizações e Indivíduos Perigosos. Mais tarde, a Meta confirmou que ambas as decisões de remover o conteúdo estavam erradas. A empresa declarou que a Política de Conteúdo Violento e Explícito também podia ser pertinente neste caso, já que a ilustração mostra um ataque violento, mas que não se aplica a imagens do tipo desenhos animados.
De acordo com a Meta, os bancos de dados do Serviço de Correspondência de Mídias identificam e agem sobre mídias (neste caso, imagens) publicadas em suas plataformas. Quando um conteúdo é identificado para inserção no banco de dados, ele é convertido em uma sequência de dados, ou “hash”. Em seguida, o hash é associado a um banco de dados específico. Os bancos de dados do Serviço de Correspondência de Mídias da Meta alinham-se com políticas de conteúdo específicas, como Organizações e Indivíduos Perigosos, Discurso de Ódio e Exploração Sexual, Abuso e Nudez Infantis, ou com seções específicas de uma determinada política. Neste caso, a Meta declarou que o conteúdo estava em um banco de dados do Serviço de Correspondência de Mídias específico para organizações criminosas, uma categoria proibida pela Política de Organizações e Indivíduos Perigosos.
Dependendo do uso que a Meta faz do banco de dados específico, ele pode ser programado para executar diferentes ações ao identificar o conteúdo inserido. Por exemplo, a Meta pode excluir um conteúdo que seja violador, adicionar uma tela de aviso ou ignorá-lo, caso tenha sido inserido no banco de dados como conteúdo não violador. Os bancos de dados do Serviço de Correspondência de Mídias também podem fornecer orientação para analistas de conteúdo quando eles analisam um conteúdo inserido no banco de dados.
A Meta também declarou que os bancos de dados do Serviço de Correspondência de Mídias podem agir em diferentes momentos. Por exemplo, a Meta pode examinar imagens no momento do carregamento para impedir a publicação de um conteúdo violador. Os bancos de dados também podem ser configurados para detectar e executar ações somente em conteúdo recém-carregado, ou podem ser usados para examinar conteúdos existentes na plataforma.
O Comitê perguntou à Meta como ela identifica e adiciona conteúdo aos bancos de dados do Serviço de Correspondência de Mídias. A Meta explicou que analistas humanos em escala identificam conteúdos qualificados para inserção nos bancos de dados. De acordo com a Meta, para bancos de dados do Serviço de Correspondência de Mídias associados à política sobre Organizações e Indivíduos Perigosos, os conteúdo é enviado a um processo denominado “Multianálise Dinâmica”, em que “dois analistas devem concordar com uma decisão para que a mídia seja enviada ao banco de dados”. A Meta descreve isso como uma proteção para prevenir erros.
O Comitê também perguntou à Meta que mecanismos ela têm para identificar conteúdos inseridos nos bancos de dados erroneamente. A Meta declarou que tem vários “sistemas de alerta de anomalias”. Eles incluem um sistema que é acionado se um banco de dados contiver conteúdo que a Meta considera como sendo viral. Também está incluído um sistema para identificar conteúdos inseridos nos bancos de dados com alto nível de apelações bem-sucedidas após a remoção. Esses sistemas estavam ativos para o banco de dados em questão quando o conteúdo foi removido.
A Meta declarou que o número de remoções e apelações bem-sucedidas relacionadas ao conteúdo em questão gerou um alerta para a equipe de engenharia da Meta na época em que o conteúdo foi removido. No entanto, um mês depois, quando o Comitê assinalou este caso à Meta, a empresa ainda não havia analisado nem removido o conteúdo do banco de dados do Serviço de Correspondência de Mídias. Não está claro se a equipe de engenharia alertou outras equipes que seriam responsáveis por analisar novamente o conteúdo e determinar se ele era violador. Embora a Meta tenha indicado que um certo atraso é previsto ao analisar relatórios, ela não deu ao Comitê nenhuma indicação de quando abordaria esse alerta. O Comitê está preocupado com a duração desse período. A Meta deveria estar monitorando quanto tempo leva a remoção dos bancos de dados de conteúdos adicionados erroneamente e a reversão de decisões de aplicação errôneas de políticas após o acionamento de alertas, e deveria estabelecer uma meta concreta para minimizar esse tempo.
Por fim, o Comitê perguntou à Meta quais métricas ela usa para auditar o desempenho dos bancos de dados do Serviço de Correspondência de Mídias. A Meta declara que, em geral, ela monitora quando seus bancos de dados tomam mais decisões de aplicação errôneas de políticas e tenta identificar o que pode estar causando esse aumento nos erros. No entanto, atualmente essas avaliações de auditoria geralmente se concentram em bancos de dados individuais. Como esses bancos de dados podem visar linhas de política específicas e ser programados para executar uma variedade de ações diferentes, pode ser difícil gerar dados significativos sobre a precisão global da aplicação de políticas para um determinado padrão da comunidade ou para os bancos de dados do Serviço de Correspondência de Mídias de modo geral a partir dessas análises. A Meta declarou que está trabalhando para criar uma métrica unificada a fim de monitorar a precisão dos bancos de dados do Serviço de Correspondência de Mídias.
O Comitê fez um total de 26 perguntas à Meta. Destas, 24 foram respondidas integralmente e duas foram parcialmente respondidas. As respostas parciais eram sobre a mensuração da precisão e das taxas de erro dos bancos de dados do Serviço de Correspondência de Mídias da empresa e sobre problemas técnicos relacionados às mensagens que a Meta enviou ao usuário. A Meta forneceu também um briefing virtual a um grupo de Membros do Comitê sobre os bancos de dados do Serviço de Correspondência de Mídias.
7. Comentários públicos
O Comitê recebeu quatro comentários públicos relacionados a este caso. Dois dos comentários foram enviados dos Estados Unidos e do Canadá, e dois da América Latina e do Caribe. Os envios cobriam o uso da tecnologia de correspondência de mídias na moderação de conteúdo, o contexto social e político da Colômbia, a importância das redes sociais no registro da violência policial ao lidar com protestos, e como as políticas de conteúdo de Meta deveriam proteger a liberdade de expressão.
Para ler os comentários públicos enviados sobre este caso, clique aqui.
8. Análise do Comitê de Supervisão
O Comitê selecionou este caso porque ele envolve expressão artística sobre violência policial no contexto de protestos, um problema premente em toda a América Latina. O caso também constituía uma oportunidade para o Comitê analisar o uso que a Meta faz da tecnologia do Serviço de Correspondência de Mídias na moderação de conteúdo. O Comitê avaliou se esse conteúdo deve ser restaurado com base em três óticas: as políticas de conteúdo da Meta, os valores da empresa e suas responsabilidades sobre os direitos humanos.
8.1 Conformidade com as políticas de conteúdo da Meta
I.Regras sobre conteúdo
O Comitê considera que as ações da Meta não eram compatíveis com as políticas de conteúdo do Facebook. Como a própria Meta reconheceu, o conteúdo não violava nenhuma política da Meta. A decisão de adicioná-lo a um banco de dados do Serviço de Correspondência de Mídias e a não anulação da remoção automatizada após a apelação foram erradas.
II.Ação de monitoramento
A Meta só restaurou o conteúdo, juntamente com outros itens de conteúdo também removidos devido à inserção incorreta nos bancos de dados do Serviço de Correspondência de Mídias, depois que o Comitê selecionou o caso. Em resposta a uma pergunta do Comitê, a Meta declarou possuir mecanismos de feedback para identificar erros e parar de agir sobre conteúdos adicionados erroneamente aos bancos de dados. Apesar disso, 215 usuários fizeram apelações contra as remoções, das quais 98% foram bem-sucedidas, e nenhum mecanismo de feedback causou a remoção de conteúdos dos bancos de dados do Serviço de Correspondência de Mídias antes de o caso chegar ao Comitê.
8.2 Conformidade com os valores da Meta
O Comitê considera que a decisão original de remover o conteúdo em questão era incompatível com o valor de “Voz” da Meta e que a sua remoção não era respaldada por nenhum outro valor da Meta.
8.3 Conformidade com as responsabilidades sobre direitos humanos da Meta
O Comitê conclui que a decisão inicial da Meta de remover o conteúdo não estava de acordo com suas responsabilidades de direitos humanos como empresa. A Meta se comprometeu a respeitar os direitos humanos de acordo com os Princípios Orientadores da ONU (UNGPs) sobre Empresas e Direitos Humanos. A Política Corporativa de Direitos Humanos do Facebook afirma que também inclui o Pacto Internacional dos Direitos Civis e Políticos (PIDCP).
Liberdade de expressão (Artigo 19 do PIDCP)
O artigo 19 do PIDCP prevê ampla proteção da expressão, e a expressão sobre preocupações sociais e políticas recebe uma proteção maior (Comentário Geral 34, parágrafos 11 e 20). O artigo 19 exige que, quando um estado aplica restrições à expressão, elas devem atender aos requisitos de legalidade, objetivo legítimo e necessidade e proporcionalidade (artigo 19, parágrafo 3, PIDCP). O Comitê usa esse quadro para guiar a sua análise da moderação de conteúdo da Meta.
I.Legalidade (clareza e acessibilidade das regras)
O requisito de legalidade determina que qualquer restrição à liberdade de expressão deve ser acessível e clara o suficiente para entender o que é ou não permitido. Neste caso, a remoção incorreta do conteúdo não era atribuível à falta de clareza ou acessibilidade das políticas pertinentes.
II.Objetivo legítimo
Qualquer restrição na expressão deve perseguir um dos objetivos legítimos listados no PIDCP, que incluem os “direitos dos outros”. De acordo com a Meta, as políticas sobre Organizações e Indivíduos Perigosos e sobre Violência e Incitação têm o objetivo de prevenir a violência no meio físico. O Comitê constatou, de forma consistente, que esses objetivos estão em conformidade com as responsabilidades da Meta em relação aos direitos humanos.
III.Necessidade e proporcionalidade
O princípio da necessidade e da proporcionalidade requer que qualquer restrição à liberdade de expressão “sejam apropriadas para cumprir sua função protetora; sejam o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; e sejam proporcionais ao interesse a ser protegido” ( Comentário geral n.º 34, parágrafo 34).
Neste caso, a remoção do conteúdo do usuário não era necessária, pois não atendia a nenhum objetivo legítimo. Além disso, o design dos bancos de dados do Serviço de Correspondência de Mídias da Meta permitia que os analistas adicionassem, erroneamente, conteúdos a um banco de dados que causava a remoção automática de conteúdos idênticos, apesar de não serem violadores. O Comitê considera que isso foi extremamente desproporcional, com base no número significativo de remoções neste caso, mesmo levando-se em consideração a escala de operação da Meta. Apesar da realização de um longo processo de validação de dados para verificar o número de remoções de conteúdo, a Meta impediu o Comitê de revelar esse número, citando uma preocupação de que o número não refletisse de forma precisa a qualidade dos sistemas do Serviço de Correspondência de Mídias da Meta.
O Comitê considera particularmente preocupante a remoção do conteúdo neste caso, já que o conteúdo não violava nenhuma política da Meta, mas continha uma crítica de violações de direitos humanos, que constitui discurso protegido. A violência policial é um problema de utilidade pública importante e premente. O Comitê também observou, anteriormente, a importância das redes sociais para o compartilhamento de informações sobre protestos na Colômbia no caso 2021-010-FB-UA.
O Comitê considera essencial que haja controles adequados da adição, auditoria e remoção de conteúdo nesses bancos de dados, bem como oportunidades de fazer apelações. Esses bancos de dados aumentam consideravelmente a escala de algumas decisões de aplicação de políticas, o que resulta em erros com consequências desproporcionais. Com relação à adição de conteúdo, dado que as consequências da remoção podem ser amplificadas em uma escala desproporcional quando a remoção é automatizada, é necessário que a Meta reforce os procedimentos para assegurar que não sejam adicionados conteúdos não violadores. As consequências das adições errôneas aos bancos de dados do Serviço de Correspondência de Mídias são especialmente graves quando, como neste caso, o conteúdo consiste em um discurso político crítico com relação a agentes ou ações estatais. Os bancos de dados do Serviço de Correspondência de Mídias automatizam e amplificam os impactos de decisões incorretas individuais, e é importante que a Meta considere de forma continua quais são as medidas de mitigação de erros que ajudam melhor os analistas humanos, incluindo, por exemplo, mais pessoal, mais formação e mais tempo para análise de conteúdos.
Com relação a auditorias e feedback, o uso de bancos de dados do Serviço de Correspondência de Mídias para remover conteúdo com mecanismos de feedback limitados ou com falhas suscita preocupações de aplicação de políticas de forma desproporcional e errônea, em que um erro é amplificado para uma escala muito maior. Apesar de a Meta ter informado o Comitê de que ela tem mecanismos de feedback para identificar erros e parar de agir sobre conteúdos adicionados erroneamente aos bancos de dados, 215 usuários fizeram apelações com uma taxa de sucesso de 98%, e o conteúdo continuou listado nos bancos de dados. A Meta deveria assegurar que os conteúdos submetidos a ações devido à sua inclusão em um banco de dados do Serviço de Correspondência de Mídias com altas taxas de anulação acionem, imediatamente, análises com potencial de remover o conteúdo em questão do banco de dados.
O Comitê está particularmente preocupado com a falta de métricas de desempenho da precisão dos bancos de dados do Serviço de Correspondência de Mídias para políticas de conteúdo específicas. Sem métricas objetivas para monitorar a precisão dos bancos de dados do Serviço de Correspondência de Mídias, não há governança eficaz sobre como essa tecnologia pode ser mais ou menos eficaz para determinadas políticas de conteúdo. Também não há referências concretas para melhorias.
Embora o Comitê note que a Meta está no processo de criar uma métrica unificada para monitorar a precisão dos bancos de dados do Serviço de Correspondência de Mídias, ele incentiva a empresa a concluir esse processo o quanto antes. Para permitir o estabelecimento de métricas para melhorias, a Meta deveria publicar informações sobre a precisão para cada política de conteúdo em que ela usa a tecnologia do Serviço de Correspondência de Mídias.
Isso deveria incluir dados sobre taxas de erro a respeito de conteúdos não violadores adicionados por engano aos bancos de dados do Serviço de Correspondência de Mídias para conteúdos violadores. Deveria incluir também o volume de conteúdo impactado pela inclusão errônea nos bancos de dados e exemplos dos erros principais. Esses dados permitiriam à Meta compreender os impactos mais amplos dos erros de inclusão nos bancos de dados e estabelecer objetivos para reduzi-los. Além disso, eles permitiriam que os usuários compreendessem e reagissem melhor aos erros de aplicação automatizada de políticas.
9. Decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão original da Meta de remover o conteúdo.
10. Declaração de parecer consultivo
Monitoramento
1. Para melhorar a capacidade da Meta de remover conteúdos não violadores de bancos de dados programados para identificar ou remover automaticamente conteúdos violadores, a Meta deveria assegurar que os conteúdos com altas taxas de apelações e altas taxas de apelações bem-sucedidas sejam reavaliados para uma possível remoção dos bancos de dados do Serviço de Correspondência de Mídias. O Comitê considerará que essa recomendação foi implementada quando a Meta: (i) revelar ao Comitê as taxas de apelações e de apelações bem-sucedidas que acionam uma análise de conteúdos inseridos nos bancos de dados do Serviço de Correspondência de Mídias, e (ii) confirmar publicamente que esses mecanismos de reavaliação estejam ativos para todos os seus bancos de dados que visem conteúdos violadores.
2. Para assegurar que os conteúdos inseridos erroneamente nos bancos de dados sejam removidos, de forma rápida, dos bancos de dados do Serviço de Correspondência de Mídias da Meta, a Meta deveria estabelecer e cumprir padrões que limitem o tempo entre o momento em que o conteúdo é identificado para reanálise e o momento em que, se considerado não violador, é removido do banco de dados. O Comitê considerará que essa recomendação foi implementada quando a Meta: (i) estabelecer e revelar ao Comitê a sua meta de tempo entre o momento em que uma reanálise é acionada e o momento em que o conteúdo não violador é restaurado e (ii) fornecer ao Comitê dados comprobatórios do seu progresso para alcançar essa meta durante o ano seguinte.
Transparência
3. Para permitir o estabelecimento de métricas para melhorias, a Meta deveria publicar as taxas de erro relacionadas com conteúdos incluídos erroneamente nos bancos de dados de conteúdos violadores do Serviço de Correspondência de Mídias, subdivididas por cada política de conteúdo, em seus relatórios de transparência. Esses relatórios deveriam incluir informações sobre como o conteúdo é inserido nos bancos de dados e as iniciativas da empresa para reduzir erros no processo. O Comitê considerará que essa recomendação foi implementada quando a Meta incluir essas informações em seu Relatório de Aplicação de Padrões da Comunidade.
*Nota processual:
As decisões do Comitê de Supervisão são preparadas por grupos com cinco membros e aprovadas pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.
Para a decisão sobre o caso em apreço, uma pesquisa independente foi contratada em nome do Comitê. O Comitê foi auxiliado por um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de seis continentes, bem como mais de 3.200 especialistas de países do mundo todo. O Comitê também foi auxiliado pela Duco Advisors, uma empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia. A empresa Lionbridge Technologies, LLC, cujos especialistas são fluentes em mais de 350 idiomas e trabalham de 5.000 cidades pelo mundo, forneceu a consultoria linguística.
Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas