Publicados

Remoção de desinformação sobre a COVID-19

Este parecer consultivo sobre política analisa se a Meta deve continuar removendo certas categorias de desinformação sobre a COVID-19 ou se uma abordagem menos restritiva se alinharia melhor aos valores e às responsabilidades da empresa com os direitos humanos.

Plataforma

Plataforma
Facebook

I. Resumo executivo

Em julho de 2022, o Comitê de Supervisão aceitou uma solicitação da Meta para avaliar se ela deveria continuar removendo certas categorias de desinformação sobre a COVID-19 ou se uma abordagem menos restritiva se alinharia melhor aos valores e às responsabilidades da empresa para com os direitos humanos. Este parecer consultivo sobre política é a resposta do Comitê à solicitação.

O Comitê realizou uma investigação e uma consulta pública abrangentes. Dada a insistência da Meta em uma abordagem única e global para lidar com a desinformação sobre a COVID-19, o Comitê conclui que a empresa deve manter sua política atual, desde que a Organização Mundial de Saúde (OMS) siga declarando a doença uma emergência de saúde pública internacional. Isso significa que a empresa deve continuar removendo desinformação sobre a COVID-19 que pode contribuir diretamente para o risco de lesões corporais iminentes e significativas. No entanto, o Comitê também conclui que a Meta deve começar um processo para reavaliar cada uma das 80 alegações que a empresa remove, consultando um conjunto maior de partes interessadas. Além disso, quando a declaração da OMS for retirada, é necessário que ela prepare medidas para proteger a liberdade de expressão e outros direitos humanos nessas novas circunstâncias. O Comitê recomenda fortemente que a Meta publique informações sobre solicitações governamentais para remover conteúdo sobre a COVID-19, apoie pesquisas independentes nas plataformas dela, examine o vínculo entre a arquitetura dessas plataformas e a desinformação e promova o entendimento sobre desinformação a respeito da COVID-19 em todo o mundo.

Histórico

No início de 2020, quando foi declarada a pandemia de COVID-19, a Meta começou a remover do Facebook e do Instagram várias alegações que a empresa considerava como desinformação sobre a COVID-19. A lista de alegações relacionadas à COVID-19 que a empresa remove aumentou ao longo da pandemia. Hoje, a Meta remove cerca de 80 alegações distintas de desinformação sobre a COVID-19 de acordo com o item “Desinformação sobre saúde pública durante emergências de saúde pública”, uma subseção da política dos Padrões da Comunidade sobre desinformação que foi criada em resposta às recomendações do Comitê na decisão sobre o caso “Alegação sobre cura da COVID”. O parecer consultivo de hoje se concentra exclusivamente nas ações da Meta durante a pandemia da COVID-19 de acordo com a subseção “Desinformação sobre saúde pública durante emergências de saúde pública”. Ele não aborda as ações que a empresa tomou durante a pandemia de COVID-19 de acordo com outras políticas.

De acordo com a subseção “Desinformação sobre saúde pública durante emergências de saúde pública”, a Meta remove a “desinformação durante emergências de saúde pública quando as autoridades de saúde pública concluem que as informações são falsas e podem contribuir diretamente para o risco de lesões corporais iminentes”. A Meta recorreu exclusivamente a autoridades de saúde pública para determinar se o padrão tinha sido cumprido. Entre as 80 alegações atualmente removidas, estão, por exemplo, negar a existência da COVID-19 e declarar que as vacinas contra a doença causam magnetismo. A Meta removeu do Facebook e do Instagram 27 milhões de desinformações sobre a COVID-19 entre março de 2020 e julho de 2022. Delas, 1,3 milhão foram restauradas graças a apelações. Qualquer desinformação sobre a COVID-19 que não atenda aos critérios para remoção pode ser verificada, rotulada ou rebaixada. Os verificadores de fatos classificam o conteúdo, como “falso” ou “sem contexto”. Depois, a Meta o rotula como tal e oferece um link para um artigo do verificador de fatos sobre o assunto. A empresa também rebaixa conteúdo que os verificadores de fatos tenham rotulado, o que significa que ele aparece com menos frequência e destaque no feed dos usuários, dependendo de vários fatores. A Meta também aplica os “rótulos neutros” a conteúdo relacionado à COVID-19. Esses rótulos têm declarações como “Tratamentos para a COVID-19 sem comprovação científica podem ser prejudiciais à saúde” e direcionam as pessoas à central de informações da Meta sobre a COVID-19, que oferece informações sobre medidas de prevenção, vacinas e recursos de autoridades públicas de saúde.

Na solicitação ao Comitê, a Meta perguntou se deve continuar removendo certas desinformações sobre a COVID-19. Como alternativa, a empresa disse que poderia interromper a remoção e passar a rebaixá-las, enviá-las para verificadores de fatos independentes ou rotulá-las. A Meta insiste em adotar uma abordagem única e global para lidar com a desinformação sobre a COVID-19 em vez de variá-la por país ou região. De acordo com a empresa, se ela adotasse uma abordagem regionalizada em grande escala para aplicar a política, isso geraria falta de clareza para os usuários e dificultaria a aplicação da política, pois a Meta não tem a capacidade de adotar uma abordagem desse tipo. Para considerar a solicitação, o Comitê realizou consultas públicas abrangentes. Elas incluíram uma série de mesas-redondas com participantes de todo o mundo, em parceria com a sociedade civil, onde o Comitê ouviu uma variedade de especialistas e partes interessadas.

Principais conclusões e recomendações

O Comitê conclui que continuar removendo desinformação sobre a COVID-19 que “pode contribuir diretamente para o risco de lesões corporais iminentes” durante uma emergência de saúde pública global está de acordo com os valores e as responsabilidades da Meta para com os direitos humanos. Inicialmente, o Comitê debateu se seria melhor a empresa adotar uma abordagem regionalizada e em grande escala para lidar com a desinformação sobre a COVID-19. No entanto, a Meta insistiu que isso não poderia ser feito sem prejudicar a clareza e a equidade para os usuários e aumentar significativamente os erros de aplicação da política. As preocupações da Meta têm cabimento. No entanto, ao excluir essa opção, a Meta frustrou as inciativas do Comitê de reconciliar pontos de vista opostos de partes interessadas e membros do Comitê sobre a melhor forma de abordar desinformação sobre a COVID-19 e, ao mesmo tempo, respeitar os direitos humanos, especialmente o de liberdade de expressão. As 18 recomendações do nosso parecer consultivo funcionam dentro desse contexto. A maioria delas está resumida abaixo.

O Comitê recomenda que a Meta:

Continue removendo conteúdo falso sobre a COVID-19 que “pode contribuir diretamente para o risco de lesões corporais iminentes durante a emergência de saúde pública internacional” e comece uma análise e uma reavaliação transparente e inclusiva das 80 alegações que a empresa remove atualmente. Uma emergência de saúde pública representa um perigo direto e sério à saúde. Dada a insistência da Meta em uma abordagem única e global para lidar com a desinformação sobre a COVID-19, o Comitê conclui que a Meta tem razão em responder com medidas excepcionais para remover informação falsa que pode contribuir diretamente para o risco de lesões corporais iminentes, conforme determinação de autoridades de saúde pública. A Meta não retornou às autoridades de saúde pública relevantes para, entre outras coisas, pedir a reavaliação das alegações que são removidas. Ela também não realizou consultas abrangentes com partes interessadas e especialistas para reavaliar as alegações individuais ou a política como um todo. Como a Meta ainda não iniciou um processo de auditoria para mudar sua política (que é responsabilidade da empresa em primeira instância), o Comitê não está em condições de recomendar uma mudança de política que poderia afetar desproporcionalmente os mais vulneráveis.

No entanto, agora que não estamos mais nos estágios iniciais da crise, a Meta, para continuar a cumprir suas responsabilidades com os direitos humanos, deve avaliar se o limiar para remoção, conforme estabelecido nas políticas da empresa, continua sendo cumprido. Ela deve, portanto, começar um processo transparente para analisar com frequência as 80 alegações sujeitas à remoção, consultando uma vasta gama de partes interessadas. Só é justificável incluir alegações na lista de remoção quando as partes interessadas providenciam provas claras das lesões corporais iminentes que essas alegações podem causar. A Meta deve compartilhar os resultados dessas análises periódicas com o público.

Explorar a regionalização da abordagem. A Meta precisará planejar o que fazer quando a OMS não classificar mais a COVID-19 como uma emergência de saúde mundial e as autoridades de saúde locais continuarem a designá-la como uma emergência de saúde pública. O Comitê recomenda iniciar um processo de avaliação de risco para identificar as medidas que vão ser tomadas nesse caso. Elas devem abordar a desinformação que pode contribuir diretamente para danos reais iminentes e significativos sem comprometer a liberdade de expressão globalmente. Na avaliação de risco, é necessário examinar a viabilidade de regionalizar a aplicação das políticas da empresa.

Analisar o impacto da arquitetura das plataformas. Os especialistas demonstraram preocupações de que a arquitetura das plataformas da Meta amplia desinformações prejudiciais sobre saúde. Dadas essas alegações, o Comitê recomenda que a Meta avalie o impacto das suas escolhas de design nos direitos humanos. A empresa deve encomendar uma avaliação de impacto nos direitos humanos sobre como o feed de notícias, os algoritmos de recomendação e outros recursos ampliam desinformações prejudiciais sobre saúde e quais são os impactos disso.

Aumentar a transparência das solicitações governamentais. No auge da pandemia, surgiram preocupações de que a Meta estivesse analisando conteúdo relacionado à COVID-19 por ordens governamentais. Isso é particularmente problemático quando governos realizam solicitações para reprimir protestos pacíficos ou defensores dos direitos humanos, para controlar conversas sobre a origem da pandemia e para silenciar quem critica ou questiona respostas governamentais à crise de saúde pública. As Nações Unidas expressaram preocupações de que alguns governos tenham usado a pandemia como pretexto para deteriorar as bases da democracia. A Meta deve ser transparente e informar com frequência as solicitações de agentes estatais para analisar conteúdo de acordo com a subseção “Desinformação sobre saúde pública durante emergências de saúde pública”.

Apoiar pesquisa independente e promover o entendimento sobre a desinformação a respeito da COVID-19. O Comitê ouviu de especialistas que a falta de acesso aos dados e às pesquisas da empresa frustram iniciativas mais amplas para promover o entendimento sobre a desinformação a respeito da COVID-19, assim como a eficácia da resposta da Meta a esse tipo de informação. A falta de dados também criou desafios para o Comitê durante a avaliação dos méritos do nosso parecer consultivo. O Comitê reconhece que, em comparação com outras empresas de redes sociais, a Meta realizou ações importantes para compartilhar dados com pesquisadores externos. Muitos deles informaram o Comitê sobre a importância de ferramentas que a empresa oferece, como o CrowdTangle e o Facebook Open Research and Transparency (FORT). Ao mesmo tempo, os pesquisadores também reclamaram da dificuldade de acessar ferramentas como o FORT. A Meta deve continuar disponibilizando essas ferramentas, melhorar a acessibilidade delas e permitir que pesquisadores externos acessem dados que não são públicos. O Comitê também recomenda que a empresa realize pesquisas, publique dados sobre as iniciativas para aplicar as políticas a respeito da COVID-19 e divulgue os resultados da pesquisa de “rótulos neutros” compartilhados com o Comitê. Por fim, ele também recomenda que a Meta tome medidas para expandir o acesso aos dados da empresa para pesquisadores e universidades do Sul Global e apoiar programas de alfabetização digital pelo mundo.

Aumentar a equidade, a clareza e a consistência da remoção de desinformação sobre a COVID-19. Para a Meta cumprir suas responsabilidades com os direitos humanos, ela também deve tornar suas regras claras para os usuários. Para fazer isso, a empresa deve explicar como cada categoria das alegações sobre a COVID-19 que remove contribui diretamente para o risco de lesões corporais iminentes. Ela também deve explicar o motivo por que considera que uma alegação é falsa e criar um registro das mudanças feitas na lista de alegações que são removidas. Para possibilitar a aplicação consistente das regras em diversos idiomas e regiões, a empresa deve traduzir as orientações internas que os moderadores de conteúdo usam para os idiomas onde a Meta opera. Ela também deve proteger o direito a recurso dos usuários aumentando a capacidade de eles fazerem apelações dos rótulos de verificadores de fatos e garantir que os mesmos verificadores de fatos que tomaram a decisão inicial não avaliem essas apelações.

II. Solicitação da Meta

1. Esta solicitação de parecer consultivo sobre política diz respeito à política da Meta relativa à desinformação sobre a COVID-19, conforme descrito na política da empresa de Desinformação sobre saúde pública durante emergências de saúde pública. Essa política também faz parte do Padrão da Comunidade sobre Desinformação. A Meta solicitou ao Comitê este parecer consultivo sobre política em julho de 2022, perguntando ao Comitê se deveria continuar removendo determinados conteúdos relacionados à COVID-19 conforme a referida política ou se uma abordagem menos restritiva se alinharia melhor com os valores e as responsabilidades da empresa para com os direitos humanos.

2. A Meta explicou na solicitação que, conforme a política de Desinformação sobre saúde pública durante emergências de saúde pública, remove desinformação quando ela “pode contribuir diretamente para o risco de lesões corporais iminentes” durante uma emergência de saúde pública. Explicamos essa política com mais detalhes na Seção III abaixo. Para determinar se a desinformação se enquadra nesse padrão, a empresa faz parceria com autoridades de saúde pública com conhecimento e experiência para avaliar a falsidade de alegações específicas e se estas podem contribuir diretamente para o risco de lesões corporais iminentes. Essa avaliação é feita no nível global. A Meta deixou claro para o Comitê que uma abordagem em escala e regionalizada para aplicar a política não poderia ser feita sem prejudicar a clareza e a equidade para os usuários e aumentar significativamente os erros de aplicação da política. Para a desinformação que não se encaixa em todos os requisitos do padrão, a Meta usa outras medidas, como o rebaixamento, a rotulagem ou a verificação de fatos.

3. Ao desenvolver sua abordagem à desinformação sobre a COVID-19 de janeiro de 2020 a fevereiro de 2021 (leia a Seção III abaixo), a Meta consultou mais de 180 especialistas de diferentes disciplinas, incluindo especialistas em saúde pública e infectologia, especialistas em segurança nacional e segurança pública, pesquisadores de desinformação, verificadores de fatos, bem como especialistas em liberdade de expressão e direitos digitais. A empresa também consultou as partes interessadas regionais. A Meta constatou que os especialistas de diferentes disciplinas e as partes interessadas de diferentes regiões do mundo têm recomendações e perspectivas diferentes e às vezes conflitantes, conforme explicado mais adiante. A empresa declarou que, ao adotar a política atual, determinou que os riscos associados a certas desinformações eram significativos o suficiente para tornar a remoção necessária, dada a emergência de saúde pública global causada pela pandemia da COVID-19. Na solicitação ao Comitê, a Meta explicou que a situação da COVID-19 mudou desde que a empresa decidiu remover certas desinformações sobre a COVID-19 há mais de dois anos. Essas mudanças levaram a empresa a considerar se a remoção de tais desinformações ainda é necessária. A Meta destacou três mudanças para consideração do Comitê.

4. Em primeiro lugar, segundo a Meta, há uma mudança no ecossistema de informações sobre a COVID-19. No início da pandemia, a falta de orientações oficiais criou um vácuo de informações que incentivou a disseminação da desinformação. Hoje, destaca a empresa, muita coisa mudou. As pessoas têm acesso a informações confiáveis sobre o vírus e às autoridades de saúde pública que podem informar e influenciar o comportamento das pessoas em risco.

5. Em segundo lugar, a Meta observou que, devido às vacinas e à evolução das variantes da doença, a COVID-19 é menos letal do que no início de 2020. Com o desenvolvimento e a distribuição de vacinas eficazes, agora há um meio de prevenção e de redução da gravidade dos sintomas da COVID-19. Além disso, de acordo com especialistas em saúde pública, as variantes atuais causam doenças menos graves do que as variantes anteriores, e os tratamentos terapêuticos estão em rápida evolução.

6. Em terceiro lugar, a Meta afirmou que as autoridades de saúde pública estão avaliando ativamente se a COVID-19 evoluiu para um estado menos grave e “algumas autoridades de saúde pública vêm notando que certas regiões do mundo começaram a transição para um estado menos grave da pandemia.” (Solicitação de parecer consultivo sobre política da Meta, página 14) A Meta citou afirmações feitas pelo Dr. Anthony Fauci nos Estados Unidos, pela Comissão Europeia e pelo Ministro da Saúde Pública da Tailândia, para basear a afirmação acima.

7. No entanto, a Meta reconheceu que a pandemia se desenvolveu de forma diferente em todo o mundo. Na solicitação ao Comitê, a empresa escreveu:

Embora as vacinas, o tratamento médico e as orientações oficiais estejam cada vez mais disponíveis em países de alta renda, especialistas preveem que o acesso será menor para pessoas em países de baixa renda com sistemas de saúde menos desenvolvidos. A variação mais significativa no momento está entre as nações desenvolvidas, (…) e as menos desenvolvidas. (…) 80% das pessoas em países de alta renda receberam pelo menos uma dose da vacina, em oposição a somente 13% das pessoas nos países de baixa renda. Nos países de baixa renda, também é maior a probabilidade de os sistemas de saúde terem menos capacidade, de as economias serem menos robustas e de haver menor confiança nas orientações do governo. Tudo isso aumenta as dificuldades de vacinação e tratamento de quem contrair a COVID-19.

(Solicitação de parecer consultivo sobre política da Meta, página 3)

Perguntas da Meta ao Comitê

8. Em vista do exposto acima, a Meta apresentou as seguintes opções de política ao Comitê para consideração. A Seção III abaixo fornece mais detalhes sobre essas medidas:

  • Continuidade da remoção de certas desinformações sobre a COVID-19: essa opção indica que a Meta continuaria com a abordagem atual de remover conteúdo falso “que pode contribuir diretamente para o risco de lesões corporais iminentes durante uma emergência de saúde pública”. A Meta afirma que, com essa opção, a empresa acabaria deixando de remover desinformações quando elas não representassem mais um risco de lesões corporais iminentes e solicita a orientação do Comitê sobre como deve determinar isso.
  • Medidas temporárias de redução emergenciais: de acordo com essa opção, a Meta deixaria de remover desinformações sobre a COVID-19 e reduziria a sua distribuição. Esta seria uma medida temporária, e a empresa solicita orientação do Comitê sobre quando deixar de usá-la, caso seja adotada.
  • Verificação de fatos independente: nessa opção, o conteúdo atualmente sujeito à remoção seria enviado a verificadores de fatos independentes para avaliação. Na solicitação ao Comitê, a Meta destaca que “o número de verificadores de fatos disponíveis para avaliar o conteúdo sempre será limitado. Se a Meta implementasse essa opção, os verificadores de fatos não conseguiriam analisar todos os conteúdos sobre a COVID-19 em nossas plataformas, e alguns deles não seriam avaliados quanto à precisão, ao rebaixamento e ao rótulo”. (Solicitação de parecer consultivo sobre política da Meta, página 16)
  • Rótulos: nessa opção, a Meta adicionaria rótulos ao conteúdo que não impediriam os usuários de visualizá-lo, mas forneceriam links diretos para informações oficiais. A Meta considera essa medida temporária e solicita orientação do Comitê sobre os fatores a considerar caso decida parar de usar esses rótulos.

9. A Meta afirmou que cada uma dessas opções tem vantagens e desvantagens, principalmente em termos de escalabilidade, precisão e quantidade de conteúdo afetado. A empresa insistiu com veemência que a política deveria ser pertinente a todas as regiões, bem como consistente e viável globalmente. Em relação a políticas específicas a cada país, a Meta afirmou que: “por motivos técnicos, recomendamos fortemente a manutenção de políticas globais em relação à COVID-19, em oposição a políticas específicas a países ou regiões.” Na solicitação ao Comitê, a Meta disse: “a aplicação de políticas no nível do país pode levar a uma aplicação exagerada das regras quando um conjunto de analistas de mercado cobre vários países, bem como à aplicação insuficiente, porque o conteúdo pode se espalhar por diversos países e regiões.” (Solicitação de parecer consultivo sobre política da Meta, página 17, nota de rodapé 37.) (Para mais informações sobre aplicação em escala e regionalizada, consulte o parágrafo 61 abaixo.)

III. Política da Meta de Desinformação sobre saúde pública durante emergências de saúde pública

10. Impelida pela pandemia da COVID-19 e por uma onda de desinformação nas plataformas, a Meta começou a remover desinformações sobre a COVID-19 em janeiro de 2020. A política e os tipos de alegações sujeitas à remoção evoluíram nos dois anos seguintes e culminaram na seção atual de Desinformação sobre saúde pública durante emergências de saúde pública do Padrão da Comunidade sobre Desinformação e na página da Central de Ajuda que o acompanha.

11. O Padrão da Comunidade sobre Desinformação começa com um fundamento de política que explica a abordagem da Meta à desinformação, incluindo o uso de remoções, verificações de fatos, rebaixamento e rotulagem como medidas de aplicação de regras. Segundo a empresa, ela só remove uma desinformação quando “ela pode contribuir diretamente para o risco de lesões corporais iminentes.” A política identifica quatro tipos de desinformação sujeitos à remoção: (1) lesões corporais ou violência; (2) desinformações prejudiciais sobre saúde; (3) interferência nos eleitores ou no censo; e (4) mídia manipulada [!].

12. A seção Desinformações prejudiciais sobre saúde do Padrão da Comunidade sobre Desinformação tem três subcategorias: (i) desinformação sobre vacinas; (ii) desinformação sobre saúde durante emergências de saúde pública; e (iii) promoção ou defesa de curas milagrosas prejudiciais para problemas de saúde (ênfase adicionada). Há outros padrões da comunidade que possivelmente se aplicam a alegações sobre a COVID-19, entretanto, este parecer consultivo se concentra exclusivamente na seção Desinformação sobre saúde pública durante emergências de saúde pública da Política sobre Desinformação, pois se aplica à pandemia de COVID-19. Este parecer não aborda outras políticas.

Remoção de alegações relativas à desinformação sobre a COVID-19

13. A política de Desinformação sobre saúde pública durante emergências de saúde públicaafirma o seguinte:

Removemos desinformação durante emergências de saúde pública quando as autoridades de saúde pública concluem que as informações são falsas e podem contribuir diretamente para o risco de lesões corporais iminentes, inclusive para o risco de pessoas contraírem ou espalharem uma doença prejudicial ou recusarem uma vacina associada a ela. Identificamos emergências de saúde pública em parceria com autoridades de saúde globais e locais. No momento, isso inclui alegações falsas relacionadas à COVID-19 que são verificadas por autoridades especialistas em saúde, sobre a existência ou a gravidade de um vírus, como curar ou preveni-lo, como o vírus é transmitido ou quem é imune a ele e alegações falsas que desencorajam boas práticas de saúde relacionadas a COVID-19 (como a realização de testes, distanciamento social, uso de máscara e vacinação contra a COVID-19). Clique aqui para ler o conjunto completo de regras sobre quais tipos de desinformação sobre COVID-19 e vacinas não são permitidos.

14. Nos termos dessa política, a Meta remove desinformação quando três elementos são atendidos: (1) se houver uma emergência de saúde pública; 2) a alegação é falsa; e 3) a alegação pode contribuir diretamente para o risco de lesões corporais iminentes. Aplicando esse padrão à pandemia da COVID-19, a Meta se baseou nas conclusões das autoridades de saúde pública para identificar cerca de 80 alegações sujeitas à remoção. Essas alegações, que são atualizadas periodicamente, e perguntas comuns sobre como a política é aplicada, estão disponíveis na seguinte página da Central de Ajuda.

15. Conforme declarado na política, essas 80 alegações foram classificadas nas cinco categorias a seguir: (1) alegações sobre a existência ou a gravidade da COVID-19, incluindo alegações que negam a existência da doença ou diminui sua gravidade. Por exemplo, alegações de que ninguém morreu de COVID-19; (2) transmissão da COVID-19 e imunidade a ela, que inclui alegações de que a COVID-19 é transmitida por tecnologias 5G; (3) curas ou métodos de prevenção garantidos para a COVID-19, como os que afirmam que cremes tópicos podem curar ou prevenir a contaminação pelo coronavírus; (4) desincentivo das boas práticas de saúde, por exemplo, alegações de que as máscaras faciais contêm nanovermes prejudiciais ou que as vacinas contra a COVID-19 alteram o DNA das pessoas ou causam magnetismo; (5) acesso a serviços de saúde essenciais, o que inclui alegações de que os hospitais matam pacientes para ganhar mais dinheiro ou para vender os órgãos das pessoas.

16. Na solicitação, a Meta explicou que se baseia no seguinte para avaliar se existe uma emergência de saúde pública: (1) se a OMS declarou uma emergência de saúde pública; (2) se a OMS designou uma doença como transmissível, letal ou de alto risco; ou (3) quando não há uma avaliação de risco da OMS, a Meta verifica qual é a designação das autoridades de saúde locais de emergência de saúde pública em um determinado país. Como explicado pela empresa, a OMS informou à Meta que, durante uma emergência declarada, “existe um alto risco de lesões corporais irreversíveis aos indivíduos quando o risco de exposição, a taxa de transmissão, a associação entre exposição e risco e as taxas de morbidade e mortalidade são extraordinariamente altos.” (Solicitação de parecer consultivo sobre política da Meta, página 6) A OMS declarou o surto de COVID-19 como uma “emergência de saúde pública de importância internacional” em 30 de janeiro de 2020.

17. Conforme o estabelecido por sua política, no contexto de emergências de saúde pública, a Meta consulta autoridades especializadas em saúde pública para determinar a falsidade e se uma alegação falsa “pode contribuir diretamente para o risco de lesões corporais iminentes”. A empresa informou ao Comitê que conta com especialistas em saúde pública, como a OMS e os Centros de Controle e Prevenção de Doenças (CDC) dos EUA, para avaliar as alegações sujeitas à remoção no momento. No passado, a Meta também consultou, por exemplo, chefes de país da UNICEF e o Ministério Nacional da Saúde do Paquistão (Solicitação de parecer consultivo sobre política da Meta, página 6). Com base em amostras de correspondência entre a Meta e uma autoridade de saúde pública que o Comitê analisou, a empresa identifica alegações, em parte, por meio do monitoramento das suas plataformas e as envia para a avaliação por parte de órgãos de saúde pública, em vez de as próprias autoridades de saúde pública identificarem ou definirem as alegações que devem ser removidas. Em um exemplo de comunicação com uma autoridade de saúde pública que fez essa avaliação, a Meta identificou uma alegação (de que as vacinas contra a COVID-19 causam ataques cardíacos) e perguntou à autoridade de saúde pública se a alegação era falsa e se poderia fazer com que as pessoas rejeitem a vacina. A autoridade de saúde pública respondeu que “não há evidências de que as vacinas contra a COVID-19 causem ataques cardíacos”, enviando fontes e estudos para embasar essa conclusão. Ela observou que houve casos de miocardite (inflamação do músculo cardíaco) após a vacinação, sobretudo em adolescentes do sexo masculino e adultos jovens. A autoridade de saúde pública também concluiu que “o medo infundado de que as vacinas causem ataques cardíacos (infarto do miocárdio) ou outras doenças cardíacas pode fazer com que as pessoas rejeitem a vacina”.

18. A política da Meta sobre desinformação faz exceções, segundo as quais a empresa não remove certos tipos de discurso. Por exemplo, declarações de cunho político ou sobre decisões políticas, como “a vacinação obrigatória contra a COVID não funciona” ou “as empresas de vacinas só querem enriquecer”, são permitidas. Conteúdos compartilhados com humor explícito e sátira, por exemplo, “Só o sangue de Brad Pitt pode curar a COVID [dois emojis chorando de rir]”, não violam a política. Alegações que expressam uma anedota ou experiência pessoal são permitidas quando: o conteúdo compartilha uma experiência pessoal de uma pessoa específica; a identidade da pessoa é mencionada explicitamente na publicação; e o conteúdo não faz uma alegação categórica nem inclui uma chamada para ação. Conteúdos que especulam, questionam ou expressam incerteza, por exemplo, “As vacinas causam autismo?” também são permitidos.

19. A Meta conta com um sistema regular de aplicação de regras em escala composto de ferramentas automatizadas (ou classificadores), bem como com moderadores de conteúdo e equipes internas de escalação para remover as alegações especificadas na política de desinformação. A empresa informou ao Comitê que treinou classificadores em 19 idiomas para identificar prováveis violações dessa política. Os moderadores de conteúdo que aplicam as regras da política de desinformação recebem diretrizes internas, incluindo orientações sobre como identificar o conteúdo que deve permanecer na plataforma, como humor, sátira ou anedota pessoal, conforme explicado na página da Central de Ajuda. Quando um conteúdo é removido, o usuário tem a opção de “discordar da decisão”. A análise não é garantida, mas algumas decisões são analisadas mediante apelação quando há capacidade. A Meta informou ao Comitê que, entre março de 2020 e julho de 2022, a empresa removeu 27 milhões de itens de conteúdo com desinformação sobre a COVID-19 no Facebook e no Instagram. Das 27 milhões de remoções, 1,3 milhão foram restauradas por meio das apelações que se pôde avaliar.

Verificação de fatos de terceiros e rebaixamento de desinformação

20. Quando o conteúdo não se enquadra na lista de alegações sujeitas à remoção, mas pode constituir uma desinformação sobre a COVID-19, fica sujeito à verificação de fatos independente. A tecnologia de aprendizado de máquina detecta publicações que podem ser desinformação e as envia para verificadores de fatos independentes. A Meta faz parceria com organizações de verificação de fatos independentes para analisar e rotular conteúdos. A empresa não avalia o desempenho do verificador de fatos. Ela conta com a International Fact Checking Network (IFCN) para avaliar as organizações e garantir a qualidade. A IFCN avalia as organizações de verificação de fatos para ver se estão em conformidade com um Código de Princípios que inclui um compromisso com a imparcialidade e a justiça, a transparência das fontes, a transparência do financiamento e uma política de correções aberta e honesta.

21. Antes de ser analisado, o conteúdo enviado para a fila de verificação de fatos pode aparecer temporariamente mais abaixo nos feeds dos usuários, sobretudo se estiver se tornando viral. A Meta usa um algoritmo de classificação para priorizar os conteúdos que precisam ser priorizados pelos verificadores de fatos, e o conteúdo viral é um deles. Em resposta à pergunta do Comitê, a Meta informou a ele que a esmagadora maioria do conteúdo na fila para verificação de fatos nunca é analisada pelos verificadores. A empresa informou que a maior parte do conteúdo na fila não é falsa, mas não forneceu evidências para tal afirmação. Segundo a Meta, os parceiros de verificação de fatos priorizam alegações potencialmente falsas ou boatos evidentes que não se baseiam em fatos e que são oportunas, relevantes e estão em alta. Os verificadores de fatos também podem encontrar conteúdos para analisar por iniciativa própria, fora da fila fornecida pela Meta.

22. Publicações e anúncios de políticos não se qualificam para a verificação de fatos. A Meta define “políticos” como “os candidatos que concorrem a um cargo, os ocupantes atuais de cargos e, por extensão, muitos dos nomeados dos seus gabinetes, além de partidos políticos e seus líderes.” Segundo a empresa, essa política existe porque “o discurso político [em democracias maduras com imprensa livre] é o discurso mais escrutinado que existe [e] limitá-lo [...] deixaria as pessoas menos informadas sobre o que os representantes eleitos estão dizendo e diminuiria a responsabilização dos políticos pelo que declaram.”

23. Os verificadores de fatos podem classificar o conteúdo como “falso”, “alterado”, “parcialmente falso” ou “sem contexto”. A Meta rotulará o conteúdo conforme a classificação e fornecerá um link para o artigo do verificador de fatos sobre o tópico. Para ler o artigo, o usuário precisa sair do Facebook e ir para outra página, o que requer o uso de dados adicionais. Isso significa incorrer em custos adicionais para alguns usuários nos países onde as plataformas da Meta são adaptadas para não gerar cobrança de dados (o que significa que os usuários não pagam dados nem outras cobranças pelo acesso aos apps da Meta no celular). O conteúdo rotulado como “falso” e “alterado” fica coberto por uma tela de aviso que oculta o conteúdo, e o usuário precisa clicar para vê-lo. O conteúdo rotulado como “parcialmente falso” e “sem contexto” não fica oculto. A Meta disse ao Comitê que, no período de 90 dias antes de 9 de dezembro de 2022, para publicações rotuladas como “falsas” ou “alteradas” e cobertas por uma tela que obscurecia o conteúdo, 10% dos usuários do Facebook e 43% dos usuários do Instagram descobriram a publicação para ver o conteúdo.” No mesmo período, a empresa informou que, para as publicações que receberam o rótulo “falso”, “alterado”, “parcialmente falso” ou “sem contexto”, em média, 3% dos usuários do Facebook e 19% dos usuários do Instagram clicaram no comando interativo “Entenda”. Isso direciona o usuário para uma tela separada que fornece informações sobre o motivo da classificação do conteúdo e links para o artigo do verificador de fatos.

24. Quando um conteúdo é rotulado por verificadores de fatos, a Meta o coloca em uma posição inferior nos feeds dos usuários. A força do rebaixamento aplicada à desinformação sobre a COVID-19 rotulada como “falsa”, “alterada” e “parcialmente falsa” é maior do que a aplicada ao conteúdo rotulado como “sem contexto”. Segundo a Meta, o efeito do rebaixamento sobre onde um conteúdo aparecerá no feed de um usuário individual varia. O conteúdo que um usuário vê é personalizado para ele com o objetivo, de acordo com a Meta, de mostrar ao usuário conteúdo com maior probabilidade de interessá-lo. O rebaixamento de um conteúdo resultaria em uma redução na pontuação de classificação. Isso não significaria que o conteúdo teria um número ou percentual específico de menos visualizações. A probabilidade de um determinado usuário ver um item de conteúdo que foi rebaixado dependerá do nível da pontuação de classificação do conteúdo em relação a outros itens de conteúdo no feed do usuário. Como resultado, os rebaixamentos afetam um conteúdo de formas diferentes, dependendo do usuário e do inventário de conteúdo dele. Quando o conteúdo é compartilhado em um grupo ou por um usuário com um grande número de seguidores, a pontuação de classificação para as pessoas que seguem o grupo ou a Página e se engajam regularmente com ele(a) provavelmente será maior que ou semelhante à pontuação de classificação dos outros conteúdos no feed. Isso significa que o rebaixamento pode não ter o efeito pretendido.

25. Quando um verificador de fatos determina que o conteúdo criado por uma Página ou grupo viola a política de desinformação da empresa, os gerentes de Página ou administradores de grupo podem fazer uma apelação. Os perfis do Facebook não têm a opção de fazer a apelação de um rótulo de verificação de fatos. As apelações de violações do grupo podem ser realizadas por meio do app do Facebook no IOS e Android ou pelo navegador da web. Não é possível fazer apelações de violações da Página por meio de um navegador da web. Segundo a Central de Ajuda do Facebook, “esse recurso de apelação no produto só está disponível para administradores de grupo e gerentes de Página em alguns países no momento. As outras pessoas ainda podem enviar apelações aos verificadores de fatos por email.”

26. Na solicitação ao Comitê, a Meta explicou que o número de verificadores de fatos disponíveis para avaliar o conteúdo sempre será limitado. Ao pedir ao Comitê que avaliasse as diferentes abordagens disponíveis para lidar com a desinformação sobre a COVID-19, a Meta explicou que, se a empresa dependesse exclusiva ou predominantemente da verificação de fatos, os verificadores de fatos não seriam capazes de examinar todo o conteúdo sobre a COVID-19 nas plataformas. Portanto, a precisão de algumas informações falsas não seria verificada, e elas também não seriam rebaixadas nem rotuladas.

Aplicação de rótulos

27. A Meta também aplica dois tipos do que chama de “tratamentos informativos neutros” (NITs): os rótulos de tratamento neutro e os Fatos sobre X tratamentos informados (FAXITs). Eles são aplicados diretamente pela Meta e não envolvem verificadores de fatos. Os FAXITs fornecem uma declaração personalizada sobre o conteúdo compartilhado na publicação antes de direcionar o usuário para a Central de Informações. A Meta tem dois rótulos FAXIT: (1) “As vacinas contra a COVID-19 passam por vários testes de segurança e eficácia e são monitoradas com atenção”; e (2) “Tratamentos para a COVID-19 sem comprovação científica podem ser prejudiciais à saúde.” Um rótulo é colocado em qualquer conteúdo que um classificador identifique como relacionado à COVID-19. O conteúdo pode ser verdadeiro ou falso, e o rótulo não faz nenhuma declaração sobre o conteúdo especificamente. Todos os NITs direcionam os usuários para a Central de Informações sobre o Coronavírus da Meta.

28. Durante as discussões a respeito desta solicitação de parecer consultivo sobre política, a Meta informou ao Comitê que reduziria os NITs a partir de 19 de dezembro de 2022. A decisão teve como base um experimento global que as equipes de Produto e Integridade da Meta conduziram sobre a eficácia dos NITs para limitar a prevalência de desinformação sobre a COVID-19 na plataforma. O teste envolveu um grupo de controle que continuava vendo NITs sobre a COVID-19 sem quaisquer limitações. Três grupos de teste adicionais também foram criados: primeiro, um grupo que via um de cada NIT sobre a COVID-19 a cada três dias; segundo, um grupo que via um de cada NIT sobre a COVID-19 a cada 30 dias; e terceiro, um grupo que não via nenhum rótulo. De acordo com a empresa, o segundo grupo (o grupo que via cada um dos NITs a cada 30 dias) teve a maior taxa de clique média para informações oficiais entre todos os grupos, incluindo o grupo de controle. O tempo médio de visualização dos NITs também foi o maior nesse grupo. Ademais, não houve “regressão estatisticamente significativa” na prevalência de desinformação sobre a COVID-19 entre o grupo de controle e os grupos de teste. Com base nos resultados do experimento, a Meta informou ao Comitê que havia limitado o número de NITs sobre a COVID-19 que os usuários podiam ver nas respectivas plataformas para um de cada tipo de rótulo sobre a COVID-19 a cada 30 dias, a partir de 19 de dezembro de 2022. A partir daí, a empresa informou ao Comitê que ela deixou de usar todos os NITs sobre a COVID-19, para que os usuários possam ser expostos a um volume reduzido de rótulos. O objetivo disso é garantir que os NITs também sejam eficazes em outras crises de saúde pública.

Penalidades

29. A Meta aplica penalidades no nível da conta e do grupo que afetam a disseminação de desinformação. Um perfil, Página ou grupo que publicar conteúdo removido ou rotulado como “falso” ou “alterado” segundo essa política receberá uma advertência e será removido das recomendações, não poderá ser monetizado. Além disso, pop-ups começarão a aparecer para os visitantes da Página ou grupo, informando-os de que a Página compartilhou desinformação, assim que um limite de advertências for atingido. Segundo a página da Central de Ajuda, Páginas, grupos e contas do Instagram também podem ser removidos “caso compartilhem conteúdo que viola as políticas sobre a COVID-19 e a vacinação e tenham como objetivo compartilhar informações desencorajadoras sobre vacinação na plataforma.”

IV. Envolvimento externo

30. Durante o desenvolvimento deste parecer consultivo sobre política, o Comitê de Supervisão interagiu com as partes interessadas e com a Meta de várias formas.

Comentários públicos

31. O Comitê de Supervisão recebeu 181 comentários públicos em agosto de 2022 relacionados a este parecer consultivo sobre política. Quatro dos comentários foram da América Latina e Caribe, cinco da Ásia Central e Meridional, oito da Ásia-Pacífico e Oceania, 81 da Europa e 83 dos Estados Unidos e Canadá. O Comitê não recebeu nenhum comentário público do Oriente Médio e Norte da África nem da África Subsaariana.

32. Os envios abordavam as seguintes questões:

  • Um envio do Instituto de Pesquisa Khazanah (PC-10703), um instituto de pesquisa de políticas na Malásia, destacou os diferentes níveis de acesso a informações confiáveis sobre saúde em diferentes países e os diversos níveis de risco de deixar a desinformação sem moderação. Já que é necessária uma abordagem global, o envio recomenda que a Meta peque por excesso de cautela e continue removendo desinformação prejudicial sobre a COVID-19. O envio também comentou sobre a falta de uma definição clara de “lesões corporais iminentes” e a importância de entender o contexto, do monitoramento contínuo e da transparência na aplicação de regras para garantir que o uso desse padrão possa ser avaliado com eficácia.
  • O envio da American Civil Liberties Union (PC-10759) expressou a preocupação de que a dificuldade em distinguir, em grande escala, entre fato e ficção, e entre opinião, experiência e afirmação de um fato, significa que a Meta reprimirá o discurso que deveria ser permitido.
  • O envio da organização americana sem fins lucrativos Asian Americans Advancing Justice (PC-10751) observou o “bode expiatório” dos asiático-americanos como responsáveis por trazer o vírus para os EUA.
  • Uma apresentação do professor Simon Wood, da Universidade de Edimburgo (PC-10713), destacou a preocupação de que os verificadores de fatos tenham conhecimento técnico inadequado para verificar com eficácia documentos e evidências científicas complexas.
  • O envio da Media Matters for America (PC-10758) chamou a atenção para o impacto do sistema de verificação cruzada da Meta em minar os esforços para lidar com a desinformação. Como celebridades, políticos, jornalistas e outros usuários proeminentes receberam “restrições mais lentas ou brandas” para violações de conteúdo, a desinformação teve autorização para permanecer na plataforma.
  • Vários envios observaram a responsabilidade que a Meta tem de abordar os riscos à segurança pública, devido ao alcance e ao papel dos sistemas da empresa na amplificação da desinformação. Também houve a preocupação com a adequação de rótulos e rebaixamentos para lidar com o risco de danos. Por exemplo, o envio do vice-presidente sênior do Center of Internet and International Studies (PC-10673) destacou a questão de que os rótulos são insuficientes para lidar com a desinformação disseminada por políticos e influenciadores proeminentes. Isso porque, “simplesmente rotular a publicação é insuficiente para impedir o risco potencial. Permitir a publicação de informações falsas que aumentam as chances de morte ou doenças graves é uma abdicação de responsabilidade.”
  • Vários envios recomendaram que se deve confiar em rótulos e rebaixamentos em vez de remover a desinformação. Um envio do professor assistente Saiph Savage, da Northeastern University e da Universidad Nacional Autónoma de México (UNAM) (PC-10519), chamou a atenção para o impacto da política de remoções e das penalidades associadas nas comunidades e vozes indígenas, observando que as comunidades indígenas “se expressaram de forma diferente quanto às melhores práticas para tratar a COVID-19 devido às suas crenças religiosas.”

33. Para ler os comentários públicos enviados sobre este parecer consultivo, clique aqui.

Mesas redondas regionais de partes interessadas

34. O Comitê realizou mais consultas às partes interessadas por meio de uma série de mesas redondas regionais com essas partes. O Comitê, em parceria com organizações da sociedade civil, convocou seis mesas redondas com partes interessadas da América do Norte, América Latina, África, Ásia e Europa. Nessas reuniões, o Comitê conversou com aproximadamente 100 indivíduos representando organizações de verificação de fatos, órgãos e especialistas em saúde pública, pesquisadores de desinformação, especialistas em alfabetização digital e comunicação e defensores dos direitos humanos. Esses engajamentos foram realizados de acordo com a Chatham House Rule para garantir uma discussão sincera e proteger os participantes.

35. Os seguintes temas e problemas surgiram dessas consultas:

  • Problemas comuns em diferentes regiões: falta de dados e o desafio de medir tanto a dimensão da desinformação nos países quanto os impactos das políticas existentes da Meta, dada a falta de acesso aos dados e pesquisas internas da empresa; a quantidade significativa de desinformação sobre a gravidade do vírus, remédios caseiros ou tratamentos alternativos (incluindo o uso de água sanitária), a conexão de medidas pandêmicas à tecnologia 5G e desinformação antivacina; preocupações de que a política de remoção possa levar a uma aplicação excessiva das regras, podendo reprimir o discurso; a necessidade de abordar a arquitetura subjacente do Facebook que promove a desinformação; grandes propagadores de desinformação com motivos financeiros e/ou políticos para a promoção de tal conteúdo; A desinformação sobre a COVID-19 não apenas exacerba a crise de saúde pública, mas também mina a confiança das pessoas nas instituições, na comunicação científica e nos tratamentos científicos e médicos, como as vacinas.
  • Problemas identificados pelas partes interessadas na América Latina: a verificação de fatos pode ser eficaz, mas a desinformação costuma ser rotulada depois que o conteúdo atinge o público-alvo; preocupações de que a verificação de fatos não é escalável e que há uma cobertura significativamente menor em idiomas que não são o inglês; assédio organizado contra cientistas que desacreditam a desinformação; verificadores de fatos individuais foram ameaçados e assediados, alguns fugiram de países ou regiões para proteger sua segurança física; organizações de verificação de fatos foram processadas por fazerem a verificação de fatos e tiveram que se defender desses processos, esgotando recursos já limitados; políticos e figuras proeminentes não estão sujeitos à verificação de fatos; especialistas em saúde pública e profissionais de saúde não têm conhecimento ou capacidade para combater efetivamente as campanhas de desinformação, sobretudo aquelas promovidas por influenciadores ou atores famosos com interesses políticos ou econômicos, como a promoção de medicamentos alternativos ineficientes para a COVID-19.
  • Problemas identificados por partes interessadas na América do Norte: os profissionais da saúde relataram uma pressão significativa exercida sobre eles para lidar com a desinformação, o que exigiu tempo e recursos consideráveis, causando esgotamento físico e mental; a necessidade de mecanismos de apelação melhores e mais justos para usuários que tenham conteúdo removido; a preocupação de que grande parte da pesquisa que examina a prevalência de desinformação e a eficácia de várias intervenções se concentra nos EUA e na Europa Ocidental; preocupações de que a verificação de fatos não é escalável e tem cobertura significativamente menor em idiomas que não são o inglês; a necessidade de penalidades mais efetivas para as conta; preocupações de que inconsistências na remoção de desinformação possam reafirmar teorias de conspiração existentes; dificuldades de moderação de conteúdo nos formatos de vídeo.
  • Problemas identificados por partes interessadas na Ásia: a desinformação foi generalizada no início da pandemia e se espalhou nas redes sociais e também na mídia tradicional; narrativas de desinformação em vários países visando minorias ou populações vulneráveis, por exemplo, dizendo que trabalhadores migrantes ou minorias religiosas eram disseminadores do vírus; a verificação de fatos não consegue acompanhar a rapidez em que a desinformação se espalha e muitas vezes chega tarde demais; os governos usaram a ameaça da desinformação contra agências de mídia e para calar as vozes dissidentes; os artigos verificados não são tão acessíveis ou atraentes quanto o conteúdo que contém desinformação; uma maior coordenação entre as organizações de verificação de fatos na região seria útil, pois narrativas iguais ou semelhantes se espalham de um país para outro; as organizações de verificação de fatos não têm recursos para fornecer artigos de verificação de fatos nos diversos idiomas falados na maioria dos países.
  • Problemas identificados por partes interessadas na África: líderes religiosos na África eram divulgadores proeminentes de desinformação; governos e partidos de oposição têm sido divulgadores proeminentes da desinformação sobre a COVID-19; a desconfiança no governo e nas instituições públicas criou um terreno fértil para a disseminação da desinformação; as autoridades de saúde pública enfrentaram desafios significativos em suas comunicações públicas e há muita variação entre os países em termos de eficácia das autoridades de saúde pública e disponibilidade de recursos; a verificação de fatos não está disponível em todos os idiomas e isso limita sua eficácia.
  • Problemas identificados por partes interessadas na Europa: o efeito da desinformação varia de país para país, dependendo dos níveis de alfabetização digital, da confiança no governo e nas instituições de saúde pública e de um ambiente de mídia aberta; algumas se mostraram preocupadas com a possibilidade de a remoção da desinformação sufocar o debate aberto sobre questões de interesse público; alguns argumentam que as populações mais vulneráveis são as mais afetadas pela desinformação, como imunossuprimidos, crianças, pessoas com baixo nível de alfabetização digital, baixo acesso a diversos meios de comunicação e pessoas que não têm acesso a um sistema de saúde adequado; os efeitos dissuasores da desinformação no processo de tomada de decisão das pessoas; outros mencionaram a necessidade de adotar medidas que permitam às pessoas discutir abertamente medidas de saúde pública, como o uso de máscaras ou distanciamento social; alguns salientaram que a desinformação removida de uma plataforma passa facilmente para outra, portanto, é preciso haver uma abordagem coordenada; a necessidade de organizar uma abordagem preventiva, em vez de responsiva, à desinformação; a necessidade de promover informações boas e precisas nas plataformas da Meta.

Envolvimento da Meta

36. Após a Meta ter enviado a solicitação deste parecer consultivo sobre política, entre julho e dezembro de 2022, o Comitê enviou 50 perguntas por escrito à empresa. A empresa as respondeu por escrito ou oralmente em três sessões de perguntas e respostas. Quarenta perguntas foram respondidas na íntegra e 10 parcialmente respondidas. As respostas parciais abordam solicitações de detalhamento dos dados por região e idioma, pesquisa interna sobre a eficácia das várias medidas de aplicação de regras e como a empresa ponderou as considerações conflitantes e orientações de especialistas na elaboração da política. O Comitê enviou perguntas sobre: dados internos da Meta ou pesquisas sobre a prevalência de desinformação sobre a COVID-19 nas plataformas da empresa globalmente e discriminados por país e idioma; o processo e as medidas tomadas para aplicar a política de remoção e os dados sobre o número de remoções; relatórios públicos sobre dados de aplicação de regras do Padrão da Comunidade sobre Desinformação; o papel desempenhado pelas autoridades de saúde pública e por especialistas no desenvolvimento e aplicação da política de remoção; qualquer pesquisa sobre a eficácia e o impacto da remoção de desinformação sobre a COVID-19; qualquer pesquisa sobre a eficácia e o impacto de outras medidas, incluindo verificação de fatos, rótulos neutros e rebaixamentos; o papel das organizações independentes de verificação de fatos; as penalidades aplicadas pela divulgação de desinformação sobre a COVID-19; as diretrizes internas que complementam a Política de Desinformação sobre a COVID-19; se a empresa avaliou o efeito do programa de verificação cruzada quanto à eficácia da política de desinformação sobre a COVID-19; o processo de engajamento das partes interessadas e os especialistas consultados durante o desenvolvimento desta política e como a Meta avaliou as contribuições recebidas; a viabilidade de adotar uma aplicação bifurcada da política em que a remoção seria aplicada em alguns países, mas não em outros; e medidas alternativas adicionais, incluindo investimentos em alfabetização digital.

V. Estrutura para o Comitê analisar e avaliar a política de Desinformação sobre saúde pública durante emergências de saúde pública

37. Na solicitação, a Meta perguntou ao Comitê se deveria continuar removendo determinados conteúdos relativos à COVID-19 de acordo com a política de Desinformação sobre saúde pública durante emergências de saúde pública ou se uma abordagem menos restritiva se alinharia melhor com os valores e as responsabilidades da empresa para com os direitos humanos. Para responder a essa pergunta, o Comitê analisa se a política é consistente com os valores e compromissos de direitos humanos da Meta, inclusive se é necessária e proporcional no momento atual, ou se a empresa deve adotar uma abordagem menos restritiva para lidar com a desinformação sobre a COVID-19. As recomendações derivadas dessa análise serão apresentadas na seção final deste parecer consultivo sobre política.

38. Ao descrever a estratégia utilizada pela Meta para desenvolver sua política de desinformação sobre a COVID-19, a empresa chamou a atenção para a divergência significativa na avaliação de riscos e medidas de mitigação entre especialistas em diferentes disciplinas e partes interessadas em diferentes regiões. O Comitê, nas próprias pesquisas e consultas a partes interessadas, também ouviu posicionamentos opostos e conflitantes sobre os riscos envolvidos em manter desinformações sobre a COVID-19 nas plataformas e a eficácia de várias medidas para lidar com os riscos.

39. Não existe uma solução única e consensual para o problema da desinformação sobre a COVID-19 e os riscos que ela apresenta aos direitos humanos, à vida e à saúde, sobretudo dos mais vulneráveis. Uma abordagem com mais fundamentação regional estabeleceria melhor o vínculo necessário entre desinformação e lesões corporais iminentes. No entanto, o Comitê teve que considerar as representações da Meta sobre as limitações atuais dos sistemas existentes e como as narrativas de desinformação sobre a COVID-19 se espalham pelo mundo. Os membros do Comitê responderam de forma diferente a essas preocupações e este parecer consultivo sobre política concilia, na medida do possível, as várias perspectivas do Comitê. É o resultado de um compromisso cuidadoso em torno da difícil necessidade de considerar as diferentes abordagens à desinformação sobre a COVID-19 em todo o mundo em meio a uma emergência de saúde pública, levando em consideração as supostas limitações técnicas da Meta. Não pode, portanto, representar as perspectivas pessoais de cada membro do Comitê.

Os valores da Meta

40. Os valores da Meta são descritos na introdução aos Padrões da Comunidade do Facebook, em que o valor “Voz” é descrito como “essencial”. A Meta limita a “Voz” com base em outros quatro valores, e dois são pertinentes aqui: “Segurança” e “Dignidade.” Para proteger o valor de “Segurança”, a Meta “remove conteúdo que possa contribuir para o risco de danos à segurança física das pessoas”. O valor de “Dignidade” declara que “todas as pessoas são iguais em dignidade e direitos”, e espera-se que os usuários “respeitem a dignidade alheia e não assediem nem difamem terceiros.”

41. O Comitê considera que a política da Meta sobre Desinformação sobre saúde pública durante emergências de saúde pública está em conformidade com os valores de “Voz”, “Segurança” e “Dignidade” da Meta. Durante uma emergência de saúde pública, o risco de danos é significativo, e é possível que o valor de “Voz” seja limitado para servir ao valor de “Segurança” a fim de proteger contra a desinformação de saúde “que pode contribuir diretamente para o risco de lesões corporais iminentes.” Os danos iminentes da desinformação sobre a COVID-19 recairão desproporcionalmente sobre os mais vulneráveis, incluindo imunocomprometidos e pessoas com comorbidades, pessoas com deficiência, comunidades pobres e idosos, bem como profissionais da saúde.

Responsabilidades que a Meta tem com os direitos humanos

42. Em 16 de março de 2021, a Meta anunciou sua Política Corporativa de Direitos Humanos, na qual destaca o compromisso de respeitar os direitos de acordo com os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU (UNGPs, na sigla em inglês). Os UNGPs, sancionados pelo Comitê de Direitos Humanos da ONU em 2011, estabelecem uma estrutura voluntária de responsabilidades sobre direitos humanos das empresas privadas.

43. Segundo o Princípio 12 dos UNGPs, a responsabilidade das empresas de respeitar os direitos humanos refere-se aos direitos humanos reconhecidos internacionalmente, entendidos, no mínimo, como os que constam da Carta Internacional dos Direitos Humanos. Esse documento compreende a Declaração Universal dos Direitos Humanos, o Pacto Internacional sobre os Direitos Civis e Políticos (PIDCP) e o Pacto Internacional sobre Direitos Econômicos, Sociais e Culturais (PIDESC). Essa responsabilidade significa que as empresas “devem se abster de infringir os direitos humanos de terceiros e enfrentar os impactos negativos sobre os direitos humanos nos quais tenham algum envolvimento” (Princípio 11). Espera-se que as empresas: “(a) Evitem que suas próprias atividades gerem impactos negativos sobre direitos humanos ou para estes contribuam, bem como enfrentem essas consequências quando vierem a ocorrer; (b) Busquem prevenir ou mitigar os impactos negativos sobre os direitos humanos diretamente relacionadas com operações, produtos ou serviços prestados por suas relações comerciais, inclusive quando não tenham contribuído para gerá-los” (Princípio 13).

44. O Princípio 17 declara ainda que, a fim de “identificar, prevenir, mitigar e reparar os impactos negativos das suas atividades sobre os direitos humanos”, as empresas devem “realizar auditoria de direitos humanos”. Esse processo deve incluir uma avaliação do impacto real e potencial das atividades sobre os direitos humanos, a integração das conclusões e sua atuação a esse respeito; o acompanhamento das respostas e a comunicação de como as consequências negativas são enfrentadas. A responsabilidade de realizar a auditoria de direitos humanos deve ser um processo contínuo, tendo em vista que os riscos para os direitos humanos podem mudar no decorrer do tempo, em função da evolução das operações e do contexto operacional das empresas. Por fim, o Princípio 20 estabelece que as empresas devem fazer um acompanhamento da eficácia da sua resposta, com base em indicadores qualitativos e quantitativos adequados, e levar em consideração as informações vindas de fontes tanto internas como externas, inclusive das partes interessadas afetadas.

45. Neste parecer consultivo sobre política, os seguintes padrões de direitos humanos foram levados em consideração na análise do Comitê:

  • O direito à liberdade de expressão, protegido pelo artigo 19, par. 2 do PIDCP. Esse artigo oferece ampla proteção à liberdade de expressão por qualquer meio e independentemente de fronteiras. O direito à liberdade de expressão se estende ao direito de buscar, receber e divulgar informações de todos os tipos.
  • O direito à vida (Art. 6, ICCPR): o direito à vida é inerente à pessoa humana.
  • O direito à saúde (art. 2º e 12º do PIDESC): o direito de toda pessoa de desfrutar o mais elevado nível de saúde física e mental. Artigo 12(2) afirma que assegurar o pleno exercício desse direito inclui a “a criação de condições que assegurem a todos assistência médica e serviços médicos em caso de enfermidade.” Isso inclui “determinantes à saúde subjacentes”, como o acesso à educação e a informações relacionadas à saúde, bem como a “participação da população em todas as decisões relacionadas à saúde nos níveis comunitário, nacional e internacional.” (Comentário geral n.º 14, PIDESC, parágrafo 11.) A acessibilidade à informação inclui o direito de buscar, receber e divulgar informações e ideias sobre questões de saúde. Respeitar o direito à saúde significa proteger a discussão legítima sobre questões de saúde pública.
  • O direito de desfrutar do progresso científico e suas aplicações (artigo 15(1)(b), PIDESC).
  • Direito à não discriminação (artigo 26, PIDCP): O artigo 26 proíbe a discriminação e garante a todas as pessoas proteção igual e eficaz contra a discriminação com base em qualquer característica protegida.
  • Direito a um recurso efetivo (artigo 2, PIDCP).

46. O Relator Especial da ONU para a Liberdade de Opinião e Expressão enfatizou a importância do direito à liberdade de expressão no contexto da pandemia da COVID-19, observando que “promover o acesso à informação reforça a promoção da saúde, da vida, da autonomia e da boa governança” e “advertiu contra a discriminação de pontos de vista.” ( A/HRC/44/49, parágrafo 2, 52.) A desinformação durante uma emergência de saúde pública pode ter um impacto significativo nos direitos das pessoas de acessar informações confiáveis, além de orientações e recursos de saúde, essenciais para a proteção do direito à saúde e o direito à vida. Como observou o Relator Especial da ONU, “mentiras e propaganda política privam os indivíduos de autonomia, do pensamento crítico ou de confiar em si mesmos e em fontes de informação, bem como do direito de se envolver no tipo de debate que melhora as condições sociais.” ( A/HRC/44/49, parágrafo 60.) O Relator Especial também observou que as “informações falsas são amplificadas por algoritmos e modelos de negócios projetados para promover conteúdo sensacionalista que mantém os usuários engajados nas plataformas” e pediu às empresas que “tomem medidas contra essas questões, passando de apenas melhorar a moderação de conteúdo para começar a rever os modelos de negócios.” ( A/HRC/47/25, parágrafo 16, 95.)

47. O Artigo 19 permite que o direito à liberdade de expressão seja restrito em certas condições estreitas e limitadas, conhecidas como o teste tripartite de legalidade (clareza), legitimidade e necessidade, que também inclui uma avaliação de proporcionalidade. O Relator Especial da ONU para a Liberdade de Opinião e Expressão sugeriu que o parágrafo 3 do Artigo 19 do PIDCP oferece um sistema útil para orientar as práticas de moderação de conteúdo das plataformas e que as empresas devem vincular suas políticas de conteúdo aos princípios de direitos humanos ( A/HRC/38/35, parágrafos 10 e 11, A/74/486, parágrafo 58). O Comitê reconhece que, embora o PIDCP não crie obrigações para a Meta como o faz para os estados, a empresa se comprometeu a respeitar os direitos humanos nos termos dos UNGPs. ( A/74/486, parágrafos 47 e 48). Portanto, quando as políticas da empresa diferem dos altos padrões que os Estados devem cumprir para justificar as restrições ao discurso, a Meta deve fornecer uma explicação fundamentada de por que sua política é diferente, e essa justificativa deve ser consistente com os padrões de direitos humanos que a empresa se comprometeu a respeitar (parágrafos 47 e 48).

Legalidade (clareza e acessibilidade das regras)

48. Qualquer restrição à liberdade de expressão deve estar acessível e ser clara o suficiente, em escopo, significado e efeito, para dar orientações aos usuários e aos analistas sobre qual conteúdo é ou não permitido na plataforma. A falta de clareza ou precisão pode levar a uma aplicação incoerente e arbitrária das regras. ( A/HRC/47/25, parágrafo 40).

49. Na decisão referente à “ Alegação sobre cura da COVID” [2020-006-FB-FBR], o Comitê recomendou à Meta “estabelecer um Padrão da Comunidade claro e acessível referente à desinformação sobre saúde, consolidando e esclarecendo as regras existentes em um só lugar (incluindo a definição de termos importantes, como o termo “desinformação”). A elaboração da regra deve vir acompanhada de “hipóteses detalhadas que ilustrem as nuances da interpretação e da aplicação das (dessas) regras” para esclarecer ainda mais os usuários.’” Em resposta à recomendação do Comitê, a Meta criou o Padrão da Comunidade sobre Desinformação. Ela também publicou um artigo na Central de Ajuda que fornece uma lista de alegações sujeitas à remoção, bem como perguntas comuns sobre como a política é aplicada, incluindo como a empresa trata o humor, a sátira e anedotas pessoais nos termos da política. O Comitê elogia a empresa por tomar essas medidas.

50. As alegações removidas com base nessa política variam em termos de especificidade ou generalidade. Por exemplo, várias alegações sujeitas à remoção são definidas de forma minuciosa pela Meta (por exemplo, “alegações de que os pedidos de distanciamento social contra a COVID-19 são na verdade apenas uma forma de instalar a infraestrutura de tecnologia de comunicação sem fio 5G”), e outras são formuladas de maneira mais ampla (por exemplo, “afirmações que o distanciamento social/físico não ajuda a prevenir a propagação da COVID-19”). O Comitê não analisou se a restrição em cada uma dessas alegações é suficientemente clara, pois a responsabilidade de garantir precisão e clareza pertence, em primeiro lugar, à Meta. O Comitê observa que a empresa deve ter informações sobre quais alegações resultaram sistematicamente em problemas de aplicação insuficiente e excessiva das regras, o que pode indicar questões relevantes de imprecisão. O Comitê também observa que as alegações específicas sujeitas à remoção nos termos da política de desinformação sobre a COVID-19 podem ser conferidas em uma página da Central de Ajuda. A página não tem um registro de alterações, o que permitiria aos usuários ver quando uma alegação foi adicionada, removida ou editada.

51. Para melhor alinhar a política de Desinformação sobre saúde pública durante emergências de saúde pública com os padrões de legalidade, o Comitê emite as recomendações 1, 2, 3, 4 e 11, explicadas em detalhes na seção VI abaixo.

Objetivo legítimo

52. As restrições à liberdade de expressão devem ter um objetivo legítimo, que inclui a proteção dos direitos de terceiros e da saúde pública, entre outros objetivos. O Comitê de Direitos Humanos interpretou o termo “direitos” de forma a incluir os direitos humanos reconhecidos no PIDCP e, em geral, no direito internacional dos direitos humanos ( Comentário Geral 34, parágrafo 28).

53. A política da Meta de Desinformação sobre saúde pública durante emergências de saúde pública visa aos objetivos legítimos de proteger a saúde pública durante uma crise de saúde, bem como proteger o direito das pessoas de acesso às informações, o direito à vida, o direito à saúde, o direito de usufruir do progresso científico e suas aplicações, bem como o direito à não discriminação.

Necessidade e proporcionalidade

Visão geral

54. Qualquer restrição à liberdade de expressão “deve ser apropriada para cumprir sua função protetora; deve ser o instrumento menos intrusivo entre aqueles que podem cumprir sua função protetora; deve ser proporcional ao interesse a ser protegido”, de acordo com o parágrafo 34 do Comentário geral n.º 34.

55. Pelos motivos explicados abaixo, o Comitê considera que a política que autoriza a Meta a remover desinformação sobre a COVID-19 “que pode contribuir diretamente para o risco de lesões corporais iminentes” durante uma emergência de saúde pública é necessária e adequada. Portanto, em princípio, ela é compatível com os valores da empresa e suas responsabilidades em relação aos direitos humanos. Ao declarar uma emergência de saúde pública, a autoridade de saúde pública das Nações Unidas estabelece que há um evento extraordinário, que constitui um risco para a saúde pública ou a vida das populações humanas, através da propagação internacional de uma doença que apresenta “um perigo grave e direto ” (OMS Regulamento Sanitário Internacional 2005). Tendo em vista a declaração da OMS de uma emergência de saúde pública global em relação à COVID-19, uma doença cujas consequências eram altamente incertas, voláteis e letais, o Comitê considera que a resposta da Meta foi adequada. O Comitê de Supervisão entende que, em tais circunstâncias de emergência, certas desinformações prejudiciais sobre saúde, sobretudo quando distribuídas em grande escala ou por influenciadores famosos, podem causar sérios danos à saúde pública e afetar desfavoravelmente os direitos dos indivíduos dentro e fora das plataformas da Meta. O Comitê está ciente de que, durante a fase mais intensa de uma emergência de saúde pública, pode não ser possível realizar consultas prévias consideráveis com vários especialistas sobre alegações de desinformação individuais. Ao avaliar a proporcionalidade da abordagem da Meta, o Comitê também considerou a posição da empresa de que uma abordagem regionalizada à desinformação sobre a COVID-19 não era viável.

56. No entanto, conforme as circunstâncias da COVID-19 mudam, o cálculo de necessidade e proporcionalidade também precisa mudar. O Comitê reconhece que o impacto da COVID-19 varia em todo o mundo. Isso depende da propagação do vírus, dos sistemas de saúde de um país e da qualidade do espaço cívico que permite que as pessoas recebam e compartilhem informações sobre a COVID-19, entre outras coisas. A declaração de emergência de COVID-19 da OMS permanece em vigor (e foi reiterada em janeiro de 2023), entretanto, em muitas partes do mundo, os casos de COVID-19 diminuíram e as medidas de emergência foram reduzidas drasticamente. Isso contribui para a dificuldade de implementar uma abordagem global que satisfaça o teste de proporcionalidade. Conforme descrito na recomendação 1 abaixo, a Meta deve iniciar um processo transparente e inclusivo para determinar se alguma das 80 alegações sujeitas à remoção não é mais falsa ou não tem mais o “potencial de contribuir diretamente para o risco de lesões corporais iminentes.” O processo deve incluir um mecanismo para que opiniões divergentes sejam ouvidas e consideradas. Isso deve incluir opiniões divergentes dentro da comunidade científica, especialistas em liberdade de expressão e a de especialistas em como a desinformação circula online e os impactos que causa. O Comitê também solicita à Meta na recomendação 4 abaixo que inicie um processo para identificar os riscos aos direitos humanos que podem persistir em alguns países e se prepare para uma abordagem mais regionalizada a fim de mitigar esses riscos quando a emergência de saúde global terminar.

Contribuição das partes interessadas

57. Partes interessadas de várias regiões do mundo contaram ao Comitê sobre políticos, líderes religiosos, influenciadores e autoridades médicas que promoveram a desinformação com grande visibilidade, que acabaram sendo mais ouvidos que os verificadores de fatos, os especialistas científicos e as autoridades de saúde pública. As partes interessadas de cada região também falaram sobre o impacto da desinformação sobre as pessoas que recorrem a tratamentos alternativos ou sobre sua disposição de serem vacinadas. Elas observaram que a desinformação afetou a disposição dos indivíduos de seguir as orientações de saúde pública ou de adotar medidas preventivas. As partes interessadas destacaram que esse tipo de desinformação frustra as medidas preventivas e o gerenciamento de riscos, o que, por sua vez, afeta a população em geral, impactando de forma desproporcional os grupos vulneráveis, como imunocomprometidos, pessoas com deficiência, pessoas com condições pré-existentes, idosos, pobres e marginalizados. (Para saber mais sobre os dados da COVID-19, consulte o Painel da OMS.) Estudos robustos sobre o impacto da desinformação online mostram um aumento da desconsideração das orientações de saúde pública e uma probabilidade reduzida de aceitar futuros testes de diagnóstico ou a vacinação. O Comitê também chama a atenção para outros danos relatados que resultaram da desinformação sobre a COVID-19, como minar a confiança nas autoridades científicas e de saúde pública. Isso frustra a implementação efetiva de medidas de saúde pública contra a COVID-19 e outras crises de saúde pública. Outros danos causados pela desinformação sobre a COVID-19 também foram relatados, como os ataques diretos, o assédio e as ações judiciais estratégicas contra organizações de verificação de fatos e verificadores de fatos individuais.

58. Os especialistas também observaram que, depois que a Meta começou a remover a desinformação sobre a COVID-19, a quantidade geral de desinformação na plataforma foi substancialmente reduzida e argumentou que, sem essas medidas, a desinformação aumentará novamente e o conteúdo antivacina em plataformas sociais como o Facebook dominará o discurso. Esses especialistas observaram que a falta de transparência e acesso aos dados da Meta ou a pesquisas internas frustra os esforços para encontrar evidências claras da eficácia das medidas para enfrentar a desinformação, incluindo a remoção. No entanto, partes interessadas de todo o mundo argumentaram ao Comitê que, enquanto a perda generalizada de vidas humanas e o risco à saúde de inúmeras pessoas estiverem acontecendo, a empresa deve continuar com medidas urgentes e aceitar que, se cometer algum erro, deve ser por estar tentando salvar vidas em risco, sobretudo as das pessoas mais vulneráveis. Embora a disponibilidade de informações científicas confiáveis sobre a COVID-19 tenha melhorado significativamente desde o início da pandemia, o acesso a essas informações varia entre países e comunidades, e a dimensão de informações falsas e enganosas dificultou o acesso e a avaliação das informações científicas existentes para pessoas em todo o mundo, minando os benefícios do acesso. A esse respeito, por exemplo, um envio do Instituto de Pesquisa Khazanah (PC-10703), um instituto de pesquisa de políticas na Malásia, destacou os diferentes níveis de acesso a informações confiáveis sobre saúde em diferentes países e os diversos níveis de risco de deixar a desinformação sem moderação. A mesma posição foi sustentada por outros especialistas e partes interessadas de diferentes lugares do mundo, sobretudo de países com níveis de renda mais baixos. Se for necessária uma abordagem global, o envio do Khazanah Research Institute recomenda que a Meta peque por excesso de cautela e continue removendo desinformação perigosa sobre a COVID-19.

59. Como a Meta reconheceu na solicitação ao Comitê, o curso da pandemia varia e continuará variando em todo o mundo. Há variações importantes nas taxas de vacinação, capacidade e recursos do sistema de saúde, além da confiança nas orientações oficiais. Isso contribui para o efeito desproporcional do vírus nas pessoas mais vulneráveis em diversos países. Embora as vacinas tenham sido desenvolvidas e estejam prontamente disponíveis nos EUA e em outros países, essa não é a realidade em todo o mundo. Nas palavras da Meta: “80% das pessoas em países de alta renda receberam pelo menos uma dose da vacina, em oposição a somente 13% das pessoas em países de baixa renda. Nos países de baixa renda, também é maior a probabilidade de os sistemas de saúde terem menos capacidade, de as economias serem menos robustas e de haver menor confiança nas orientações do governo. Tudo isso aumenta as dificuldades de vacinação e tratamento de quem contrair a COVID-19.” (Solicitação de parecer consultivo sobre política da Meta, página 15, julho de 2022) Para citar apenas alguns casos que mostram a diferença significativa nas taxas de vacinação, em fevereiro de 2023, menos de 20% da população no Iraque tomaram as duas primeiras vacinas, e menos de 1 % recebeu a dose de reforço. Na Bulgária, cerca de 30% da população tomou as duas primeiras. Esse número é de 13% na Síria e menos de 5% na Papua-Nova Guiné e no Haiti. Vários especialistas consultados pelo Comitê alertaram para o perigo de confiar em informações e dados que se concentram predominantemente nos países ocidentais para a criação de uma política e abordagem globais. Esses especialistas também observaram a estreita perspectiva geográfica da maioria dos estudos empíricos sobre desinformação e informações falsas.

60. Em janeiro de 2023, a OMS observou que, embora “o mundo esteja em uma posição melhor do que durante o pico da transmissão da Omicron há um ano, mais de 170 mil mortes relacionadas à COVID-19 foram relatadas no mundo inteiro nas últimas oito semanas”, e os sistemas de saúde “continuam lutando contra a COVID-19, estão tratando pacientes com gripe e vírus sincicial respiratório (VSR) e sofrem de escassez de profissionais da saúde, além da exaustão desses profissionais”. A OMS também destacou que “a resposta à COVID-19 continua prejudicada em muitos países incapazes de fornecer [vacinas, terapias e diagnóstico] às populações mais necessitadas, idosos e profissionais de saúde.” O Comitê da OMS observou que “a hesitação às vacinas e a disseminação contínua de desinformação continuam a ser obstáculos extras para a implementação de intervenções cruciais para a saúde pública.”

A insistência da Meta em uma abordagem global

61. A Meta reconhece que o curso da pandemia foi diferente em todo o mundo, com a variação mais significativa entre as nações “desenvolvidas” e as “menos desenvolvidas”. Ao buscar a orientação do Comitê, a empresa praticamente descartou uma abordagem regionalizada para a aplicação de regras, afirmando que isso “criaria preocupações significativas de transparência e justiça, resultaria em uma experiência de usuário ruim e seria operacionalmente inviável.” Segundo a Meta, a aplicação em grande escala de regras específicas a uma região ou país deixaria os usuários confusos sobre quais políticas e penalidades serão aplicadas a um conteúdo, uma vez que os usuários e as informações viajam de um lugar para o outro. Essa abordagem exigiria uma política ainda mais complexa e longa “descrevendo onde e em que circunstâncias diferentes as alegações são removidas , rebaixadas ou sujeitas a outras regras.” Segundo a empresa, atualmente ela não tem capacidade para adotar uma abordagem regionalizada, e desenvolvê-la exigiria muitos recursos e tempo, tornando essa abordagem inviável no futuro imediato. Ela argumentou que “a aplicação de políticas no nível do país pode levar à aplicação excessiva quando um conjunto de analistas de mercado cobre vários países, bem como à aplicação insuficiente, porque o conteúdo pode se espalhar por diversos países e regiões.” Diante disso, a Meta afirmou que a política proposta deve ser pertinente a todas as regiões, “bem como consistente e viável globalmente.”

Análise

62. Ao tomar a decisão sobre a questão da proporcionalidade, o Comitê considerou vários fatores, incluindo: (i) possíveis danos aos direitos humanos durante uma emergência de saúde pública ainda existente; (ii) as implicações sobre a liberdade de expressão; (iii) o requisito do Padrão da Comunidade pertinente de que o conteúdo sujeito à remoção precisa ser considerado falso e com potencial de contribuir diretamente para lesões corporais iminentes e significativas; (iv) a arquitetura da plataforma que, segundo alguns especialistas, pode contribuir para a amplificação de conteúdos prejudiciais (ver recomendação 10 sobre a necessidade de realizar uma Avaliação de Impacto nos Direitos Humanos nas escolhas de design da plataforma); (v) as preocupações significativas sobre a escalabilidade e eficácia das medidas de moderação de conteúdo sem remoções (conforme explicado nos parágrafos a seguir sobre verificação de fatos, rebaixamentos e rotulagem); e (vi) a representação da Meta de que uma abordagem em escala e regionalizada não era viável na implementação da política.

63. Dada a insistência da Meta em uma abordagem global, e como a COVID-19 continua sendo designada como uma “emergência de saúde pública de importância internacional” pela OMS, o Comitê não pode recomendar uma mudança na forma como a empresa implementa sua política global sem uma auditoria adicional e uma avaliação por parte da empresa do impacto das políticas e diversas ferramentas de aplicação de regras. Recomendar uma mudança nessas circunstâncias poderia afetar desproporcionalmente os mais vulneráveis no mundo inteiro. Isso inclui pessoas idosas, imunocomprometidas e com condições preexistentes, bem como comunidades pobres e marginalizadas com menos recursos, espaços cívicos mais frágeis, sem outras fontes confiáveis de informação e sistemas de saúde precários ou com falta de acesso a serviços de saúde. Conforme observado acima, o Comitê está ciente de que, durante a fase mais intensa de uma crise de saúde pública, a Meta usou medidas excepcionais. O Comitê entende que a empresa precisou tomar medidas excepcionais durante uma emergência de saúde pública declarada, como neste caso, através da remoção de categorias inteiras de desinformação com base em uma avaliação fornecida apenas por uma autoridade de saúde pública com o objetivo de evitar lesões corporais iminentes prováveis. O Comitê considera que as medidas foram proporcionais, considerando as circunstâncias únicas da pandemia.

64. Todavia, tais medidas excepcionais devem ser temporárias, estritamente adaptadas às exigências das circunstâncias e identificadas publicamente. À medida que as circunstâncias mudam, também muda a análise de necessidade e proporcionalidade. Em virtude da natureza evolutiva das pandemias, a Meta agora deve realizar um processo de consulta mais robusto assim que possível para tentar garantir que a remoção automatizada de alegações específicas não sufoque o debate sobre assuntos de utilidade pública nem resulte na influência indevida de governos na moderação do conteúdo da empresa. O processo de consulta deve se basear na experiência de um conjunto mais diversificado de partes interessadas, incluindo vozes divergentes (conforme estabelecido na recomendação 1 abaixo). O Comitê observa que o Princípio 17 dos UNGPs afirma que, para “identificar, prevenir, mitigar e reparar os impactos negativos das suas atividades sobre os direitos humanos”, as empresas devem realizar continuamente auditoria de direitos humanos, incluindo uma “avaliação do impacto real e potencial das atividades sobre os direitos humanos, a integração das conclusões e sua atuação a esse respeito; o acompanhamento das respostas e a comunicação de como as consequências negativas são enfrentadas.” Ademais, conforme estabelecido pelo Princípio 20 dos UNGPs, a empresa deve fazer um acompanhamento da eficácia da sua resposta, “com base em indicadores qualitativos e quantitativos adequados, e levar em consideração as informações vindas de fontes tanto internas como externas, inclusive das partes interessadas afetadas.”

65. Conforme observado acima, ao chegar à sua conclusão, o Comitê considerou se medidas menos intrusivas, exceto remoções de conteúdo, poderiam abordar a dimensão da desinformação e proteger a saúde pública durante uma emergência, bem como os direitos das pessoas dentro e fora da plataforma. Em primeiro lugar, embora adicionar rótulos de verificação de fatos ao conteúdo forneça um meio de corrigir informações sem removê-las, várias partes interessadas, bem como as informações fornecidas pela Meta, mostram a capacidade limitada dessa ferramenta para abordar a velocidade e a dimensão de desinformações sobre saúde potencialmente prejudiciais durante uma emergência de saúde pública. A Meta informou ao Comitê que os verificadores de fatos não conseguem analisar a maioria esmagadora do conteúdo na fila de espera. A empresa também afirmou que não seria capaz de ampliar o programa de verificação de fatos, já que se trata de organizações independentes não controladas pela Meta nem pertencentes a ela. Além disso, a limitação inerente do programa torna essa medida menos eficaz. A Meta não permite que seus verificadores de fatos analisem o conteúdo compartilhado por políticos, o que inclui candidatos a cargos públicos, candidatos eleitos e seus nomeados, partidos políticos e seus líderes. Como foi amplamente relatado e confirmado pelas partes interessadas de cada região, esses tipos de usuários têm sido divulgadores proeminentes de desinformação. A verificação por verificadores de fatos leva mais tempo do que a remoção automatizada em grande escala, o que pode ser um fator determinante ao lidar com desinformação prejudicial no contexto de uma crise de saúde pública. Outrossim, essa medida direciona o usuário para um artigo que normalmente se encontra fora da plataforma (e, portanto, menos acessível a pessoas que não dispõem de recursos para consumir dados adicionais). A linguagem desses artigos costuma ser notadamente técnica e às vezes complexa, diferente das mensagens curtas e emotivas pelas quais a desinformação é espalhada. Uma apresentação do professor Simon Wood, da Universidade de Edimburgo (PC-10713), destacou a preocupação de que os verificadores de fatos frequentemente têm conhecimento técnico insuficiente para verificar com eficácia documentos e evidências científicas complexas.

66. Em segundo lugar, apesar de os rebaixamentos afetarem onde o conteúdo aparecerá no feed do usuário, a natureza individualizada do feed de cada usuário significa que é difícil de determinar o impacto dessa medida na viralidade ou no alcance de um conteúdo. A pontuação de classificação de um conteúdo visa mostrar aos usuários o conteúdo no qual eles “podem estar mais interessados”, e o conteúdo compartilhado em um grupo ou por uma Página que um usuário segue provavelmente terá uma classificação alta. Como resultado, não está claro se um rebaixamento seria uma medida efetiva para o alcance do conteúdo compartilhado por usuários com seguidores ou conteúdo significativos compartilhado em um grupo. É provável que o rebaixamento tenha o menor impacto para usuários que seguem várias contas, Páginas ou grupos que compartilham regularmente desinformação sobre a COVID-19, dada a diversidade de conteúdos no feed de notícias desses usuários. Também parece que a empresa não tem dados sobre quantos usuários têm menos probabilidade de acessar o conteúdo rebaixado, mesmo que ele tenha sido rebaixado de forma significativa. Os rebaixamentos por si só não são acompanhados por advertências e penalidades. Por fim, como os usuários não podem fazer uma apelação do conteúdo rebaixado, essa opção causaria preocupações significativas sobre o tratamento justo dos usuários.

67. Em terceiro lugar, de acordo com a pesquisa interna da empresa, não há evidências de que rótulos neutros sejam eficazes para alcançar os usuários em grande escala a fim de lhes transmitir informações e influenciar suas atitudes. A Meta aplica NITs (ou rótulos neutros) por meio de um sistema automatizado que detecta um tópico sobre a COVID-19 em uma publicação. Esses rótulos fornecem um link para a COVID-19: Central de Informações, que fornece informações oficiais sobre a COVID-19. De acordo com a Meta, a pesquisa preliminar da empresa sobre esses rótulos mostrou que a “taxa de cliques” (a taxa na qual os usuários clicam no rótulo para ver as informações oficiais) diminui quanto mais NITs o usuário vê. A Meta informou ainda ao Comitê que a empresa parou de usar NITs sobre a COVID-19. Segundo a Meta, esses rótulos não têm efeito detectável na probabilidade de os usuários lerem, criarem ou recompartilharem desinformação verificada ou conteúdo que desincentiva a vacinação. Por fim, a empresa informou que a pesquisa inicial constatou que esses rótulos podem não ter efeito sobre o conhecimento e as atitudes do usuário quanto à vacina.

68. Em suma, o Comitê conclui que, dada a insistência da Meta em uma abordagem global à desinformação sobre a COVID-19 e a declaração de emergência da OMS que ainda vigora, a empresa deve continuar a aplicar sua política contra a desinformação sobre a COVID-19 que pode contribuir diretamente para o risco de lesões corporais iminentes. Ao mesmo tempo, a empresa deve começar a realizar um processo de revisão de auditoria robusto e inclusivo das alegações que estão sendo removidas. Para melhor alinhar a política de Desinformação sobre saúde pública durante emergências de saúde pública com os padrões de necessidade e proporcionalidade, o Comitê emite as recomendações 1, 4, 5, 9, 10, 12, 13, 14, 15 e 18, explicadas em detalhes na seção VI abaixo.

VI. Recomendações

Recomendações sobre a política de conteúdo

69. Recomendação 1: tendo em vista a declaração da Organização Mundial da Saúde de que a COVID-19 constitui uma emergência de saúde global e da insistência da Meta em uma abordagem global, a empresa deve continuar com a abordagem atual de remover globalmente conteúdo falso sobre a COVID-19 “que pode contribuir diretamente para o risco de lesões corporais iminentes.” Ao mesmo tempo, deve iniciar um processo transparente e inclusivo para reavaliação robusta e periódica de cada uma das 80 alegações sujeitas à remoção para garantir que: (1) todas as alegações específicas sobre a COVID-19 sujeitas à remoção sejam falsas e “que possam contribuir diretamente para o risco de lesões corporais iminentes”; e (2) os compromissos da Meta com os direitos humanos sejam devidamente implementados (por exemplo, os princípios de legalidade e necessidade). Com base nesse processo de reavaliação, a Meta deve determinar se as alegações deixaram de ser falsas ou de ter o “potencial de contribuir diretamente para o risco de lesões corporais iminentes.” Se a empresa detectar alegações que não são mais falsas ou que não têm mais o “potencial de contribuir diretamente para o risco de lesões corporais iminentes”, tais alegações não deverão mais estar sujeitas à remoção conforme estabelece a política. O Comitê considerará que essa recomendação foi implementada quando a Meta anunciar um processo de reavaliação e quaisquer mudanças nas 80 alegações que constam da página da Central de Ajuda.

70. As subpartes abaixo descrevem as recomendações do Comitê sobre as melhores práticas para realizar a reavaliação das alegações sujeitas à remoção de acordo com a política de Desinformação sobre saúde pública durante emergências de saúde pública. Todas as sub-recomendações serão consideradas recomendações separadas da recomendação 1. Isso significa que o Comitê analisará as ações da Meta para implementar as recomendações separadamente.

Recomendação 1A: consulta mais ampla a especialistas e partes interessadas

71. A empresa deve implementar um processo, assim que possível, que considere um conjunto mais amplo de perspectivas ao avaliar se a remoção de cada alegação é necessária conforme demanda a situação. Os especialistas e organizações consultados devem incluir especialistas em saúde pública, imunologistas, virologistas, pesquisadores de doenças infecciosas, pesquisadores de informações falsas e desinformação, especialistas em políticas tecnológicas, organizações de direitos humanos, verificadores de fatos e especialistas em liberdade de expressão. O Comitê considerará que essa recomendação foi implementada quando a Meta publicar informações sobre os processos de consulta a um conjunto diverso de especialistas acerca da sua política de Desinformação sobre saúde pública durante emergências de saúde pública, além de informações sobre como as consultas afetaram a referida política.

72. Conforme descrito acima, o Comitê aceita que a empresa precisou tomar medidas excepcionais durante uma emergência de saúde pública declarada, neste caso, por meio da remoção de categorias inteiras de desinformação com base em uma avaliação fornecida por uma única autoridade de saúde pública. O Comitê está ciente de que, durante uma emergência de saúde pública, não é possível realizar imediatamente consultas prévias robustas com vários especialistas para tratar de alegações individuais. Contudo, assim que possível, um grupo mais amplo de especialistas e partes interessadas deverá ser consultado, tendo em conta a evolução contínua das informações sobre a pandemia e as várias opiniões sobre a melhor abordagem para lidar com a desinformação relacionada à pandemia. Como afirmou a empresa, ela teve de mudar de posição em pelo menos duas alegações anteriormente sujeitas à remoção, uma sobre as origens do vírus e outra sobre a taxa de mortalidade da COVID-19. Uma consulta mais ampla e uma maior transparência sobre isso são essenciais para tomar de decisões melhores e evitar a censura injustificada.

73. O Comitê perguntou à Meta se as alegações incluídas na lista de “publicações não permitidas” (porque são consideradas falsas e “que podem contribuir diretamente para o risco de lesões corporais iminentes”) foram reavaliadas para levar em conta o impacto das três mudanças descritas na solicitação da empresa. A Meta informou ao Comitê que não tem informações para apoiar a conclusão de que as alegações atuais que estão sendo removidas não são mais falsas ou não têm mais potencial de contribuir diretamente para o risco de danos iminentes. No entanto, a empresa não solicitou às autoridades de saúde pública relevantes a reavaliação das alegações e também não realizou consultas com partes interessadas ou especialistas para reavaliar as alegações individuais ou a política como um todo. Segundo a Meta, ela optou por fazer uma solicitação de parecer consultivo sobre política ao Comitê, em vez de consultar partes interessadas externas para abordar a mudança da política, a fim de não atrasar a solicitação. O Comitê elogia a Meta por buscar contribuições externas sobre a política desenvolvida durante uma emergência global e por reconhecer a necessidade de reavaliação. No entanto, a responsabilidade da empresa em respeitar os direitos humanos não para por aí. A implementação de um processo para avaliar se a remoção de cada alegação deve ser mantida garantiria que a empresa estivesse conduzindo a auditoria relevante, como pedem os UNGPs.

Recomendação 1B: periodicidade da reavaliação

74. A Meta deve estabelecer a periodicidade para essa reavaliação (por exemplo, a cada três ou seis meses) e torná-la pública para que as partes interessadas possam se inteirar e comentar. O Comitê considerará que essa recomendação foi implementada quando a Meta publicar as atas de sua reunião de reavaliação publicamente, de forma semelhante à publicação de suas atas do fórum de políticas públicas na Central de Transparência.

Recomendação 1C: procedimentos para a coleta das contribuições do público

75. A Meta deve articular um processo claro para a reavaliação regular, incluindo meios para indivíduos e organizações interessadas contestarem a avaliação de uma alegação específica (por exemplo, fornecendo um link na página da Central de Ajuda para comentários públicos e consultas virtuais). O Comitê considerará que essa recomendação foi implementada quando a Meta criar um mecanismo para receber feedback público e compartilhar com o Comitê informações sobre o impacto desse feedback nos processos internos da empresa.

Recomendação 1D: orientações sobre o tipo de informação a ser considerada e avaliada

76. A reavaliação das alegações por parte da Meta deve incluir as pesquisas mais recentes sobre a disseminação e o impacto dessa desinformação online sobre saúde pública. Isso deve incluir pesquisas internas sobre a eficácia relativa de várias medidas disponíveis para a Meta, como remoções, verificação de fatos, rebaixamentos e rótulos neutros. A empresa deve considerar a situação da pandemia em todas as regiões em que atua, sobretudo naquelas em que suas plataformas constituem fonte primária de informação e onde há comunidades menos alfabetizadas digitalmente, espaços cívicos mais débeis, falta de fontes confiáveis de informação e sistemas de saúde frágeis. A Meta também deve avaliar a eficácia da aplicação das regras nessas alegações. A empresa deve reunir, se ainda não as tiver, informações sobre quais alegações resultaram sistematicamente em problemas de aplicação insuficiente e excessiva das regras. Com base nessas informações, deve-se decidir se a remoção de uma alegação será mantida ou se outras medidas devem ser tomadas. O Comitê considerará que essa recomendação foi implementada quando a Meta compartilhar dados sobre a reavaliação de aplicação das políticas e divulgar essas informações ao público.

Recomendação 1E: orientação sobre transparência na tomada de decisões

77. Por motivo de transparência sobre os tipos de especialistas consultados, as contribuições deles, as pesquisas internas e externas que foram consideradas e como as informações influenciaram o resultado da análise, a Meta deve fornecer ao Comitê um resumo do que baseou a decisão sobre cada alegação. O resumo deve incluir especificamente a base para a decisão da empresa em manter a remoção de uma alegação. A Meta também deve divulgar qual papel, se houver, funcionários ou entidades do governo desempenharam na tomada de decisão. Se a empresa decidir interromper a remoção de uma alegação específica, deverá explicar a base dessa decisão (incluindo: (a) qual informação levou a empresa a determinar que a alegação não é mais falsa; (b) qual informação, de qual fonte, levou a empresa a determinar que a alegação não contribui mais diretamente para o risco de lesões corporais iminentes e se essa avaliação é válida em países com taxas de vacinação mais baixas e infraestrutura de saúde pública com poucos recursos; (c) a empresa determinou que seu sistema de aplicação de política causou uma aplicação excessiva à alegação em questão; (d) a empresa determinou que a alegação não prevalece mais na plataforma.) O Comitê considerará que essa recomendação foi implementada quando a Meta compartilhar a análise do seu processo de avaliação de políticas. Essas informações devem estar alinhadas com os motivos especificados publicamente na publicação da Central de Ajuda para quaisquer alterações feitas na política, conforme descrito no primeiro parágrafo desta recomendação.

78. Recomendação 2:a Meta deve fornecer imediatamente uma explicação clara dos motivos pelos quais cada categoria de alegações passíveis de remoção “que podem contribuir diretamente para o risco de lesões corporais iminentes.” O Comitê considerará que essa recomendação foi implementada quando a empresa fizer uma alteração na página da Central de Ajuda para fornecer essa explicação.

79. Atualmente, a página da Central de Ajuda fornece um exemplo da ligação entre uma alegação específica e por que e como ela contribui para o risco de lesões corporais iminentes ao “aumentar a probabilidade de exposição ou transmissão do vírus ou efeitos adversos na capacidade do sistema de saúde pública de lidar com a pandemia.” A mesma página identifica cinco categorias de informações falsas que, segundo a Meta, se enquadram no padrão de “potencial de contribuir para lesões corporais iminentes.” No entanto, a página da Central de Ajuda não explica sistematicamente como cada categoria de alegações passíveis de remoção se enquadram no padrão estabelecido. A Meta deve explicar explicitamente como cada categoria de alegações pode contribuir diretamente para o risco de lesões corporais iminentes e as fontes de informação nas quais a empresa se baseou para chegar a essa conclusão.

80. Recomendação 3: a Meta deve esclarecer a política de Desinformação sobre saúde pública durante emergências de saúde pública por meio da explicação de que a exigência de que as informações sejam “falsas” refere-se a informações falsas de acordo com as melhores evidências disponíveis no momento em que a política foi reavaliada mais recentemente. O Comitê considerará que essa recomendação foi implementada quando a empresa esclarecer a política na página relevante da Central de Ajuda.

81. Pelo menos duas vezes, a Meta teve de corrigir as alegações sujeitas à remoção quando houve mudança nas informações conhecidas ou a evolução da doença tornou uma alegação imprecisa ou incompleta. Erros podem ser cometidos, novos dados ou pesquisas podem contestar o consenso existente ou a definição de uma alegação pode precisar de redefinição. À luz dessa realidade, e para deixar claro que a Meta entende que tem a responsabilidade de rever continuamente a avaliação de que alegações específicas se enquadram no padrão mais amplo da política, a empresa deve esclarecer a política para deixar claro que a avaliação se baseou nas melhores evidências disponíveis no momento, e que isso pode mudar.

Recomendações sobre aplicação de regras

82. Recomendação 4: a Meta deverá iniciar imediatamente um processo de avaliação de risco para identificar as medidas necessárias e proporcionais que deve tomar, de acordo com a presente decisão sobre política e as outras recomendações feitas neste parecer consultivo sobre política, quando a OMS suspender a emergência de saúde global para a COVID-19, mas outras autoridades locais de saúde pública continuarem a designar a COVID-19 como uma emergência de saúde pública. Esse processo deve ter como objetivo a adoção de medidas que abordem a desinformação prejudicial que possa contribuir para danos reais significativos e iminentes, sem comprometer o direito geral à liberdade de expressão globalmente. A avaliação de riscos deve ter: (1) uma avaliação robusta das decisões de design da plataforma e várias alternativas de política e de implementação; (2) os respectivos impactos delas sobre a liberdade de expressão, o direito à saúde e à vida e outros direitos humanos; e (3) uma avaliação da viabilidade de uma abordagem de aplicação de regras regionalizada. O Comitê considerará que essa recomendação foi implementada quando a Meta comunicar publicamente os planos de como conduzirá a avaliação de riscos, descrever o processo de avaliação para detectar e mitigar riscos e atualizar a página da Central de Ajuda com essas informações.

83. Recomendação 5: a Meta deve traduzir as diretrizes de implementação internas para os idiomas de trabalho das plataformas da empresa. O Comitê considerará que essa recomendação foi implementada quando a Meta traduzir suas diretrizes internas de implementação e informar o Comitê a respeito.

84. Os moderadores de conteúdo têm acesso a diretrizes de implementação internas detalhadas que fornecem informações adicionais sobre como identificar o conteúdo violador e o conteúdo que deve permanecer na plataforma segundo uma das exceções estabelecidas (por exemplo, humor, sátira, anedota pessoal, opinião). Para garantir que a aplicação de regras seja consistente em diferentes partes do mundo, a Meta precisa garantir que essas diretrizes sejam fornecidas e acessíveis aos moderadores no idioma em que estão operando.

85. O Comitê recomendou anteriormente que a Meta traduzisse as orientações de implementação internas fornecidas aos moderadores para o idioma em que analisam o conteúdo (leia as decisão sobre o caso de “Ressignificação de palavras árabes,” [ 2022-003-IG-UA]; e “Bot de Mianmar,” [ 2021-007-FB-UA]). Na resposta ao Comitê, a Meta declarou que “[ter] um conjunto de diretrizes políticas internas no idioma em que todos nossos analistas de conteúdo são fluentes... é a melhor maneira de garantir a aplicação global padronizada das nossas políticas em rápida evolução... Como essa orientação evolui rapidamente (é constantemente atualizada com novos esclarecimentos, definições e linguagem, incluindo calúnias específicas ao mercado), o embasamento em traduções pode levar a atrasos irregulares e interpretações não confiáveis.”

86. Como a Meta forneceu a explicação acima, uma avaliação independente de como a empresa aplica suas políticas em Israel e na Palestina identificou a falta de capacidade linguística dos moderadores de conteúdo como uma das causas da aplicação excessiva das políticas da Meta em árabe (leia a “Auditoria de direitos humanos dos impactos da Meta em Israel e na Palestina em maio de 2021” da Business for Social Responsibility). Considerando essa constatação e a complexidade das diretrizes internas e o fato de que os moderadores de conteúdo podem interpretá-las diferentemente, o Comitê acredita que o perigo de aplicação excessiva ou insuficiente da política Desinformação sobre saúde pública durante emergências de saúde pública é real. A Meta deve mitigar esses riscos para garantir que a aplicação da política seja consistente em todos os idiomas e regiões.

87. Recomendação 6: quando os usuários fizerem apelações de um rótulo de verificação de fatos, o conteúdo deverá ser analisado por um verificador de fatos diferente daquele que fez a primeira avaliação. Para garantir a justiça e promover o acesso a um recurso para os usuários cujo conteúdo passou pela verificação de fatos, a Meta deve alterar o processo para garantir que um verificador de fatos diferente que ainda não tenha avaliado a alegação em questão possa avaliar a decisão de aplicar um rótulo.O Comitê considerará que essa recomendação foi implementada quando a Meta fornecer um mecanismo para os usuários fazerem a apelação a um verificador de fatos diferente e quando atualizar as políticas de verificação de fatos com o novo mecanismo de apelação.

88. Recomendação 7: a Meta deve permitir que os perfis (não apenas as Páginas e os grupos) com conteúdo rotulado por verificadores de fatos independentes que aplicam a política da empresa sobre desinformação apelem do rótulo para outro verificador por meio do recurso de apelações no produto. O Comitê considerará que essa recomendação foi implementada quando a Meta lançar o recurso de apelações nos perfis em todos os mercados e demonstrar, por meio de dados sobre a aplicação de políticas, que os usuários podem apelar de rótulos de verificação de fatos.

89. As apelações dos usuários são um recurso fundamental para a correção de erros e a garantia do direito dos usuários de acesso a um recurso. Os verificadores de fatos analisam conteúdos que variam consideravelmente em termos de complexidade, conteúdo técnico e contexto. Alguns erros são inevitáveis. Um comentário público expressou a preocupação de que os verificadores de fatos não têm o conhecimento científico e técnico para verificar artigos científicos complexos compartilhados na plataforma. Os rótulos de verificação de fatos trazem consequências para os usuários. Quando um verificador de fatos aplica um rótulo ao conteúdo, o rótulo poderá gerar uma advertência se o conteúdo for rotulado como “falso” ou “alterado”. O acúmulo de advertências causará limitações aos recursos e o rebaixamento do conteúdo compartilhado pelo perfil em questão. A implementação dessa recomendação permitiria que os usuários notificassem os verificadores de fatos quando acreditassem que houve em equívoco e compartilhassem informações adicionais para facilitar a análise.

90. Recomendação 8: a Meta deve aumentar os investimentos em programas de alfabetização digital em todo o mundo, priorizando países com baixos indicadores de liberdade de mídia (por exemplo, com base na pontuação de Liberdade de Imprensa da Freedom House) e alta penetração das redes sociais. Esses investimentos devem incluir treinamentos de alfabetização personalizados. O Comitê considerará que essa recomendação foi implementada quando a empresa publicar um artigo sobre o aumento dos investimentos, especificando o valor investido, a natureza dos programas e os países afetados, bem como as informações que possui sobre os impactos de tais programas.

91. A Meta informou ao Comitê, em resposta a uma pergunta, que nos últimos três anos a empresa investiu mais de sete milhões de dólares americanos “para ajudar as pessoas a melhorar as habilidades de alfabetização midiática e reduzir proativamente a quantidade de desinformação compartilhada.” Conforme as fontesfornecidas pela Meta, esses investimentos se concentraram principalmente nos Estados Unidos. A empresa fez parceria com organizações em outros países para veicular campanhas de redes sociais ou anúncios focados na alfabetização midiática.

92. Estudosque avaliam o impacto dos investimentos da Meta em programas de alfabetização midiática nos Estados Unidos (um programa em parceria com a PEN America e outro com o Poynter Institute) constataram melhorias significativas na capacidade dos participantes de avaliar informações online. Por exemplo, a capacidade dos participantes de detectar desinformação sobre a COVID-19 melhorou da média de 53% antes da intervenção para a média de 82% após a intervenção. Um programa de alfabetização midiática para idosos resultou em uma melhoria de 22% na capacidade dos participantes de julgar com precisão as manchetes como verdadeiras ou falsas após o curso.

93. Recomendação 9: para contas individuais e redes de entidades da Meta que violam repetidamente a política sobre desinformação, a empresa deve conduzir pesquisas ou compartilhar pesquisas existentes sobre os efeitos do seu sistema de penalidades recentemente divulgado, incluindo quaisquer dados sobre como esse sistema foi projetado para evitar essas violações. Essa pesquisa deve incluir a análise de contas que ampliam ou coordenam campanhas de desinformação sobre saúde. A avaliação deve aferir a eficácia das penalidades de desmonetização que a Meta usa atualmente, abordando as motivações/os benefícios financeiros do compartilhamento de informações prejudiciais, falsas ou enganosas. O Comitê considerará que essa recomendação foi implementada quando a empresa compartilhar o resultado dessa pesquisa com o Comitê e publicar um resumo dos resultados na Central de Transparência.

Recomendações sobre transparência

94. Recomendação 10: a Meta deveencomendar uma avaliação de impacto nos direitos humanos sobre como o feed de notícias, os algoritmos de recomendação e outros recursos de design da empresa ampliam desinformações prejudiciais sobre saúde e quais são os impactos disso. Essa avaliação deve fornecer informações sobre os principais fatores no algoritmo de classificação do feed que contribuem para a amplificação de desinformação prejudicial sobre saúde, os tipos de desinformação que podem ser amplificados pelos algoritmos da empresa e quais grupos são mais suscetíveis a esse tipo de desinformação (e se eles são particularmente visados pelas escolhas de design da Meta). A avaliação também deve tornar pública qualquer pesquisa anterior realizada pela empresa que avalia os efeitos dos seus algoritmos e escolhas de design na amplificação da desinformação sobre saúde. O Comitê considerará que essa recomendação foi implementada quando a Meta publicar a avaliação de impacto nos direitos humanos, que contém tal análise.

95. O Relator Especial da ONU para a Liberdade de Opinião e Expressão descreveu as respostas das plataformas de redes sociais à desinformação relacionada à COVID-19, incluindo a remoção de desinformação e o programa de verificação de fatos independente da Meta, como “geralmente positivas”, mas “insuficientes” para enfrentar os desafios da desinformação. O Relator Especial destacou a necessidade de realizar uma “análise séria do modelo de negócios por trás de muitos dos impulsionadores de desinformação e informação falsa.” ( A/HRC/47/25, parágrafos 65–67.)

96. O Comitê está preocupado com o fato de a Meta não ter realizado uma avaliação de impacto nos direitos humanos sobre como os recursos de design das suas plataformas e as medidas atuais afetam a saúde pública e os direitos humanos, como os direitos à vida, à saúde, ao acesso à informação e à expressão de ideias e pontos de vista sobre a pandemia e medidas de saúde pública relacionadas. A empresa deve garantir que tem acesso a todas as informações necessárias para avaliar adequadamente os possíveis impactos nos direitos humanos. À luz das disparidades no acesso a informações adequadas e acessíveis, vacinas, medicamentos e tratamentos essenciais, bem como os recursos de moderação de conteúdo em todo o mundo, uma avaliação do impacto nos direitos humanos é crucial para avaliar os riscos decorrentes da disseminação de desinformação sobre a COVID-19 capaz de causar lesões corporais iminentes nos produtos da Meta globalmente.

97. Recomendação 11: a Meta deve adicionar um registro de alterações à página da Central de Ajuda, fornecendo a lista completa de alegações sujeitas à remoção conforme a política de Desinformação sobre saúde durante emergências de saúde pública da empresa.O Comitê considerará que essa recomendação foi implementada quando um registro de alterações for adicionado à página da Central de Ajuda.

98. Os Padrões da Comunidade fornecem um registro de alterações para alertar os usuários sobre as alterações nas políticas cujas regras estão sendo aplicadas. No entanto, a página da Central de Ajuda que contém as alegações específicas sujeitas à remoção conforme a política de Desinformação sobre saúde durante emergências de saúde públicanão fornece um registro de alterações nem qualquer meio para os usuários determinarem quando a lista de alegações foi atualizada ou alterada. Em virtude disso, fica difícil se manter a par de quaisquer adições ou alterações nas alegações sujeitas à remoção.

99. A Meta informou ao Comitê que, entre março de 2020 e outubro de 2022, várias alegações foram adicionadas à lista de alegações removidas conforme a política de Desinformação sobre saúde durante emergências de saúde pública, e algumas alegações foram removidas ou alteradas.

100. O Relator Especial da ONU para a Liberdade de Opinião e Expressão afirmou que todos os indivíduos devem ter “acesso genuíno às ferramentas de comunicação necessárias para se informar sobre a crise de saúde pública” ( A/HRC/44/49, parágrafo 63(b)). A adição de um registro de alterações à Central de Ajuda seria consistente com o princípio da legalidade, informando os usuários de forma clara quando alegações específicas são removidas. Mais transparência sobre como a lista de alegações muda beneficiaria os usuários, pois o consenso científico e a compreensão do impacto da pandemia de COVID-19 na saúde pública continuam evoluindo.

101. A adição de um registro de alterações na Central de Ajuda também ajudaria os usuários com diferentes pontos de vista a contestar a avaliação feita pela autoridade de saúde pública sobre a falsidade ou a probabilidade de contribuir diretamente para o risco de lesões corporais iminentes, em conexão com as recomendações 1 e 2. Essa medida abordaria a responsabilidade da Meta para com os direitos humanos no que toca à saúde pública, ao mesmo tempo em que permitiria que vozes contrárias contestassem alegações com as quais discordam.

102. Recomendação 12: a Meta deve fornecer a cada trimestre dados referentes à aplicação de regras sobre desinformação no Relatório Trimestral de Aplicação de Regras, discriminados por tipo de desinformação (ou seja, lesões corporais ou violência, desinformação prejudicial sobre saúde, interferência no eleitor ou no censo ou mídia manipulada) e país e idioma. Esses dados devem incluir informações sobre o número de apelações e o número de itens de conteúdo restaurados. O Comitê considerará que essa recomendação foi implementada quando a Meta começar a incluir dados referentes à aplicação de regras sobre desinformação nos relatórios de aplicação de regras da empresa.

103. O Relatório de Aplicação de Padrões da Comunidade que a Meta publica a cada trimestre mostra o número de itens de conteúdo que sofreram medidas nos termos dos vários Padrões da Comunidade. No entanto, esse relatório não contém dados relativos à aplicação de regras segundo a política sobre desinformação da empresa. O Comitê entende que isso ocorre em parte porque o Padrão da Comunidade sobre Desinformação foi formalmente estabelecido em março de 2022. A Meta informou ao Comitê que ela não possui dados sobre a prevalência de desinformação sobre a COVID-19 em suas plataformas. Segundo a empresa, isso ocorre devido à evolução das definições do que constitui desinformação sobre a COVID-19, bem como à dificuldade em estabelecer uma comparação significativa entre a prevalência antes da política e após a política.

104. Não obstante, a Meta, conseguiu mensurar a prevalência por breves períodos de tempo para subconjuntos menores. Segundo a empresa, entre 1º de março de 2022 e 21 de março de 2022, o conteúdo relacionado à COVID-19 representou de 1 a 2% das visualizações de publicações do Facebook nos Estados Unidos. Entre essas visualizações, a Meta estima que cerca de 0,1% diziam respeito a conteúdo que viola as políticas sobre desinformação e danos.

105. O Comitê recebeu muitos comentários de partes interessadas em todo o mundo, destacando que a falta de informações disponíveis publicamente sobre o número de itens de conteúdo que sofreram medidas nos termos da política sobre desinformação, entre outros pontos de dados relevantes, prejudica a capacidade de pesquisadores e partes interessadas avaliarem a eficácia das respostas existentes da Meta à desinformação sobre a COVID-19. A Meta deve fornecer dados para avaliar se a aplicação de regras da política resulta em muitos falsos positivos e precisa ser corrigida para diminuir o risco de aplicação excessiva. Nesse sentido, o Relator Especial da ONU para a Liberdade de Opinião e Expressão destacou a “falta de transparência e acesso a dados, o que dificulta uma avaliação objetiva da eficácia das medidas” adotadas para combater a desinformação online. Isso também impede que as partes interessadas saibam se as políticas foram aplicadas de forma consistente no mundo inteiro. ( A/HRC/47/25, parágrafo 65).

106. O Comitê havia recomendado que a Meta desagregasse seus Dados do Relatório de Aplicação dos Padrões da Comunidade por país e idioma (“Preocupação de Punjab com a RSS na Índia,” [ 2021-003-FB-UA] decisão sobre o caso, recomendação 1). Em resposta, a Meta se comprometeu a mudar suas métricas e estabeleceu o objetivo de lançá-las até o fim de 2023. A desagregação dos dados de aplicação de regras por país ou idioma é vital para entender a abrangência do problema em diferentes partes do mundo e a eficácia relativa das medidas de aplicação de regras da empresa. O Comitê e, mais importante, as partes interessadas da Meta são impedidos de compreender de forma plena e significativa a eficácia da atual política global e abordagem de aplicação de regras da empresa para enfrentar a desinformação sobre a COVID-19, sem quaisquer dados relevantes que permitam aos pesquisadores e à sociedade civil avaliar os esforços da empresa.

107. Recomendação 13:a Meta deve criar uma seção no “Relatório de Aplicação de Padrões da Comunidade” a fim de relatar as solicitações de atores estatais para analisar o conteúdo que viole apolítica deDesinformação sobre saúde durante emergências de saúde pública. O relatório deve incluir detalhes sobre o número de solicitações de análise e remoção por país e agência do governo e o número de rejeições e aprovações pela Meta. O Comitê considerará que isso foi implementado quando a Meta publicar uma seção separada no “Relatório de Aplicação de Padrões da Comunidade” com informações sobre solicitações de atores públicos que tenham levado à remoção de conteúdo por violação dessa política.

108. No caso “Gênero musical drill do Reino Unido” [2022-007-IG-MR], o Comitê recomendou que a Meta “publicasse dados sobre a análise de conteúdo e as solicitações de remoção por parte de atores estatais por motivo de violações do Padrão da Comunidade.” No auge da pandemia de COVID-19, surgiram preocupações de que a empresa estivesse analisando conteúdo relacionado à COVID-19 por ordens governamentais. Tal tendência pode ser agravada em países onde os governos fazem tais solicitações para reprimir manifestantes pacíficos ou defensores dos direitos humanos que criticam as políticas governamentais ou para silenciar o debate público. Durante a pandemia, o relator especial das Nações Unidas sobre os direitos à liberdade de reunião pacífica e de associação expressou preocupações sobre os governos de todo o mundo usarem a pandemia como pretexto para impor um estado de emergência ou contornar os requisitos do devido processo legal e os freios e contrapesos institucionais inerentes a uma sociedade democrática. Isso afetou direitos humanos fundamentais, como o direito à manifestação pacífica ( A/HRC/50/42, parágrafo 18; A/77/171, parágrafo 40, 67). Um relatório detalhado sobre as solicitações de atores estatais pedindo a análise de conteúdo nos termos da política de Desinformação sobre saúde durante emergências de saúde pública forneceria aos usuários o devido processo, de acordo com o princípio da legalidade, sobretudo àqueles em países de risco com espaços cívicos fracos.

109. O relator especial da ONU sobre os direitos à liberdade de reunião pacífica e de associação recomendou que as empresas de tecnologia devem garantir que seus produtos não sejam usados pelos governos para vigiar ou controlar “ativistas de movimentos sociais que defendem direitos” (A/77/171, parágrafo 71). O Comitê elogia o compromisso da Meta em capacitar os defensores dos direitos humanos para combater demandas de assédio, vigilância e censura online por parte de governos, conforme descrito na Política Corporativa de Direitos Humanos da empresa. A transparência nas solicitações por parte de governos para analisar e/ou remover conteúdo conforme o Padrão da Comunidade sobre Desinformação da Meta demonstraria esse compromisso.

110. Recomendação 14: a Meta deve garantir que as ferramentas de pesquisa existentes, como o CrowdTangle e o Facebook Open Research and Transparency (FORT), continuem sendo disponibilizadas aos pesquisadores. O Comitê considerará que essa recomendação foi implementada quando a empresa declarar publicamente seu compromisso de compartilhar dados por meio dessas ferramentas com os pesquisadores.

111. Recomendação 15: a Meta deve instituir um caminho para que pesquisadores externos tenham acesso a dados não públicos para estudar de forma independente os efeitos de intervenções políticas relacionadas à remoção e à distribuição reduzida de desinformação sobre a COVID-19, ao mesmo tempo em que garante que esses caminhos protegem o direito à privacidade dos usuários da Meta e os direitos humanos das pessoas dentro e fora da plataforma. Esses dados devem incluir métricas não disponibilizadas anteriormente, incluindo a taxa de reincidência relativas às intervenções na desinformação sobre COVID-19. O Comitê considerará que essa recomendação foi implementada quando a Meta disponibilizar esses conjuntos de dados para pesquisadores externos e confirmar isso ao Comitê.

112. O Relator Especial das Nações Unidas para a Liberdade de Opinião e Expressão observou a dificuldade em lidar com a desinformação, em parte devido à falta de informações disponíveis publicamente suficientes que permitiriam aos usuários, pesquisadores e ativistas entender e articular a natureza do problema ( A/HRC/47/25, parágrafos 3, 67, 81). Para tanto, o Relator Especial das Nações Unidas para a Liberdade de Opinião e Expressão recomenda a disponibilização de dados para “pesquisa, formulação de políticas, monitoramento e avaliação” (A/HRC/47/25, parágrafo 104).

113. O CrowdTangle é uma ferramenta que pesquisadores externos podem usar para rastrear “contas e grupos públicos influentes no Facebook e no Instagram” e analisar tendências relevantes, inclusive sobre desinformação. O banco de dados da ferramenta inclui todos os usuários, perfis e contas verificados/públicos, como os de políticos, jornalistas, mídia e editoras, celebridades, times esportivos e outras figuras públicas. Também inclui grupos públicos e Páginas acima de um determinado tamanho, dependendo do país. Ele compartilha dados sobre a data e o tipo de conteúdo publicado, qual Página, conta ou grupo compartilhou o conteúdo, o número e o tipo de interações com o conteúdo e quais outras Páginas ou contas públicas o compartilharam. Ele não rastreia o alcance do conteúdo, dados ou conteúdo publicados por contas privadas, conteúdo pago ou turbinado nem as informações demográficas dos usuários que interagem com o conteúdo. O CrowdTangle tem dados sobre mais de sete milhões de Páginas, grupos e perfis verificados do Facebook e mais de dois milhões de contas públicas do Instagram.

114. Em 2022, foi divulgado em notícias que a Meta planeja encerrar o CrowdTangle. A empresa não confirmou isso publicamente, contudo, o Comitê enfatiza que as ferramentas de pesquisa devem ser fortalecidas e não descontinuadas pela empresa. Isso permitiria que pesquisadores externos entendessem o impacto dos produtos da Meta, inclusive na desinformação sobre a COVID-19.

115. O Comitê destaca os esforços da Meta na criação da ferramenta Facebook Open Research and Transparency (FORT), que fornece vários conjuntos de dados protegidos pela privacidade para acadêmicos e pesquisadores. De acordo com a empresa, a FORT Researcher Platform concede aos cientistas sociais acesso a informações sensíveis em um ambiente controlado sobre “dados comportamentais abrangentes para o estudo e a explicação de fenômenos sociais.” No entanto, surgiram relatos sobre as deficiências da ferramenta para a pesquisa acadêmica. Por exemplo, o fato de a Meta ter “termos de uso restritivos” ou fornecer aos pesquisadores informações insuficientes para a realização de análises significativas. Isso posto, o Comitê reconhece que, em comparação com outras empresas de redes sociais, a Meta tomou medidas significativas para compartilhar dados com pesquisadores externos. O Comitê incentiva a Meta a fazer ainda mais.

116. Durante as atividades de engajamento das partes interessadas que contribuíram para este parecer consultivo sobre política, os pesquisadores reforçaram reiteradamente a necessidade dessas ferramentas para o rastreamento de tendências relacionadas à desinformação sobre a COVID-19. A falta de acesso a dados relevantes também criou desafios para o Comitê durante a avaliação dos méritos da solicitação por nosso parecer consultivo. No entendimento do Comitê, alguns desses dados não estão disponíveis para a própria empresa, enquanto outros estão disponíveis, mas não podem ser compartilhados com partes interessadas externas, incluindo o Comitê. A Meta deve fornecer aos pesquisadores acesso a dados relevantes para rastrear a prevalência de desinformação sobre a COVID-19 na plataforma e a eficácia de medidas específicas para lidar com o problema. Essas informações também são essenciais para a condução da avaliação de impacto sobre os direitos humanos acima mencionadas.

117. Recomendação 16: a Meta deve publicar as conclusões da sua pesquisa sobre rótulos neutros e de verificação de fatos que compartilhou com o Comitê durante o processo do parecer consultivo sobre política referente à COVID-19. O Comitê considerará que essa recomendação foi implementada quando a empresa divulgar a referida pesquisa publicamente na Central de Transparência.

118. O Comitê aprecia as informações que a Meta compartilhou com o Comitê sobre a eficácia dos NITs e do rebaixamento de conteúdo, como os resultados dos experimentos que a empresa realizou para avaliar a continuidade da eficácia dos NITs. O Comitê considera que as descobertas desses experimentos devem ser compartilhadas de forma mais ampla com pesquisadores externos que buscam entender o impacto das respostas da empresa à desinformação sobre a COVID-19.

119. Recomendação 17: a Meta deve garantir acesso aos dados de forma equitativa para pesquisadores de todo o mundo. Embora os pesquisadores na Europa tenham um meio para solicitar acesso a dados pela Lei de Serviços Digitais (DSA, na sigla em inglês), a empresa deve garantir que não indexe demasiadamente pesquisadores de universidades do Norte Global. A pesquisa sobre a prevalência da desinformação sobre a COVID-19 e o impacto das políticas da Meta moldará a compreensão geral da desinformação prejudicial sobre saúde, e as respostas futuras a ela, nesta e em futuras emergências. Se essa pesquisa estiver concentrada de forma desproporcional no Norte Global, a resposta também estará. O Comitê considerará que essa recomendação foi implementada quando a Meta compartilhar publicamente seu plano de fornecer aos pesquisadores de todo o mundo acesso a dados semelhante ao fornecido aos países da UE nos termos da DSA.

120. A maioria das pesquisas sobre fluxos de desinformação reflete desproporcionalmente as tendências e os padrões que ocorrem nos EUA e na Europa Ocidental. Isso pode fazer com que as intervenções das políticas de conteúdo sejam realizadas de acordo com os problemas específicos dessas geografias. O Relator Especial das Nações Unidas para a Liberdade de Opinião e Expressão observou os apelos da sociedade civil para mais pesquisas sobre o impacto da desinformação em “comunidades vulneráveis e minoritárias”, citando as campanhas de desinformação baseadas em identidade que alimentaram o conflito étnico na Etiópia e em Mianmar (A/ HRC/47/25, parágrafo 26). À medida que a Meta expande o acesso a pesquisadores externos em conformidade com a Lei de Serviços Digitais, além de manter a própria FORT, a empresa deve garantir a representatividade de acadêmicos e pesquisadores de todo o mundo.

121. Recomendação 18: a Meta deve avaliar o impacto da verificação cruzada do sistema Early Response Secondary Review (ERSR) na eficácia da sua aplicação da política sobre desinformação e garantir que as Recomendações 16 e 17 no parecer consultivo sobre política do Comitê referente ao programa de verificação cruzada da empresa se aplica a entidades que publicam conteúdo que viola a política de Desinformação sobre saúde durante uma emergência de saúde pública. O Comitê considerará que essa recomendação foi implementada quando a Meta compartilhar suas conclusões com o Comitê e publicá-las.

122. Segundo a Meta, o programa de verificação cruzada foi implementado para minimizar os erros de moderação de falsos positivos de alto risco. A primeira parte do programa de verificação cruzada é o sistema Early Response Secondary Review (ERSR), que garante uma análise humana adicional de conteúdo potencialmente violador publicado por entidades autorizadas específicas. A Meta mantém listas de entidades autorizadas com base em quem a empresa decidiu que tem direito a se beneficiar da ERSR. As entidades podem assumir a forma de Páginas do Facebook, perfis do Facebook e contas do Instagram e podem representar pessoas individuais e grupos ou organizações. Muitos dos usuários que constam dessas listas são celebridades, grandes empresas, líderes governamentais e políticos.

123. No parecer consultivo sobre política relativo ao programa de verificação cruzada da Meta, o Comitê recomendou que a empresa estabelecesse “critérios claros e públicos para uma elegibilidade de prevenção de erros com base na entidade” que diferenciaria entre “usuários cuja expressão mereça proteção adicional do ponto de vista dos direitos humanos” e aqueles “incluídos por motivos comerciais.”

124. Os políticos estão isentos do programa de verificação de fatos independente da empresa. Isso significa que informações falsas compartilhadas por políticos, que não são removidas de outra forma pela política de Desinformação Prejudicial sobre Saúde, não podem ser analisadas e rotuladas por verificadores de fatos independentes. A Meta também explicou que não avaliou o impacto do sistema ERSR na eficácia da Política de Desinformação sobre a COVID-19, pois o ERSR foi criado para evitar erros na aplicação das regras, em vez de para avaliar a eficácia de um Padrão da Comunidade específico. Dessa forma, as equipes internas da empresa não monitoram nem analisam dados sobre o impacto do sistema na Política de Desinformação sobre a COVID-19.

125. Com base em pesquisas internas, bem como no envolvimento das partes interessadas que contribuíram para este parecer consultivo sobre política referente à COVID-19, o Comitê descobriu que muitos divulgadores de desinformação são pessoas proeminentes, como celebridades, políticos, atores estatais e figuras religiosas que podem ser entidades com direito aos benefícios do programa ERSR. Por exemplo, o envio da Media Matters for America (PC-10758) chamou a atenção para o impacto do sistema de verificação cruzada da Meta em minar os esforços para lidar com a desinformação. Como celebridades, políticos, jornalistas e outros usuários proeminentes receberam “restrições mais lentas ou brandas” para violações de conteúdo, a desinformação teve autorização para permanecer na plataforma. O Relator Especial das Nações Unidas para a Liberdade de Opinião e Expressão também expressou preocupações sobre “informações não confiáveis” disseminadas por “indivíduos com plataformas significativas”, observando que isso “pode causar danos graves, com ou sem má-fé.” Alguns atores estatais também divulgaram “alegações muitas vezes imprudentes” sobre as origens do vírus, a disponibilidade de medicamentos para combater os sintomas e o estado da COVID-19 nos respectivos países, entre outros. O Relator Especial da ONU recomendou a responsabilização dos atores estatais por suas declarações e ações. ( A/HRC/44/49, parágrafo 41, 45, 63(c); leia também A/HRC/47/25, parágrafo 18, identificação de celebridades como divulgadores de desinformação de forma mais geral.)

126. A desinformação publicada por entidades autorizadas sob o programa ERSR a qual pode contribuir diretamente para o risco de danos físicos iminentes à saúde e à segurança públicas será removida de acordo com a Política de Desinformação Prejudicial sobre Saúde. Todavia, a desinformação publicada por entidades autorizadas como políticos, a qual normalmente passaria por uma verificação de fatos ou rotulagem, não apenas está isenta da verificação de fatos independente, como também se beneficia de uma aplicação de regras tardia devido à análise humana adicional de conteúdo potencialmente violador por parte do sistema ERSR. Isso significa que a desinformação sobre a COVID-19 que não for uma das 80 alegações especificadas e for publicada por entidades autorizadas poderá permanecer na plataforma sem um rótulo de verificação de fatos, e há a possibilidade de ela não ser analisada.

*Nota processual:

Os pareceres consultivos sobre política do Comitê de Supervisão são preparados por grupos de cinco membros e aprovados pela maioria do Comitê. As decisões do Comitê não representam, necessariamente, as opiniões pessoais de todos os membros.

Para este parecer consultivo sobre política, contratou-se uma pesquisa independente em nome do Comitê. Um instituto de pesquisa independente com sede na Universidade de Gotemburgo, que tem uma equipe de mais de 50 cientistas sociais de 6 continentes, e mais de 3.200 especialistas do mundo inteiro auxiliaram o Comitê. A Duco Advisors, empresa de consultoria especializada na intercessão entre as áreas de geopolítica, de confiança e segurança e de tecnologia, também ajudou. A Memetica, uma organização dedicada à pesquisa de código aberto sobre tendências nas redes sociais, também forneceu análises, além de ter auxiliado o Comitê.

Voltar para Decisões de Casos e Pareceres Consultivos sobre Políticas