Moderação de conteúdo em um ano eleitoral histórico: lições importantes para o setor

Sumário executivo

Neste ano histórico de eleições, com a participação de pessoas de pelo menos 80 países ao redor do mundo, nunca houve um momento mais crucial para a democracia, os direitos humanos e as sociedades abertas e justas. Só nos primeiros três meses de 2024, pessoas em Bangladesh, Paquistão, Indonésia e Taiwan foram às urnas. As eleições durante o restante do ano já estão em andamento na Índia e estão previstas em vários outros países e regiões, como na África do Sul, no México, na União Europeia, no Reino Unido e nos Estados Unidos.

O papel das plataformas de redes sociais no discurso cívico é fundamental, e o impacto delas nos processos democráticos tem sido tema de discussões extensas. Enquanto as plataformas podem contribuir para um processo eleitoral mais transparente ao ampliar o acesso à informação, também podem ser utilizadas para incitar violência relacionada às eleições e disseminar informações falsas na tentativa de manipular a opinião pública e influenciar os resultados. A aplicação incorreta por parte das plataformas pode agravar ainda mais esses abusos. Por isso, é fundamental que as ações das empresas privadas de tecnologia, que controlam o fluxo de tanta informação política, sejam submetidas a análise.

O Comitê de Supervisão, um órgão independente composto por 22 especialistas em direitos humanos e liberdade de expressão de todo o mundo e de todo o espectro político, identificou a proteção das eleições e do espaço cívico como uma das sete prioridades estratégicas. Acreditamos na importância de as plataformas de redes sociais defenderem um espaço cívico aberto, no qual pessoas, incluindo membros de oposições políticas, defensores dos direitos humanos e vozes marginalizadas, possam expressar livremente suas opiniões, compartilhar informações e participar dos processos democráticos. Neste ano eleitoral, é de suma importância identificar maneiras pelas quais as empresas de redes sociais possam proteger melhor a integridade dos processos eleitorais, ao mesmo tempo em que respeitam a liberdade de expressão. No Comitê de Supervisão, nossas recomendações já levaram a Meta a se comprometer com práticas recomendadas, mas é necessário ir além, tanto por parte da Meta quanto de outras plataformas e reguladores.  

Este artigo se fundamenta em nossa análise de casos pertinentes, que abrangem peças emblemáticas de conteúdo nas plataformas da Meta, visando destacar algumas das maneiras pelas quais as empresas de mídia social podem aprimorar a proteção do discurso político e enfrentar os desafios online para garantir a realização segura e confiável das eleições, sob a orientação das normas internacionais de direitos humanos. Com base nos insights coletivos obtidos desses casos, compartilhamos também nossas principais lições para o setor, detalhadas integralmente no capítulo final deste documento.

Nove lições importantes para o setor

  • As políticas são uma parte da história, mas a aplicação é igualmente essencial. Dessa forma, as empresas de redes sociais devem destinar recursos adequados à moderação de conteúdo antes, durante e após as eleições.
  • As empresas devem estabelecer padrões básicos de plataforma global para eleições em todas as regiões. Elas não devem ignorar as dezenas de eleições realizadas em países ou mercados considerados menos lucrativos, uma vez que é nessas circunstâncias que as consequências para os direitos humanos da falta de implementação dessas normas podem ser mais significativas. As plataformas que não cumprem os seus objetivos devem ser responsabilizadas.
  • O discurso político que incita a violência não pode passar despercebido. É essencial priorizar uma escalada mais rápida do conteúdo para revisão humana e impor sanções severas contra abusadores reincidentes.
  • As plataformas devem proteger-se contra os perigos de permitir que os governos utilizem a desinformação, ou razões vagas ou não especificadas, para suprimir o discurso crítico, especialmente em contextos eleitorais e em torno de assuntos de interesse público.
  • As políticas que restringem a liberdade de expressão devem detalhar os danos reais que estão tentando prevenir, garantindo que sejam necessárias e proporcionais aos danos identificados.
  • As campanhas eleitorais sempre envolveram mentiras, mas os avanços tecnológicos estão facilitando, tornando mais barato e mais desafiador detectar a propagação de informações falsas. É necessário estabelecer padrões claros para conteúdos gerados por IA, como “deepfakes”, e outros tipos de conteúdo manipulado, como “falsificações baratas”.
  • É fundamental garantir maior proteção para jornalistas, grupos da sociedade civil e a oposição política contra o abuso na Internet, bem como contra a aplicação excessiva por parte das empresas de redes sociais, inclusive sob influência de governos e outras entidades.
  • Transparência é fundamental, especialmente quando se trata de preservar a integridade eleitoral. As empresas devem ser transparentes quanto as medidas que tomam para prevenir danos e os erros que cometem.
  • As campanhas coordenadas destinadas a espalhar desinformação ou incitar a violência para minar os processos democráticos devem ser tratadas como prioridade.

A importância da liberdade de expressão nas eleições

Guiado pelas Normas Internacionais de Direitos Humanos

A comunidade internacional espera que as empresas, incluindo as plataformas de redes sociais, honrem os direitos humanos. A principal norma de direitos humanos que aplicamos nas nossas decisões é o Artigo 19 do Pacto Internacional sobre os Direitos Civis e Políticos (ICCPR), que garante amplamente a liberdade de expressão. Sobre as eleições, o Comitê dos Direitos Humanos da ONU afirmou que “é essencial a livre comunicação de informações e ideias sobre questões públicas e políticas entre cidadãos, candidatos e representantes eleitos” (Comentário Geral n.º 34, par. 13).

Proteção do discurso político

Muitos dos casos que analisamos destacam a alta proteção que o discurso político recebe sob a legislação de direitos humanos, devido à sua importância para o debate e a discussão públicos. No caso Vídeo Alterado do Presidente Biden, no qual analisamos um vídeo que foi alterado para fazer parecer que o presidente dos EUA está tocando inapropriadamente o peito de sua neta, enfatizamos que a mera falsidade não pode ser a única justificativa para restringir a liberdade de expressão sob a legislação de direitos humanos.

Durante nossa análise, constatamos que a política Mídia Manipulada da Meta, que governa a moderação de conteúdo gerado por IA, estava repleta de lacunas e inconsistências, incluindo a disparidade no tratamento de conteúdo que retrata pessoas dizendo algo que não disseram, em comparação com o conteúdo que mostra pessoas fazendo algo que não fizeram. Também houve uma inconsistência no tratamento dos tipos de mídia áudio e audiovisual.

Embora tenhamos optado por deixar o vídeo alterado neste caso, apesar de mostrar o Presidente Biden fazendo algo que não fez, orientamos a Meta a revisar suas políticas sobre mídia manipulada para garantir que o conteúdo seja removido apenas quando necessário para prevenir ou mitigar danos específicos. Esses danos precisavam de uma definição mais precisa. Também recomendamos que a empresa elimine as distinções e inconsistências descritas anteriormente. Por fim, incentivamos as empresas de redes sociais a considerar a rotulagem de conteúdo gerado por IA como uma alternativa à remoção, exceto quando o conteúdo viola outras políticas. A Meta anunciou que está tomando medidas para implementar nossos conselhos, visando fornecer às pessoas o contexto necessário para tomarem decisões informadas sobre o conteúdo.

Em outros casos, decidimos proteger o discurso político, mesmo que, às vezes, possa ser considerado enérgico, reconhecendo isso como uma parte necessária do debate público, contanto que não haja uma ligação direta a possíveis danos fora da Internet. Por exemplo, orientamos a Meta a não retirar do ar reportagens sobre o discurso de um político no Parlamento do Paquistão, que continha uma referência clássica, embora de natureza violenta, não literal ou suscetível de causar danos reais (Relatório sobre o Discurso no Parlamento do Paquistão). Em outra ocasião, a maioria do Comitê determinou que uma expressão controversa de opinião sobre a imigração não constituía discurso de ódio, pois não continha um ataque direto a um grupo com base em uma característica protegida (Comentários de Políticos sobre Mudanças Demográficas). Nos dois casos, concluímos que o conteúdo, embora possivelmente ofensivo para alguns, constituía discurso político protegido e deveria permanecer ativo.

Nossa instrução para a Meta foi inequívoca: e a remoção de conteúdo relacionado à política, especialmente durante períodos eleitorais, for considerada, deverá ser para prevenir ou mitigar danos genuínos no mundo real. É essencial garantir o direito dos eleitores de ouvir as opiniões dos políticos. É essencial garantir o direito dos eleitores de ouvir as opiniões dos políticos.


Os desafios para proteger as eleições online

Os desafios à integridade eleitoral e à preservação das democracias devem ser tratados com extrema seriedade. Esses desafios vão desde o incitamento à violência por parte de líderes políticos até a disseminação de desinformação, que pode minar a confiança nos processos eleitorais. As escolhas de design feitas pelas plataformas muitas vezes exacerbaram questões relacionadas à desinformação ou incentivaram tais ações, e o aumento da IA generativa representa uma ameaça adicional nesse cenário. É por isso que um compromisso sólido com a transparência é fundamental. Os usuários e outras partes interessadas devem acompanhar as ações que as empresas estão tomando para combater esses problemas e se estão aprendendo com os erros do passado.

Violência e intimidação por parte de líderes políticos

Embora a liberdade de expressão seja geralmente protegida pelo direito internacional dos direitos humanos, pode ser limitada em circunstâncias específicas. As eleições e as transições políticas muitas vezes estão sujeitas a crescentes tensões, e as redes sociais geralmente são utilizadas em contextos em que há uma ameaça maior de violência. Em 2021, analisamos a questão da violência pós-eleitoral ao considerar se a Meta estava correta em suspender o ex-presidente dos EUA, Donald Trump, de suas plataformas após os tumultos de 6 de janeiro no Capitólio dos EUA (Suspensão do Ex-presidente Trump).

Também analisamos líderes que incitam a violência em outros ambientes eleitorais, como no caso do Discurso do General Brasileiro. Nas duas decisões, concluímos que a Meta deveria ter agido com mais rapidez contra o estímulo ou a legitimação da violência. Fizemos a seguinte recomendação: durante períodos de alto risco de violência, tais mensagens não devem ser protegidas sob o pretexto do direito de protesto. Além disso, na decisão referente ao Brasil, afirmamos que a remoção de conteúdo de postagens individuais é relativamente ineficaz quando faz parte de uma ação coordenada para perturbar os processos democráticos. As plataformas precisam aprimorar a preparação e a resposta a tais crises.

As iniciativas de integridade eleitoral, que buscam garantir a equidade do processo de votação, e os protocolos de crise, que estabelecem as melhores práticas a serem seguidas pelas plataformas durante eventos extremos, são soluções fundamentais. Nas duas decisões acima, nossa recomendação foi que a Meta estabelecesse uma estrutura para responder a eventos de alto risco. Em resposta, a Meta criou um Protocolo de Política de Crise, uma política que orienta sobre como reagir diante de crises quando os processos regulares não são suficientes para evitar danos. Essa ferramenta pode ser aplicada a controvérsias eleitorais, como disputas processuais e resultados contestados, que frequentemente são situações de crise em rápida evolução. Na decisão referente ao Brasil, também recomendamos que a Meta implemente uma estrutura para avaliar e relatar publicamente seus esforços de integridade eleitoral em escala global. Isso inclui adotar métricas de sucesso e fornecer dados relevantes para aprimorar seu sistema geral de moderação de conteúdo, tanto para conteúdo orgânico quanto pago. A Meta se comprometeu a fazer isso no final de 2024. Dada a urgência da questão, estamos acompanhando de perto esse compromisso. As informações obtidas com essas métricas deverão ajudar a Meta a direcionar seus recursos durante os períodos eleitorais, além de aproveitar o conhecimento local para lidar com campanhas coordenadas que visam perturbar os processos democráticos. Além disso, permitirão criar canais de feedback eficazes e determinar medidas apropriadas quando a violência política persiste após o encerramento formal de uma eleição.

É evidente que o incitamento à violência nem sempre está restrito ao período que antecede ou segue as eleições. No caso envolvendo o Primeiro-ministro Cambojano, exigimos que a Meta removesse uma postagem violadora do então primeiro-ministro Hun Sen, que incitava violência contra a oposição política, meses antes das eleições programadas. Embora houvesse um interesse público em permitir que os cambojanos ouvissem seu primeiro-ministro por meio das redes sociais antes das eleições, a intensidade da repressão contra as forças da oposição levou o Comitê a solicitar à Meta a suspensão da página de Hun Sen no Facebook e da conta no Instagram por seis meses. Diante da situação volátil no Camboja, chegamos à conclusão de que as ameaças à oposição política feitas pelo primeiro-ministro não poderiam ser justificadas como conteúdo “interessante” e apresentavam uma alta probabilidade de causar danos físicos.

Infelizmente, a decisão final da Meta de não suspender a conta de Hun Sen estabelece um precedente potencialmente perigoso para governantes de outros países que recorrem frequentemente às plataformas da Meta para ameaçar e intimidar críticos. Vários grupos internacionais de direitos humanos se manifestaram, solicitando que a Meta seguisse as recomendações do Comitê.

Dada a gravidade dos riscos, estamos acompanhando de perto como a Meta implementa as outras recomendações que fizemos nesses casos e continuaremos a responsabilizar a empresa pelo cumprimento de suas promessas.

No caso Suspensão do Ex-presidente Trump, solicitamos que a Meta explique claramente seu processo de punições e penalidades para contas que violam gravemente as políticas de conteúdo, algo sobre o qual a empresa se tornou muito mais transparente desde então. No caso relacionado ao Primeiro-ministro Cambojano, também recomendamos à Meta a revisão de sua política de restrição de contas de líderes políticos, não apenas durante crises, mas também em situações em que o Estado suprime preventivamente a expressão política com violência ou ameaças de violência. Além disso, destacamos que a Meta deveria atualizar seus sistemas de priorização de revisão, garantindo que o conteúdo potencialmente violador de chefes de estado seja revisado de forma consistente e rápida por especialistas, e removido quando representar um risco de provável dano iminente.

Recentemente, exploramos outra fronteira dos limites do discurso político, desta vez nos casos da Campanha Eleitoral de 2023 na Grécia. Nossa decisão majoritária apoiou a remoção de duas postagens por violar a política Indivíduos e Organizações Perigosas da Meta. Para proteger a integridade das eleições, concordamos que era justificado a Meta restringir a liberdade de candidatos políticos e partidos que fazem campanha nas plataformas da empresa, especialmente ao fazer referência a endossos e símbolos de indivíduos e grupos proibidos com histórico de envolvimento em violência. Entretanto, observamos que as regras da Meta poderiam ser mais claras, uma vez que a empresa não divulga uma lista de entidades designadas como perigosas. Após essa decisão, o Supremo Tribunal da Grécia proibiu o partido político (os espartanos) de participar nas próximas eleições da UE, argumentando que havia “oferecido o seu partido como um manto” ao antigo porta-voz do banido Aurora Dourada.

Por fim, também reconhecemos que há casos em que funcionários governamentais e políticos, incluindo funcionários eleitorais, são alvo de assédio ou ataques. Para abordar parcialmente essa questão, nossa opinião consultiva política sobre Compartilhamento de Informações Residenciais Privadas recomendou à Meta que impeça o compartilhamento de tais informações quando protestos estão sendo organizados nas proximidades da residência privada de um alto funcionário do governo e quando não há medidas de segurança adequadas para proteger as pessoas que estão no interior.

Riscos de aplicação excessiva

O período que antecede e durante as eleições, bem como as subsequentes posses e transferências de poder, muitas vezes envolvem comunicações intensificadas e compartilhamento de informações entre os usuários. Estes são os momentos cruciais: quando a Meta e outras empresas têm uma responsabilidade ampliada na aplicação correta de suas políticas de conteúdo. Vários de nossos casos levaram a Meta a aprimorar seu histórico de erros na aplicação de políticas.

Durante os períodos eleitorais, um problema recorrente é a influência governamental sobre as plataformas, forçando a remoção de conteúdos legais (muitas vezes) sob pretexto de violação das políticas dessas plataformas. Como requisito mínimo, insistimos que a Meta informe aos usuários quando seu conteúdo for removido devido a uma solicitação governamental, o que a empresa faz agora. No caso UK Drill Music, no qual descobrimos que a Meta havia removido músicas legais, que não violavam efetivamente as políticas da plataforma, a pedido de uma força policial, recomendamos que a empresa adotasse uma abordagem globalmente consistente para lidar com solicitações do governo para remoção de conteúdo. Também sugerimos que a empresa tornasse públicos os dados sobre essas solicitações e avaliasse preconceitos sistêmicos nas decisões de moderação de conteúdo resultantes de solicitações por parte do governo. Essa recomendação de ampliar a transparência em relação aos pedidos de remoção do governo e torná-los públicos também foi ressaltada no caso relacionado ao Isolamento de Öcalan e na nossa opinião consultiva política Remoção de Desinformação sobre a COVID-19.

Uma questão comum que identificamos nas apelações dos usuários é a dificuldade que a empresa enfrenta em diferenciar entre críticas políticas figurativas e ameaças reais proibidas pela política Violência e Incitação. O caso do Slogan de Protesto no Irã destacou nossas preocupações significativas de que tal aplicação excessiva poderia prejudicar seriamente os movimentos de protesto voltados para a promoção dos direitos humanos. Nesse caso, decidimos que um slogan específico (“marg bar Khamenei”, traduzido como “morte a Khamenei”, o Líder Supremo do Irã), que estava sendo usado nos protestos em andamento no país, deveria ser permitido. Antes de selecionarmos esse caso, uma quantidade significativa de conteúdo com tal slogan foi removida por supostamente incitar à violência. Uma interpretação excessivamente literal da política impediu os manifestantes de expressarem nas plataformas da Meta seu descontentamento com o regime. Em nossa decisão, destacamos que declarações políticas retóricas, que não representam uma ameaça verossímil, não violam a política e não necessitam de uma exceção à política de interesse jornalístico. Também sugerimos modificações na Norma Comunitária sobre Violência e Incitação para proteger o discurso político claramente retórico durante os protestos, tudo com o objetivo de permitir que as pessoas expressem livremente críticas aos governos.

A política Indivíduos e Organizações Perigosas da Meta, que proíbe a glorificação, apoio e representação de indivíduos, grupos e eventos considerados perigosos pela empresa, frequentemente resulta em aplicação excessiva. Embora a política tenha uma intenção válida, na prática levou à remoção injusta de conteúdos postados por usuários que abordavam situações envolvendo esses grupos, defendiam os direitos humanos ou faziam analogias inequívocas.

Em uma recente opinião consultiva política, na qual exploramos questões políticas desafiadoras que a Meta está enfrentando, aconselhamos a empresa a abandonar sua suposição de que a palavra “shaheed” (traduzida livremente como “mártir” em um sentido) sempre denota elogio ao se referir a indivíduos designados (Referindo-se a Indivíduos Perigosos Designados como “Shaheed”). Essa medida visa assegurar uma aplicação mais precisa daquilo que a Meta descreve como sua “palavra mais moderada”, promovendo assim um ambiente em que a expressão política seja mais respeitada. Além disso, solicitamos esclarecimentos adicionais e, o que é mais importante, pedimos à Meta que explicasse claramente aos usuários como seu sistema automatizado é utilizado para prever possíveis violações de conteúdo dessa política.

Todas as recomendações mencionadas acima destacaram as responsabilidades das plataformas de mídia social em relação aos direitos humanos, visando lidar com os efeitos negativos sobre os indivíduos e a sociedade, em vez de serem influenciadas por interesses políticos ou comerciais.

Desinformação

A desinformação pode adotar várias formas, cada uma com seus próprios danos específicos em relação às eleições e à preservação do espaço democrático. Isso pode alimentar a polarização e minar a confiança na integridade de um processo democrático. Conteúdos enganosos também têm o poder de semear desconfiança nas instituições governamentais, na sociedade civil e nos meios de comunicação social. Por outro lado, a questão de saber quais informações são verdadeiras ou falsas (ou enganosas) muitas vezes faz parte legítima do desacordo democrático.  Por vezes, governos e poderosos intervenientes usam a existência de desinformação como pretexto para suprimir verdades inconvenientes. Essa é a razão pela qual a tentativa de combater a desinformação prejudicial é complexa, especialmente durante os períodos eleitorais, quando essas questões se tornam particularmente pertinentes.

Amplificação e coordenação da desinformação

Diversos atuantes — incluindo governos — utilizam as redes sociais para minar os processos democráticos, com táticas para disseminar desinformação em constante evolução. Apesar dos esforços da Meta para detectar e eliminar contas fraudulentas que tentam interferir nas eleições e de sua colaboração com verificadores de fatos para identificar informações falsas ou enganosas, campanhas coordenadas de desinformação persistem e se multiplicam.

Apesar das tentativas de conter comportamentos inautênticos, as decisões de design e políticas da Meta, especialmente em relação ao seu feed de notícias e algoritmos de recomendação, têm facilitado a disseminação de narrativas de desinformação promovidas por redes de influenciadores, resultando ocasionalmente em violência no mundo real. Essa situação nos levou, em parte, a sugerir que a Meta conduzisse uma revisão completa para entender como essas escolhas contribuíram para a disseminação da narrativa de fraude eleitoral e as tensões que culminaram nas invasões ao Capitólio dos EUA em janeiro de 2021 (Suspensão do Ex-presidente Trump). Também sugerimos que a Meta explore medidas para diminuir a propagação de conteúdo prejudicial amplificado, tanto orgânico quanto impulsionado por algoritmos, como vimos nos casos relacionados à (Cura Alegada para COVID e opinião consultiva política sobre Remoção de Desinformação sobre COVID-19). Também enfatizamos a importância de a Meta conduzir pesquisas para identificar contas que amplificam ou coordenam campanhas de desinformação sobre saúde, conforme abordado na mesma opinião consultiva política. É igualmente essencial aplicar essas considerações à desinformação durante os períodos eleitorais. Destacamos a necessidade de os usuários terem meios para contestar as decisões da Meta quando a empresa rotula seu conteúdo com base na classificação de um verificador de fatos como “falso”, “enganoso” ou “alterado” (Vídeo Alterado do Presidente Biden).

Mídia manipulada

Os usuários podem gerar deliberadamente mídia manipulada que mina a integridade dos processos democráticos e agrava os conflitos políticos. Embora a inteligência artificial (IA) generativa possa agravar a situação, métodos mais simples, como “falsificações baratas”, são mais frequentes e podem ser igualmente danosos. Conforme mencionado anteriormente, no caso Vídeo Alterado do presidente Biden, recomendamos à Meta revisar sua política Mídia Manipulada para abordar várias lacunas na aplicação. Desde então, a Meta anunciou que implementará todas as recomendações do Comitê.

Publicidade política e marketing de influência

A publicidade paga em plataformas de redes sociais frequentemente obscurece a verdadeira origem desse conteúdo, o que pode ser explorado como parte de campanhas de desinformação. Atualmente, a Meta aborda questões de atribuição exigindo que os anúncios mostrem um rótulo “Pago por”. Os anúncios políticos devem, no mínimo, seguir os mesmos Padrões da Comunidade que se aplicam a todo o conteúdo nas plataformas da Meta, além de respeitar sua política de anúncios. Entretanto, houve preocupações levantadas pelas partes interessadas sobre a aplicação inconsistente dos Padrões da Comunidade da Meta no que diz respeito aos anúncios políticos. Anteriormente, tomamos conhecimento de relatos que indicavam anúncios políticos usando declarações manifestamente falsas para minar a legitimidade das eleições no Brasil nas plataformas da Meta (Discurso do General Brasileiro). Segundo um grupo da sociedade civil, observaram-se acontecimentos similares durante as eleições em Myanmar e no Quênia. A nossa recomendação de estabelecer um quadro com métricas de sucesso para avaliar a eficácia dos esforços de integridade eleitoral da empresa foi, em parte, uma resposta a esse fenômeno. Essa abordagem ajudaria a Meta a equilibrar a manutenção de críticas legítimas às eleições como parte de um debate público saudável e a remoção de conteúdos que representam tentativas reais de minar um processo de votação.

As mensagens políticas, inclusive aquelas compartilhadas por microinfluenciadores e nanoinfluenciadores, também podem disseminar narrativas projetadas para influenciar a opinião pública sobre candidatos políticos ou pesquisas eleitorais. Esse desenvolvimento desafia ainda mais nossa concepção do que constitui conteúdo autêntico e o que não constitui. A definição de anúncios sobre questões sociais, eleições ou política da Meta fornece alguns detalhes, mas o termo “questões sociais” por si só é amplo. Abrange “temas sensíveis que são objeto de intenso debate, têm potencial para influenciar o resultado de uma eleição ou estão relacionados à legislação existente ou proposta”.

Em parte em resposta à nossa recomendação (Vídeo Alterado do Presidente Biden) para uma melhor informação aos usuários sobre as origens da mídia manipulada, a Meta agora também exige que os anunciantes divulguem o uso de IA na criação ou alteração de anúncios sobre questões políticas ou sociais. Isso se aplica a conteúdos “criados ou alterados digitalmente para representar uma pessoa real dizendo ou fazendo algo que não disse ou fez”.


Conclusão: lições importantes para o setor

Desde a alta proteção do discurso político até as medidas que as plataformas podem adotar para combater a propagação de falsidades online, demonstramos nosso compromisso contínuo com a proteção das eleições por meio das nossas decisões em casos emblemáticos e as recomendações que fazemos, que refletem as melhores práticas na moderação de conteúdo. Com base na compreensão coletiva adquirida por meio deste trabalho contínuo sobre eleições e outros casos relacionados, algumas lições importantes emergem para aqueles que se empenham em manter a integridade eleitoral nas plataformas de redes sociais: Essas diretrizes são voltadas principalmente para a indústria, mas visam também inspirar outras partes interessadas a exercerem influência na responsabilização das empresas.

  • As políticas são uma parte da história, mas a aplicação é igualmente essencial durante situações de rápida escalada. Para isso, é essencial que as empresas de redes sociais aloquem recursos adequados para a moderação de conteúdo antes, durante e após as eleições, em uma escala global, sem levar em consideração quaisquer interesses políticos ou econômicos nos países afetados. Eleições contestadas podem facilmente levar a crises e conflitos. As empresas de redes sociais devem ter um entendimento substancial da língua e do contexto local para informar suas políticas e práticas eleitorais globais de maneira eficaz.
  • As empresas devem estabelecer padrões globais consistentes em todas as plataformas, e deve haver responsabilidade quando esses padrões não são cumpridos. É importante que as empresas não ignorem as dezenas de eleições realizadas em países ou mercados considerados menos lucrativos, uma vez que é nessas circunstâncias que as consequências para os direitos humanos da falta de implementação dessas normas podem ser mais significativas. Embora os recursos sejam limitados, os danos causados pela desinformação não controlada ou pelo incitamento à violência são igualmente graves em regiões frequentemente negligenciadas. A instabilidade em uma área pode alimentar a instabilidade em outra, encorajando intervenientes mal-intencionados em diferentes localidades.
  • O discurso político que incita a violência não pode passar despercebido. É essencial priorizar uma escalada mais rápida do conteúdo para revisão humana e impor sanções severas contra abusadores reincidentes. Essa questão ganha ainda mais importância quando se considera o conteúdo divulgado por chefes de estado e membros seniores do governo, pois suas palavras têm o potencial de incitar à violência. Embora a liberdade de acesso à informação seja crucial, conteúdos que ameaçam prejudicar o processo eleitoral devem ser priorizados para revisão humana e, se necessário, removidos rapidamente, superando assim o interesse público. Se os políticos persistirem em violar regras, talvez seja necessário considerar a suspensão de suas contas em plataformas online. Esse aspecto se torna ainda mais crítico durante os períodos eleitorais, quando a capacidade de amplificar danos, ameaças e intimidação é mais acentuada.
  • As plataformas devem proteger-se contra os perigos de permitir que os governos utilizem a desinformação, ou razões vagas ou não especificadas, para suprimir o discurso crítico. Esse ponto é especialmente relevante em contextos eleitorais e em torno de assuntos de interesse público.
  • As políticas que restringem a liberdade de expressão devem detalhar os danos reais que estão tentando prevenir, garantindo que sejam necessárias e proporcionais aos danos identificados. Lidar com informações incorretas e a desinformação envolve equilibrar a liberdade de expressão e o acesso à informação, fundamentais para os processos democráticos, com a proteção das pessoas contra os danos do mundo real, especialmente a violência. As políticas devem refletir os riscos para a segurança física e a proteção, bem como os riscos de intimidação, exclusão e silenciamento. O discurso que não causa danos não deve ser reprimido sob o pretexto de desinformação.
  • As campanhas eleitorais sempre envolveram mentiras, mas os avanços tecnológicos estão facilitando, tornando mais barato e mais desafiador detectar a propagação de informações falsas. É necessário estabelecer padrões claros para conteúdos gerados por IA, como “deepfakes”, e outros tipos de conteúdo manipulado, como “falsificações baratas”. Se algo é prejudicial, deve ser tratado como tal. O ritmo acelerado das mudanças tecnológicas pode resultar em políticas desatualizadas, criando lacunas que permitem a proliferação de abusos. É essencial que as empresas tenham clareza sobre o objetivo final ou dano que estão tentando prevenir ao conceber políticas e processos, consultando partes interessadas globais como parte desse processo.
  • É fundamental garantir uma melhor proteção para jornalistas, grupos da sociedade civil e a oposição política contra o abuso na Internet, bem como contra a aplicação excessiva por parte das empresas de redes sociais. É fundamental que as empresas de mídia social tomem como prioridade garantir que os oponentes políticos e os atores cívicos possam se expressar, especialmente em países em que a liberdade de expressão é sistematicamente reprimida, como parte de um processo eleitoral justo. Os manifestantes e outras pessoas que criticam pacificamente seus governos devem ser protegidos. Os pedidos do governo para remover conteúdo devem ser examinados tendo em mente considerações de direitos humanos. Encontrar o equilíbrio certo durante uma crise não é fácil, mas estabelecer políticas consistentes para lidar com essas situações, juntamente com a prestação de apoio e formação adicionais aos moderadores, são os primeiros passos importantes.
  • Transparência é fundamental, especialmente quando se trata de preservar a integridade eleitoral. É essencial que as pessoas possam identificar claramente a origem da desinformação e de outros conteúdos nocivos, compreender a forma como são apresentados e perceber o impacto que podem causar. As empresas devem ser transparentes sobre as medidas que tomam para prevenir danos e os erros que cometem e definir claramente padrões sobre como podem melhorar. É importante comprometer-se com uma maior transparência sobre os pedidos de remoção apoiados pelo Estado, os quais têm o potencial de silenciar indevidamente os oponentes políticos.
  • As campanhas coordenadas destinadas a espalhar desinformação ou incitar a violência para minar os processos democráticos devem ser tratadas como prioridade. Essas campanhas prejudicam a confiança nos processos democráticos, dificultando a obtenção de informações precisas. Também facilitam o assédio contra aqueles que expressam opiniões políticas contrárias e promovem falsidades como se fossem verdades estabelecidas. As empresas de redes sociais precisam aprimorar suas estratégias e políticas para evitar a amplificação de narrativas de desinformação.

Reconhecimentos

Este documento foi desenvolvido pelos membros do Comitê de Supervisão Michael McConnell, Pamela San Martin e Afia Asantewaa Asare-Kyei, e revisado por todos os Membros do Comitê. Este esforço colaborativo teve contribuições de: Jenny Domino, Diretora Sênior de Casos e Políticas, e Carly Miller, Diretora de Dados e Implementação, com edição e aprovações de: Simona Sikimic, Gerente de Comunicações e Engajamento, Neena Dhillon, Líder Editorial e de Conteúdo, e Andrew Smith, Chefe de Caso e Política. 

Retornar à liderança inovadora