Aumentar o impacto que causamos por meio de recomendações de políticas
Como parte de nossas decisões de casos e opiniões consultivas políticas, fazemos recomendações sobre como a Meta pode melhorar as políticas de conteúdo, sistemas de aplicação e transparência geral para bilhões de usuários do Facebook, Instagram e Threads. As mudanças que a Meta fez em resposta já estão tornando a empresa mais transparente e ajudando-a a tratar os usuários de forma mais justa. As nossas recomendações levaram à criação de novas políticas e procedimentos de aplicação, além de facilitar a compreensão daqueles que já existiam. Muitas das nossas propostas ecoam ou baseiam-se em apelos que grupos da sociedade e outras partes interessadas têm feito há muitos anos: forçar a Meta a considerar e responder publicamente a apelos de ação de longa data.
Até o momento, fizemos mais de 250 recomendações à Meta. A empresa deve respondê-las publicamente dentro de 60 dias e nos atualizar sobre a implementação. Até agora, para cerca de 65% das recomendações, a Meta as implementou total ou parcialmente, ou relatou progresso referente à implementação.
Seguir as nossas recomendações, desde mensagens mais claras aos usuários até novos protocolos políticos, está causando um impacto real e crescente na forma como as pessoas e as comunidades são tratadas online.
Watch Our Video On The Board's ImpactInformar às pessoas porque o conteúdo foi removido
Acreditamos que fornecer às pessoas mais informações sobre como e por que o conteúdo delas foi removido criará confiança e aumentará a justiça. No passado, os usuários não entendiam exatamente qual regra violaram. Em resposta às nossas recomendações, a empresa incluiu novas mensagens a nível global, informando às pessoas a política específica que violaram no âmbito das regras sobre discurso de ódio, indivíduos e organizações perigosas, e bullying e assédio. A Meta também observou que fornecer aos usuários mais informações sobre quais violações de discurso de ódio levaram à remoção do conteúdo resultou em um aumento estatisticamente significativo na forma como os usuários percebem a transparência e a legitimidade da empresa.
Identificar o contexto do câncer de mama
Para que as publicações que aumentam a conscientização sobre os sintomas do câncer de mama não sejam sinalizadas de maneira equivocada para análise, fizemos uma recomendação pedindo para a Meta melhorar a detecção automatizada de imagens com sobreposição de texto. Em resposta, a empresa aperfeiçoou as técnicas de identificação do Instagram para conteúdo sobre câncer de mama. Além de melhorar a detecção baseada em sobreposição de texto, a Meta também lançou um classificador de conteúdo de saúde para identificar melhor o conteúdo de imagens sobre câncer de mama. Entre esses dois classificadores, milhares de publicações, que antes teriam sido removidas automaticamente, foram enviadas para revisão humana. Durante dois períodos de 30 dias em 2023, por exemplo, isso equivaleu a 3.500 conteúdos enviados para revisão humana, em vez de serem removidos automaticamente. Essas mudanças estão ajudando a preservar o conteúdo compartilhado por pacientes e ativistas do câncer de mama.
Empoderar os manifestantes iranianos
Para proteger melhor o discurso político no Irã, recomendamos que a Meta permitisse que a frase “Marg bar Khamenei” (“Morte ao [líder supremo do Irã] Khamenei”) fosse compartilhada no contexto dos protestos que começaram em 2022 e para reverter as remoções desse tipo de conteúdo. Ao comparar publicações (no mesmo período nas mesmas páginas, grupos e contas públicas do Instagram) antes e depois da recomendação ser implementada pela Meta, vimos que aquelas que continham a frase “Morte a Khamenei” aumentaram quase 30%.
Tornar o sistema de penalidades da Meta mais justo e claro
Juntamente com muitos grupos da sociedade civil, temos levantado regularmente preocupações sobre o sistema de penalidades da Meta, refletindo a questão dos usuários serem colocados na “prisão do Facebook”. Solicitamos sempre maior transparência nessa área, insistindo que a empresa reformule o seu sistema de avisos e a explique aos usuários afetados o motivo da remoção do conteúdo. Desde então, a Meta tomou medidas para reformar o seu sistema de greves, proporcionando maior transparência sobre essa questão e às penalidades associadas. No entanto, ainda há espaço para melhorias. Na nossa decisão sobre Menção ao Talibã nas Reportagens de Notícias, pedimos maior transparência sobre as “greves severas”, porque a aplicação equivocada de violações graves levanta preocupações significativas para jornalistas e ativistas em particular.
Outras áreas de impacto no Comitê
- Tradução dos Padrões da Comunidade do Facebook para mais de 20 outros idiomas, falados por centenas de milhões de pessoas.
- Conclusão do lançamento global de novas mensagens informando às pessoas se a análise humana ou automatizada levou à remoção do conteúdo.
- Informação às pessoas quando o acesso ao conteúdo foi restrito após uma solicitação do governo.
- Criação de um Padrão da Comunidade sobre desinformação.
- Inclusão de um Protocolo de Política de Crise.
- Estabelecimento de uma nova equipe de coordenação de crises para promover supervisão exclusiva das operações durante crises iminentes e emergentes.