O Comitê de Supervisão revoga a decisão da Meta no caso “Vídeo após ataque a igreja na Nigéria”
14 de Dezembro de 2022
O Comitê de Supervisão revogou a decisão da Meta de remover um vídeo do Instagram que mostrava o resultado de um ataque terrorista na Nigéria. O Comitê concluiu que a restauração da publicação com uma tela de aviso protege a privacidade das vítimas e permite a discussão de eventos que alguns estados podem querer suprimir.
Sobre o caso
Em 5 de junho de 2022, um usuário do Instagram na Nigéria publicou um vídeo que mostrava corpos ensanguentados imóveis no chão. Aparentemente, trata-se do resultado de um ataque terrorista a uma igreja no sudoeste da Nigéria, no qual pelo menos 40 pessoas foram assassinadas e muitas outras feridas. O conteúdo foi publicado no mesmo dia do ataque. Os comentários na publicação incluíam orações e declarações sobre a segurança na Nigéria.
Os sistemas automatizados da Meta analisaram o conteúdo e aplicaram uma tela de aviso. No entanto, o usuário não foi alertado, já que os usuários do Instagram não recebem notificações quando são aplicadas telas de aviso.
Posteriormente, o usuário adicionou uma legenda ao vídeo. Ela descrevia o incidente como “sad” (triste), e usava várias hashtags, incluindo referências a colecionadores de armas de fogo, alusões ao som de uma arma de fogo e o jogo de ação em pessoa “airsoft” (em que várias equipes competem com armas simuladas). O usuário tinha incluído hashtags semelhantes em muitas outras publicações.
Pouco tempo depois, um dos bancos de dados do Serviço de Correspondência de Mídias da Meta, um “banco de dados de escalonamentos”, identificou e removeu o vídeo. Os bancos de dados do Serviço de Correspondência de Mídias têm a capacidade de fazer correspondências automáticas entre publicações de usuários e conteúdos que tenham sido considerados anteriormente como violadores. Os conteúdos em um “banco de dados de escalonamentos” foram considerados como violadores por equipes internas especializadas da Meta. Todo conteúdo correspondente é identificado e imediatamente removido.
O usuário fez uma apelação da decisão junto à Meta, e um analista humano manteve a remoção. O usuário, então, fez uma apelação ao Comitê.
Quando o Comitê aceitou o caso, a Meta analisou o conteúdo do “banco de dados de escalonamentos”, concluiu que era não violador e o removeu. No entanto, ela manteve a decisão de remover a publicação neste caso, alegando que as hashtags podiam ser interpretadas como uma “glorificação da violência e minimização do sofrimento das vítimas”. A Meta considerou que isso viola várias políticas, incluindo a política de Conteúdo Violento e Explícito, que proíbe observações sádicas.
Principais conclusões
A maioria do Comitê considera que a restauração desse conteúdo no Instagram é coerente com os Padrões da Comunidade, os valores e as responsabilidades para com os direitos humanos da Meta.
A Nigéria está vivenciando uma série contínua de ataques terroristas, e o governo do país suprimiu a cobertura de alguns deles, embora não pareça que o tenha feito com relação ao ataque de 5 de junho. O Comitê concorda que, em contextos desse tipo, a liberdade de expressão é particularmente importante.
Quando as hashtags não são levadas em consideração, o Comitê é do parecer unânime de que deva ser aplicada uma tela de aviso ao vídeo. Isso protegeria a privacidade das vítimas, algumas das quais têm o rosto visível, sem deixar de respeitar a liberdade de expressão. O Comitê distingue esse vídeo da imagem do caso “Poema russo”, que era significativamente menos explícita, no qual o Comitê concluiu que não era necessária uma tela de aviso. Ele o distingue também do vídeo do caso “Vídeo explícito do Sudão”, que era significativamente mais explícito, no qual o Comitê concordou com a decisão da Meta de restaurar o conteúdo com uma tela de aviso, aplicando uma “tolerância a conteúdo de interesse jornalístico”, que permite conteúdo que normalmente seria violador.
A maioria do Comitê considera que a balança ainda pesa mais do lado favorável à restauração do conteúdo, mesmo levando-se em consideração as hashtags, já que estas geram conscientização e não são sádicas. O uso de hashtags é comum para promover uma publicação dentro de uma comunidade. Isso é encorajado pelos algoritmos da Meta, portanto, a empresa deveria agir com cautela ao atribuir más intenções ao seu uso. A maioria observa que a Meta não concluiu que essas hashtags sejam usadas como ridicularização disfarçada. Os usuários que comentaram a publicação mostraram compreender que a sua intenção era de conscientizar, e as respostas do autor da publicação mostravam empatia com relação às vítimas.
Uma minoria do Comitê considera que adicionar hashtags relacionadas a tiroteios ao vídeo pode ser interpretado como sadismo e pode traumatizar os sobreviventes ou os parentes das vítimas. Uma tela de aviso não reduziria esse efeito. Dado o contexto de violência terrorista na Nigéria, a Meta está justificada em agir com cautela, especialmente quando as vítimas são identificáveis. Portanto, a minoria considera que essa publicação não deva ser restaurada.
O Comitê considera que a política de Conteúdo Violento e Explícito deva ser esclarecida. A política proíbe “observações sádicas”, mas a definição desse termo incluída na orientação interna para moderadores é mais ampla do que no uso comum.
O Comitê observa que o conteúdo fora removido originalmente porque correspondia a um vídeo que tinha sido adicionado por engano ao banco de dados de escalonamentos. Imediatamente após uma crise, a Meta estava provavelmente tentando assegurar que um conteúdo violador não se disseminasse em suas plataformas. No entanto, agora a empresa deve assegurar que o conteúdo removido por engano seja restaurado e que as advertências resultantes sejam revertidas.
A decisão do Comitê de Supervisão
O Comitê de Supervisão revoga a decisão da Meta de remover a publicação e considera que ela deva ser restaurada à plataforma com uma tela de aviso de “conteúdo perturbador”.
O Comitê recomenda que a Meta faça o seguinte:
- Revise o texto da política pública de Conteúdo violento e explícito para assegurar que ela seja coerente com as orientações internas para moderadores.
- Notifique os usuários do Instagram quando uma tela de aviso for aplicada ao conteúdo deles e forneça o fundamento da política específica que justifica a aplicação.
* A decisão completa está sendo traduzida para Iorubá. O Comitê publicará a tradução para Iorubá em seu site assim que possível em 2023.
Mais informações:
Para ler a decisão na íntegra, clique aqui.
Para ler um resumo dos comentários públicos sobre o caso, clique no anexo abaixo.