El Consejo asesor de contenido anuló la decisión de Meta en el caso sobre el video tras el ataque en una iglesia de Nigeria
14 de diciembre de 2022
El Consejo asesor de contenido anuló la decisión de Meta de eliminar un video de Instagram donde se mostraba el momento posterior a un ataque terrorista en Nigeria. El Consejo determinó que restaurar la publicación con una pantalla de advertencia protege la privacidad de las víctimas, al mismo tiempo que permite que se debatan hechos que algunos Estados pueden buscar suprimir.
Información sobre el caso
El 5 de junio de 2022, un usuario de Instagram en Nigeria publicó un video que mostraba cuerpos ensangrentados inmóviles sobre el piso. Parecía ser el momento posterior a un ataque terrorista en una iglesia en el suroeste de Nigeria, donde al menos 40 personas fueron asesinadas y muchas más resultaron heridas. El contenido se publicó el mismo día en que ocurrió el ataque. Los comentarios de la publicación incluían plegarias y afirmaciones sobre la seguridad en Nigeria.
Los sistemas automáticos de Meta revisaron el contenido y aplicaron una pantalla de advertencia. Sin embargo, no se avisó al usuario, ya que los usuarios de Instagram no reciben notificaciones cuando se aplican pantallas de advertencia.
Luego, el usuario agregó un texto donde describía el incidente como "triste" y usaba varios hashtags, entre otros, sobre coleccionistas de armas de fuego, el sonido de disparos y el juego de acción en vivo airsoft (donde los equipos compiten con armas falsas). El usuario había incluido hashtags similares en muchas otras publicaciones.
Poco tiempo después, uno de los bancos de Media Matching Service de Meta, un banco de escalamientos, identificó el video y lo eliminó. Los bancos de Media Matching Service pueden asociar automáticamente las publicaciones de los usuarios con contenido que se identificó como infractor en el pasado. El contenido en un banco de escalamientos es contenido que fue identificado como infractor por los equipos internos de especialistas de Meta. Cualquier contenido coincidente es identificado y eliminado de inmediato.
El usuario apeló la decisión a Meta y un revisor ratificó la eliminación. El usuario entonces apeló al Consejo.
Cuando el Consejo aceptó el caso, Meta revisó el contenido en el banco de escalamientos, determinó que no era infractor y lo eliminó. Sin embargo, mantuvo su decisión de eliminar la publicación en este caso, sosteniendo que los hashtags podían interpretarse como que exaltaban la violencia y minimizaban el sufrimiento de las víctimas. Meta determinó que se infringían muchas políticas, incluida la política de contenido violento y gráfico, que prohíbe los comentarios sádicos.
Conclusiones principales
Una mayoría del Consejo considera que restaurar este contenido en Instagram es coherente con las Normas comunitarias, los valores y las responsabilidades ante los derechos de humanos de Meta.
Nigeria está viviendo una serie de ataques terroristas constantes y el Gobierno nigeriano suprimió la cobertura de algunos de ellos, aunque no parece haberlo hecho en relación con el ataque del 5 de junio. El Consejo coincide en que, en dichos contextos, la libertad de expresión es particularmente importante.
Cuando los hashtags no se tienen en cuenta, el Consejo es unánime y considera que se debe aplicar una pantalla de advertencia en el video. De este modo, se protegería la privacidad de las víctimas, algunas de las cuales tienen los rostros visibles, al mismo tiempo que se respeta la libertad de expresión. El Consejo distingue este video de la imagen en el caso del poema ruso, que era mucho menos gráfica, donde determinó que una pantalla de advertencia no era necesaria. También lo distingue del contenido en el caso del video gráfico de Sudán, que era mucho más gráfico, donde coincidió con la decisión de Meta de restaurar el contenido con una pantalla de advertencia aplicando una concesión de interés periodístico, que permite el uso de contenido infractor.
Una mayoría del Consejo considera que la balanza sigue inclinada a favor de restaurar el contenido cuando se tienen en cuenta los hashtags, ya que generan conciencia y no son sádicos. Los hashtags se suelen usar para promover una publicación dentro de una comunidad, lo cual es impulsado por los algoritmos de Meta, de modo que la empresa debería ser cautelosa al atribuir malas intenciones a su uso. La mayoría nota que Meta no consideró que esos hashtags fueron usados como burlas encubiertas. Los comentarios de los usuarios en la publicación parecían entender que su finalidad era generar conciencia, y las respuestas del autor de la publicación eran empáticas con las víctimas.
Una minoría del Consejo considera que agregar hashtags relacionados con tiroteos al contenido parece sádico y podría traumatizar a los sobrevivientes o a los familiares de las víctimas. Una pantalla de advertencia no reduciría este efecto. Dado el contexto de violencia terrorista en Nigeria, la cautela de Meta está justificada, en especial cuando las víctimas se pueden identificar. La minoría, por lo tanto, considera que esta publicación no se debería restaurar.
El Consejo considera que la política de contenido violento y gráfico se debe aclarar. Esta política prohíbe comentarios sádicos, pero la definición de ese término incluida en las pautas internas para los moderadores es más amplia que su uso común.
El Consejo nota que el contenido fue eliminado en un principio porque coincidía con un video que había sido agregado por error al banco de escalamientos. En el momento inmediato posterior a una crisis, Meta probablemente intentaba garantizar que el contenido infractor no se difundiera en sus plataformas. Sin embargo, ahora la empresa debe garantizar que se restaure el contenido que se había eliminado por error y que se reviertan las faltas generadas.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar la publicación y considera que se debe restaurar en la plataforma con una pantalla de advertencia que indique que es contenido perturbador.
El Consejo recomendó a Meta:
- Revisar el lenguaje en la política de contenido violento y gráfico pública para garantizar que esté alineado con las pautas internas para los moderadores.
- Notificar a los usuarios de Instagram cuando se aplica una pantalla de advertencia sobre su contenido e indicar las bases de la política específicas para hacerlo.
* Actualmente la decisión completa se está traduciendo a yoruba. El Consejo publicará la traducción en yoruba en su sitio web lo antes posible en 2023.
Más información:
Para leer la decisión completa del caso, haz clic aquí.
Para leer una sinopsis de los comentarios del público sobre el caso, haz clic en el archivo adjunto a continuación.