Anulado
Video tras el ataque en una iglesia de Nigeria
El Consejo anuló la decisión de Meta de eliminar un video de Instagram donde se mostraba el momento posterior a un ataque terrorista en Nigeria.
Resumen del caso
El Consejo anuló la decisión de Meta de eliminar un video de Instagram donde se mostraba el momento posterior a un ataque terrorista en Nigeria. El Consejo determinó que restaurar la publicación con una pantalla de advertencia protege la privacidad de las víctimas, al mismo tiempo que permite que se debatan hechos que algunos Estados pueden buscar suprimir.
Información sobre el caso
El 5 de junio de 2022, un usuario de Instagram en Nigeria publicó un video que mostraba cuerpos ensangrentados inmóviles sobre el piso. Parecía ser el momento posterior a un ataque terrorista en una iglesia en el suroeste de Nigeria, donde al menos 40 personas fueron asesinadas y muchas más resultaron heridas. El contenido se publicó el mismo día en que ocurrió el ataque. Los comentarios de la publicación incluían plegarias y afirmaciones sobre la seguridad en Nigeria.
Los sistemas automáticos de Meta revisaron el contenido y aplicaron una pantalla de advertencia. Sin embargo, no se avisó al usuario, ya que los usuarios de Instagram no reciben notificaciones cuando se aplican pantallas de advertencia.
Luego, el usuario agregó un texto donde describía el incidente como "triste" y usaba varios hashtags, entre otros, sobre coleccionistas de armas de fuego, el sonido de disparos y el juego de acción en vivo airsoft (donde los equipos compiten con armas falsas). El usuario había incluido hashtags similares en muchas otras publicaciones.
Poco tiempo después, uno de los bancos de Media Matching Service de Meta, un "banco de escalamientos", identificó el video y lo eliminó. Los bancos de Media Matching Service pueden asociar automáticamente las publicaciones de los usuarios con contenido que se identificó como infractor en el pasado. El contenido en un "banco de escalamientos" es contenido que fue identificado como infractor por los equipos internos de especialistas de Meta. Cualquier contenido coincidente es identificado y eliminado de inmediato.
El usuario apeló la decisión a Meta y un revisor ratificó la eliminación. El usuario entonces apeló al Consejo.
Cuando el Consejo aceptó el caso, Meta revisó el contenido en el "banco de escalamientos", determinó que no era infractor y lo eliminó. Sin embargo, mantuvo su decisión de eliminar la publicación en este caso, sosteniendo que los hashtags podían interpretarse como que exaltaban la violencia y minimizaban el sufrimiento de las víctimas. Meta determinó que se infringían muchas políticas, incluida la política de contenido violento y gráfico, que prohíbe los comentarios sádicos.
Conclusiones principales
Una mayoría del Consejo considera que restaurar este contenido en Instagram es coherente con las Normas comunitarias, los valores y las responsabilidades en cuanto a los derechos de humanos de Meta.
Nigeria está viviendo una serie de ataques terroristas constantes y el Gobierno nigeriano suprimió la cobertura de algunos de ellos, aunque no parece haberlo hecho en relación con el ataque del 5 de junio. El Consejo coincide en que, en dichos contextos, la libertad de expresión es particularmente importante.
Cuando los hashtags no se tienen en cuenta, el Consejo es unánime y considera que se debe aplicar una pantalla de advertencia en el video. De este modo, se protegería la privacidad de las víctimas, algunas de las cuales tienen los rostros visibles, al mismo tiempo que se respeta la libertad de expresión. El Consejo distingue este video de la imagen en el caso del poema ruso, que era mucho menos gráfica, donde determinó que una pantalla de advertencia no era necesaria. También lo distingue del contenido en el caso del video gráfico de Sudán, que era mucho más gráfico, donde coincidió con la decisión de Meta de restaurar el contenido con una pantalla de advertencia aplicando una concesión de interés periodístico, que permite el uso de contenido infractor.
Una mayoría del Consejo considera que la balanza sigue inclinada a favor de restaurar el contenido cuando se tienen en cuenta los hashtags, ya que generan conciencia y no son sádicos. Los hashtags se suelen usar para promover una publicación dentro de una comunidad, lo cual es impulsado por los algoritmos de Meta, de modo que la empresa debería ser cautelosa al atribuir malas intenciones a su uso. La mayoría nota que Meta no consideró que esos hashtags fueron usados como burlas encubiertas. Los comentarios de los usuarios en la publicación parecían entender que su finalidad era generar conciencia, y las respuestas del autor de la publicación eran empáticas con las víctimas.
Una minoría del Consejo considera que agregar hashtags relacionados con tiroteos al contenido parece sádico y podría traumatizar a los sobrevivientes o a los familiares de las víctimas. Una pantalla de advertencia no reduciría este efecto. Dado el contexto de violencia terrorista en Nigeria, la cautela de Meta está justificada, en especial cuando las víctimas se pueden identificar. La minoría, por lo tanto, considera que esta publicación no se debería restaurar.
El Consejo considera que la política de contenido violento y gráfico se debe aclarar. Esta política prohíbe comentarios sádicos, pero la definición de ese término incluida en las pautas internas para los moderadores es más amplia que su uso común.
El Consejo nota que el contenido fue eliminado en un principio porque coincidía con un video que había sido agregado por error al banco de escalamientos. Inmediatamente después de una crisis, Meta probablemente intentaba garantizar que el contenido infractor no se difundiera en sus plataformas. Sin embargo, ahora la empresa debe garantizar que se restaure el contenido que se había eliminado por error y que se reviertan las faltas generadas.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar la publicación y considera que se debe restaurar en la plataforma con una pantalla de advertencia que indique que es contenido perturbador.
El Consejo le recomendó a Meta:
- Revisar el lenguaje en la política de contenido violento y gráfico pública para garantizar que esté alineado con las pautas internas para los moderadores.
- Notificar a los usuarios de Instagram cuando se aplica una pantalla de advertencia sobre su contenido e indicar las bases de la política específicas para hacerlo.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
Meta eliminó una publicación de Instagram que contenía un video con un texto que mostraba el momento posterior a un ataque en una iglesia en Nigeria por infringir sus políticas de contenido violento y gráfico, bullying y acoso, y personas y organizaciones peligrosas. Una mayoría del Consejo considera que el contenido se debe restaurar en la plataforma con una pantalla de advertencia que indique que es contenido perturbador y que requiera que los usuarios hagan clic en ella para ver el video. Una minoría del Consejo está en desacuerdo y sostendría la decisión de Meta de eliminar el contenido.
2. Descripción del caso y contexto
El 5 de junio de 2022, terroristas atacaron una iglesia católica en Owo, suroeste de Nigeria, y mataron al menos a 40 personas e hirieron aproximadamente a 90 otras. Unas horas después del ataque, un usuario de Instagram en Nigeria publicó un video en su cuenta pública que parecía ser del momento posterior al ataque, donde se mostraban cuerpos ensangrentados e inmóviles sobre el piso de la iglesia, y algunos tenían sus rostros visibles. De fondo se podía oír ruido de caos, acompañado de gritos y lamentos. El video inicialmente se publicó sin texto. Tenía menos de 50 comentarios. Aquellos que vio el Consejo incluían plegarias por las víctimas, emojis llorando y declaraciones sobre la seguridad en Nigeria. El autor de la publicación había respondido varios comentarios mostrando solidaridad con esos sentimientos.
Después de que el usuario publicó el contenido, fue identificado por uno de los bancos de Media Matching Service sobre contenido violento y gráfico de Meta, que contenía un video considerablemente similar. Este banco marca automáticamente contenido que fue identificado por los revisores como infractor de las reglas de la empresa. En este caso, el banco remitió el video del usuario a una herramienta de moderación de contenido automática llamada clasificador, que puede evaluar la probabilidad de un contenido de infringir una política de Meta. El clasificador determinó que el video debía permitirse en Instagram. También determinó que el contenido probablemente contenía imágenes de muertes violentas y, como resultado, le aplicó automáticamente una pantalla de advertencia que indicaba que el contenido era perturbador, tal como lo requiere la política de contenido violento y gráfico. Meta no notificó al usuario que se había aplicado la pantalla de advertencia. Durante las 48 horas posteriores, tres usuarios reportaron el contenido por mostrar personas muertas y con heridas de gravedad.
Al mismo tiempo, el personal de Meta estaba trabajando para identificar y abordar contenido que surgiera a partir del ataque. El equipo regional alertó al equipo de políticas de Meta sobre el ataque, el cual agregó videos del incidente a un banco de Media Matching Service diferente, un banco de escalamientos. El contenido que se encuentra en este banco de escalamientos fue identificado como infractor por los equipos internos de especialistas de Meta, y cualquier contenido coincidente se elimina de inmediato. Los videos agregados al banco de escalamientos después del incidente incluían imágenes que mostraban vísceras humanas visibles (lo cual no sucedía con el video en cuestión en este caso). También se pidió a otros equipos de Meta que remitieran videos que podrían ser similares al equipo de políticas. De este modo, el equipo de políticas luego determinaría si también se debían agregar al banco de escalamientos.
Tres días después del ataque, Meta agregó un video casi idéntico al contenido de este caso al banco de escalamientos. Como resultado, los sistemas de Meta compararon ese video con contenido que ya estaba publicado en la plataforma para comprobar si había coincidencias. Mientras se llevaba a cabo esta revisión retroactiva, el usuario editó la publicación original y agregó texto al video que explicaba que hombres armados habían atacado la iglesia y que varias personas habían sido asesinadas, y describía el incidente como triste. El texto incluía una gran cantidad de hashtags. La mayoría era sobre el juego de acción en vivo airsoft (donde los equipos compiten para sacarse del juego usando proyectiles de plástico con armas falsas). Otro, según Meta, aludía al sonido de disparos y también se usa para comercializar armas de fuego. Otros hashtags hacían referencia a personas que coleccionan armas de fuego y artículos relacionados, además de simulaciones militares.
Poco tiempo después de que se agregara el texto, la revisión retroactiva del banco de escalamientos encontró una coincidencia entre la publicación del usuario y el video casi idéntico recién agregado, por lo que la eliminó de la plataforma. El usuario presentó una apelación. Un moderador revisó el contenido y mantuvo la decisión de eliminación. El usuario entonces apeló al Consejo.
En este punto, los tres reportes que los usuarios habían hecho sobre el contenido aún no habían sido revisados y estaban cerrados. Meta le dijo al Consejo que los reportes se habían asignado por error a una cola de baja prioridad.
En respuesta a la selección de este caso por parte del Consejo, Meta revisó el video casi idéntico que se había agregado al banco de escalamientos. Meta determinó que no infringía ninguna política porque no había vísceras visibles ni texto sádico, y lo eliminó del banco. Sin embargo, Meta mantuvo su decisión de eliminar el contenido en este caso, ya que, si bien la narrativa sobre el hecho y la expresión de tristeza del usuario no eran infractores, los hashtags del texto agregado por el usuario sí infringían varias políticas. En respuesta a las preguntas del Consejo, Meta analizó el historial de publicaciones del usuario y determinó que el usuario había incluido hashtags similares en muchas de sus publicaciones recientes de Instagram.
El Consejo toma como contexto relevante el reciente historial de violencia e incidentes terroristas en Nigeria. Expertos consultados por el Consejo indicaron que el Gobierno nigeriano había suprimido la cobertura nacional de ataques terroristas en varias ocasiones, pero no parece haberlo hecho en gran medida en relación con el ataque del 5 de junio, que fue ampliamente cubierto por medios de comunicación tradicionales. Las imágenes gráficas del ataque y sus víctimas circularon ampliamente en plataformas de medios sociales, incluidos Instagram y Facebook, pero no fueron mostradas en la misma medida por los medios tradicionales. En respuesta a preguntas del Consejo, Meta confirmó que el Gobierno nigeriano no contactó a Meta en relación con el ataque ni solicitó la eliminación del contenido.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 3, sección 1, de los estatutos).
El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, y Artículo 4 del acta constitutiva).
4. Fuente de autoridad
El Consejo asesor de contenido consideró las siguientes autoridades y normas:
I.Decisiones del Consejo asesor de contenido:
- "Poema ruso" (decisión del caso 2022-008-FB-UA): el Consejo analizó los desafíos que surgen de la moderación de contenido en situaciones de conflicto y notó que la política de contenido violento y gráfico no era clara.
- "Mención de los talibanes en los informes de noticias" (decisión del caso 2022-005-FB-UA): el Consejo analizó cómo los usuarios pueden comentar las actividades de entidades terroristas.
- "Caricatura sobre la policía colombiana" (decisión del caso 2022-004-FB-UA): el Consejo recomendó a Meta mejorar los procedimientos para eliminar contenido no infractor agregado de forma incorrecta a los bancos de Media Matching Service.
- "Video gráfico de Sudán" (decisión del caso 2022-002-FB-MR): el Consejo analizó la necesidad de modificar y aclarar la política de contenido violento y gráfico.
- "Manifestaciones en Rusia a favor de Navalny" (decisión del caso 2021-004-FB-UA): el Consejo analizó el fin legítimo de la norma comunitaria sobre bullying y acoso.
- "Cita nazi" (decisión del caso 2020-005-FB-UA): el Consejo analizó los comentarios que hicieron los seguidores y amigos sobre el contenido, como un indicador de la posible intención de la persona que publica.
II. Políticas de contenido de Meta
Este caso involucra las Normas comunitarias de Instagram y las Normas comunitarias de Facebook. El informe de transparencia del tercer trimestre de Meta establece que Facebook e Instagram comparten políticas de contenido, lo que significa que, si se determina que el contenido infringe las normas en Facebook, también se considerará que infringe las normas en Instagram.
De acuerdo con las Normas comunitarias de Instagram, Meta puede eliminar videos que muestren escenas de violencia gráfica e intensa para garantizar que Instagram siga siendo un entorno adecuado para todo el mundo. Esto se vincula con la norma comunitaria sobre contenido violento y gráfico de Facebook, donde las bases de la política indican lo siguiente:
Para proteger a los usuarios de imágenes perturbadoras, eliminamos contenido que es particularmente violento o gráfico, como videos que muestran desmembramientos, vísceras visibles o cuerpos carbonizados. También eliminamos contenido que incluye comentarios sádicos respecto de imágenes que muestran el sufrimiento de humanos o animales. En el contexto de conversaciones sobre asuntos importantes, como abusos de los derechos humanos, conflictos armados o actos de terrorismo, permitimos contenido gráfico (con ciertas limitaciones) para que las personas puedan condenar estos hechos o generar conciencia al respecto.
La política de contenido violento y gráfico indica que las imágenes que muestren la muerte violenta de una o más personas por un accidente o asesinato deberán cubrirse con una pantalla de advertencia que señale que es contenido perturbador. La sección "No publiques" de las reglas explica que los usuarios no pueden publicar comentarios sádicos respecto de imágenes que requieren una pantalla de advertencia en virtud de la política. También indica que el contenido se eliminará si hay vísceras visibles.
Las bases de la política de bullying y acoso de Meta explican que se elimina una variedad de contenido porque impide que las personas se sientan seguras y respetadas en Facebook. En el nivel 4 de las reglas específicas, la empresa prohíbe el contenido que exalte, celebre o se burle de la muerte o de lesiones graves de personas no públicas.
Las bases de la política de personas y organizaciones peligrosas de Meta explican que Meta prohíbe el contenido que exalte, apoye de manera sustancial o represente hechos que Facebook designa como hechos violentos que infringen las normas; p. ej., ataques terroristas, hechos de odio, violencia o intentos de violencia contra varias víctimas. En el nivel 1 de las reglas específicas, Meta elimina cualquier exaltación de esos hechos.
III. Valores de Meta
Los valores de Meta se describen en la introducción a las Normas comunitarias de Facebook, y la empresa confirmó que estos valores se aplican a Instagram. El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias apuntan a crear un espacio donde las personas se expresen y den a conocer su opinión. Meta quiere que las personas puedan hablar abiertamente sobre los temas que les importan, aunque otros no estén de acuerdo o los consideren objetables.
Meta limita la "expresión" en favor de otros cuatro valores, y tres de ellos son relevantes en este caso:
Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. Eliminamos contenido que podría contribuir a un riesgo de daño para la seguridad física de las personas. El contenido que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitido en Facebook.
Privacidad: nos comprometemos a proteger la información y la privacidad de las personas. Gracias a la privacidad, las personas tienen la libertad de ser quienes son, de elegir cómo y cuándo compartir contenido en Facebook, y de conectarse más fácilmente.
Dignidad: creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
IV. Normas internacionales sobre derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:
- Derecho a la libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019).
- Derecho a la privacidad: Artículo 17 del ICCPR.
5. Respuestas del usuario
En su declaración al Consejo, el usuario explicó que compartió el video para generar conciencia sobre el ataque y hacerle saber al mundo lo que estaba sucediendo en Nigeria.
6. Respuestas de Meta
Meta explicó en sus bases que, en virtud de la política de contenido violento y gráfico, las imágenes, incluidos los videos, que muestran la muerte violenta de personas se suelen cubrir con una pantalla de advertencia que indica que podrían ser contenido perturbador. Los usuarios adultos pueden hacer clic en el contenido para verlo, mientras que los menores no tienen esa opción. Sin embargo, Meta también explicó que dicho contenido se elimina cuando está acompañado de comentarios sádicos. De acuerdo con Meta, esta medida se aplica para evitar que las personas usen las plataformas para exaltar la violencia o celebrar el sufrimiento de otros. Meta confirmó que, sin texto, el video sería permitido en Instagram cubierto por una pantalla de advertencia que indique que el contenido es perturbador. Si el video hubiese incluido vísceras visibles, como hicieron otros del mismo incidente, se habría eliminado conforme a la política de contenido violento y gráfico sin la necesidad de comentarios sádicos.
Inicialmente, Meta le dijo al Consejo que, en este caso, no se notificó al usuario acerca de la pantalla de advertencia ni de la política aplicada debido a un error técnico. Sin embargo, después de más preguntas del Consejo, Meta reveló que, si bien los usuarios de Facebook generalmente reciben una notificación acerca de la aplicación de una pantalla de advertencia y el motivo, los usuarios de Instagram no la reciben.
Meta explicó que sus pautas internas para moderadores, las preguntas conocidas, definen los comentarios sádicos como aquellos que disfrutan del sufrimiento o la humillación de un humano o animal, o que sienten placer por ello. Las preguntas conocidas proporcionan ejemplos de comentarios que califican como sádicos, divididos en aquellos que muestran un disfrute del sufrimiento y aquellos que muestran respuestas humorísticas. Meta también confirmó que los comentarios sádicos se pueden expresar mediante hashtags, así como también mediante emojis.
En su análisis de los hashtags que se usaron en este caso, Meta explicó que la referencia al sonido de disparos fue una respuesta humorística a la violencia que le restaba importancia al ataque terrorista del 5 de junio. Meta explicó que el mismo hashtag también se usa para comercializar armas. Meta también indicó que el hashtag de disparos, así como el hashtag que hacía referencia a personas que coleccionan armas de fuego y artículos relacionados, podrían interpretarse como que exaltan la violencia y minimizan el sufrimiento de las víctimas al invocar el humor y hablar de forma positiva sobre las armas y las herramientas usadas para causar su muerte. Además, Meta explicó que el hashtag que hacía referencia a simulaciones militares comparó el ataque con una simulación, minimizando la tragedia actual y el daño real que experimentaron las víctimas y su comunidad. Asimismo, Meta indicó que los hashtags que hacían referencia al juego airsoft compararon el ataque con un juego de una manera que exalta la violencia como algo hecho por placer.
Meta explicó que el texto del usuario afirmando que no admite la violencia y que el ataque fue triste no indica claramente que está compartiendo el video para generar conciencia sobre el ataque. La empresa también aclaró que, aunque el usuario mostró intención de generar conciencia, el uso de hashtags sádicos generaría la eliminación de todos modos. Para respaldar esta postura, Meta explicó que algunos usuarios intentan evitar la moderación al incluir lenguaje engañoso y contradictorio en sus publicaciones. Meta diferenció esto de la decisión del Consejo en el caso sobre el video gráfico de Sudán (2022-002-FB-FBR) donde el usuario dejó en claro su intención de generar conciencia mientras compartía el contenido perturbador. En respuesta a las preguntas del Consejo, Meta informó al Consejo que el usuario incluyó los mismos hashtags en la mayoría de sus publicaciones recientes. Meta no pudo determinar por qué el usuario usó repetidamente los mismos hashtags.
También indicó que la publicación del usuario infringía la política de bullying y acoso que prohíbe contenido que se burle de la muerte de personas no públicas. En este caso, el hashtag que hacía referencia al sonido de disparos fue considerado una respuesta humorística a la violencia mostrada en el video.
En respuesta a las preguntas del Consejo, Meta también determinó que el contenido infringía la política de personas y organizaciones peligrosas. Meta había designado al ataque del 5 de junio como un hecho de violencia contra varias víctimas y, como resultado, cualquier contenido que se considere que exalte, apoye sustancialmente o represente ese hecho está prohibido en virtud de la política de personas y organizaciones peligrosas. Meta explicó que esto concuerda con sus compromisos en virtud del Llamamiento de Christchurch y que presentó el caso del ataque del 5 de junio ante los socios del sector en el Foro Global de Internet Contra el Terrorismo. Meta explicó que, si bien fue una decisión difícil, el contenido en este caso parece burlarse de las víctimas del ataque y hablar de forma positiva sobre las armas usadas, por lo que califica como exaltación de un hecho designado en virtud de su política.
Meta indicó que eliminar el contenido en este caso logra un equilibrio adecuado entre sus valores. El texto del usuario demostró una falta de respeto hacia la dignidad de las víctimas, sus familiares y la comunidad afectada por el ataque, todo lo cual superó el valor de la propia libertad de expresión del usuario. En respuesta a las preguntas del Consejo, Meta confirmó que no emitió ninguna concesión de interés periodístico en relación con el contenido que contiene imágenes infractoras relativas al ataque del 5 de junio.
Finalmente, Meta explicó que sus acciones fueron coherentes con la legislación internacional de derechos humanos, afirmando que su política de comentarios sádicos es clara y accesible, tiene como finalidad proteger los derechos de los demás, además del orden público y la seguridad nacional, y que todas las acciones que no requieran eliminación no abordarían de forma adecuada el riesgo de daño. Meta citó la decisión del Tribunal Europeo de Derechos Humanos en Hachette Filipacchi Associes vs. Francia (2007), que sostuvo que los periodistas que publicaron fotos de la muerte violenta de una persona en una revista de amplia distribución intensificaron el trauma sufrido por los familiares. Meta también citó el artículo de 2010 de Sam Gregory "Cameras Everywhere: Ubiquitous Video Documentation of Human Rights, New Forms of Video Advocacy, and Considerations of Safety, Security, Dignity and Consent" en el Journal of Human Rights Practice, que explica que la mayoría de las infracciones gráficas, como ataques violentos, conducen con mayor facilidad a la pérdida de dignidad, privacidad y consentimiento, lo cual conlleva el potencial de una revictimización real. Meta observó que su política no implica eliminar contenido gráfico, sino dejarlo con una pantalla de advertencia, la cual limita el acceso de los menores. Afirmó que su política de eliminar comentarios sádicos va un paso más allá porque el valor de dignidad supera el valor de expresión.
El Consejo le hizo a Meta 29 preguntas, 28 de las cuales fueron respondidas en su totalidad. Meta no pudo responder una pregunta sobre el porcentaje de reportes de usuarios que se cierran sin revisión en el mercado de África subsahariana.
7. Comentarios del público
El Consejo asesor de contenido tuvo en cuenta nueve comentarios del público relacionados con este caso. Uno de los comentarios procedía de Asia-Pacífico y Oceanía, uno de Asia central y meridional, uno de Oriente Medio y África septentrional, uno de África subsahariana, y cinco de los Estados Unidos y Canadá.
Los comentarios cubrían diversos temas, como la necesidad de aclarar la política de contenido violento y gráfico, y problemas específicos de Nigeria que el Consejo debería tener en cuenta al tomar una decisión sobre este caso.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8.Análisis del Consejo asesor de contenido
El Consejo analizó la pregunta de si este contenido debería restaurarse desde tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades en cuanto a los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
El Consejo analizó tres de las políticas de contenido de Meta: contenido violento y gráfico; bullying y acoso; y personas y organizaciones peligrosas. La mayoría del Consejo determinó que no se infringió ninguna política.
I. Reglas de contenido
Contenido violento y gráfico
Las bases de la política indican que Meta elimina contenido que incluye comentarios sádicos respecto de imágenes que muestran el sufrimiento de humanos o animales. Sin embargo, también indica que permite contenido gráfico (con ciertas limitaciones) para que las personas puedan condenar asuntos importantes, como abusos de los derechos humanos, conflictos armados o actos de terrorismo, o generar conciencia sobre ellos. La política también indica el uso de pantallas de advertencia para alertar a las personas que el contenido puede ser perturbador, lo que incluye cuando las imágenes muestran muertes violentas. En las reglas inmediatamente debajo de las bases de la política, Meta explica que los usuarios no pueden publicar comentarios sádicos respecto de imágenes eliminadas o detrás de una pantalla de advertencia en virtud de esta política. Meta no proporciona ninguna otra explicación pública ni ejemplos de comentarios sádicos.
El Consejo coincide con Meta en que el video en cuestión en este caso muestra muertes violentas y que, sin texto, debería tener una pantalla de advertencia. A diferencia del contenido en la decisión del caso sobre el video gráfico de Sudán del Consejo, el video de este caso, aunque muestra cuerpos sin vida ensangrentados, no muestra vísceras visibles, lo que requeriría la eliminación del contenido en virtud de la política. En el caso sobre el video gráfico de Sudán, los hashtags indicaban una clara intención de documentar los abusos de los derechos humanos, y el Consejo se basó en parte en la intención clara de esos hashtags y en la concesión de interés periodístico de Meta para restaurar el contenido. En este caso, la evaluación del contenido realizada por el Consejo en función de las políticas de contenido de Meta se basa en parte en la ausencia de desmembramientos, vísceras visibles o cuerpos carbonizados en el video, además de los hashtags usados. La diferencia entre las posturas de la mayoría y la minoría se basa en el propósito o el significado que se debería atribuir a los hashtags en este caso.
Una mayoría del Consejo basa su postura en el uso común de hashtags por los usuarios para promover una publicación dentro de una cierta comunidad y para asociarse con otros que comparten intereses comunes y entablar relaciones. Cuando se usan de este modo, no necesariamente implican comentarios sobre una imagen o un asunto. Una mayoría del Consejo considera que los hashtags del texto no son sádicos, ya que no se usan de una forma que muestre al usuario disfrutando del sufrimiento de otros u obteniendo placer de ello. Interpretar la larga lista de hashtags idiosincrásicos como comentarios en el video, en este caso, es engañoso. Esto distingue este caso de la decisión del Consejo en el caso sobre el video gráfico de Sudán, en el cual los hashtags indicaban claramente la intención del usuario de compartir un video gráfico. La inclusión de hashtags por parte del usuario sobre el juego airsoft, así como de aquellos relacionados con armas de fuego y simulaciones militares, no debería haberse interpretado como una exaltación de la violencia (conforme a la política de personas y organizaciones peligrosas) y menos como una burla (conforme a la política de bullying y acoso) o como un disfrute del sufrimiento de otros o un sentimiento de placer por ello (conforme a la política de contenido violento y gráfico). Muchos usuarios de medios sociales tienen y comparten intereses en juegos airsoft, armas de fuego o simulaciones militares, y pueden usar hashtags para conectarse con otros sin expresar de ninguna manera apoyo al terrorismo o la violencia contra personas. Los hashtags sobre juegos airsoft están asociados más directamente con entusiasmo por el juego y son, en general, incompatibles con el contenido del video y los comentarios que el usuario compartió inmediatamente debajo de él. Esto debería haber indicado a Meta que el usuario estaba intentando generar conciencia entre las personas con las que normalmente se comunica en Instagram, así como llegar a otras. Como el diseño de Instagram incentiva el uso liberal de hashtags como un medio para promover contenido y conectarse con públicos nuevos, es importante que Meta se maneje con cautela antes de atribuir mala intención a su uso. Las investigaciones independientes encargadas por el Consejo confirmaron que los hashtags incluidos en esta publicación son usados ampliamente entre los entusiastas de los juegos airsoft y de las armas de fuego, y Meta no consideró que estos hashtags habían sido usados como burlas encubiertas para evadir la detección en sus plataformas.
Para la mayoría, también fue claro que los comentarios que el usuario agregó al video, después de que se aplicara la pantalla de advertencia, no indicaron que estaba disfrutando del ataque o sintiendo placer por ello. El usuario indicó que el ataque le representó un día triste y que no apoyaba la violencia. Los comentarios en la publicación también indicaban que los seguidores del usuario entendían la intención de generar conciencia, como la situación en el caso de la cita nazi. Las respuestas del usuario a esos comentarios también mostraban empatía con las víctimas. El Consejo acepta el argumento de Meta de que las afirmaciones explícitas del usuario en el contenido diciendo que no apoya la violencia no siempre se deberían aceptar al pie de la letra, ya que algunos usuarios pueden intentar evadir la moderación incluyendo este tipo de afirmaciones, al contrario del propósito real de sus publicaciones. El Consejo recuerda su conclusión de que no debería ser necesario que un usuario indique expresamente su condena al comentar las actividades de entidades terroristas, y que esperar que lo haga podría limitar gravemente la libertad de expresión en regiones donde dichos grupos están activos (consultar la decisión del Consejo en el caso sobre la mención de los talibanes en los informes de noticias).
Una minoría del Consejo concluye que, al evaluarse en conjunto, la contraposición entre los hashtags relacionados con disparos y las imágenes parece sádica, al comparar el asesinato de aquellos representados en juegos y al parecer que promueve armas que imitan las usadas en el ataque. Esto parecería sádico para los sobrevivientes del ataque y los familiares de las personas fallecidas, y el potencial de causar un nuevo trauma no se reduciría colocando el contenido detrás de una pantalla de advertencia. Dado el contexto de violencia terrorista en Nigeria, la minoría considera que pecar de precaución está justificado para Meta cuando los comentarios sobre violencia gráfica parecen sádicos, incluso si hay un grado de ambigüedad. Esto es especialmente relevante para contenido como este video, donde se puede identificar a las víctimas porque sus rostros están visibles, y donde no se puede descartar una mayor violencia o represalia contra los sobrevivientes por parte de los atacantes. Una minoría del Consejo también considera que las afirmaciones en el texto en este caso no niegan el efecto sádico de contraponer hashtags asociados con entusiastas de armas con un video que muestra el momento posterior horroroso de violencia causado con armas. Si bien los hashtags pueden tener un propósito asociativo para los miembros de una comunidad, una minoría del Consejo cree que es apropiado, en situaciones como esta, que Meta aplique sus políticas de una manera que considere el contenido desde la perspectiva de los sobrevivientes y los familiares de las víctimas.
También es importante considerar cómo Meta puede aplicar sus políticas de contenido rápida y uniformemente en situaciones de crisis, como en el momento posterior a actos terroristas donde las imágenes se difunden con rapidez en los medios sociales. La minoría consideró pertinente que un moderador o un lector casual no supiera que el usuario había incluido habitualmente estos hashtags en la mayoría de sus publicaciones recientes. En una situación que cambia rápidamente, la minoría considera que fue correcto que Meta interpretara el uso de hashtags relacionados con armas de fuego como si el usuario estuviera disfrutando del sufrimiento mostrado. La mayoría reconoce que la eliminación del contenido fue un error razonable y concuerda con Meta en que fue una decisión difícil. No obstante, el análisis independiente del Consejo (asistido por expertos que aportaron información contextual sobre el tiroteo, la violencia en Nigeria de forma más general y el uso de los hashtags) hizo que la mayoría concluyera que es un error caracterizar estos hashtags como sádicos solo porque están asociados con usuarios de armas de fuego.
Bullying y acoso
El nivel 4 de la política de bullying y acoso prohíbe contenido que se burle de la muerte o las lesiones graves de personas no públicas.
Por los mismos motivos establecidos en la sección anterior, una mayoría del Consejo considera que el contenido no es una burla, ya que el propósito de los hashtags no es un intento de humor, sino un intento de asociarse con otros, lo cual se confirma por las respuestas a la publicación y la interacción del usuario con ellas. Meta erró al suponer que una cadena de hashtags son comentarios sobre el video compartido. Como mencionamos antes, parece quedar confirmado que el usuario no estaba pidiendo a los entusiastas de armas de fuego que se burlaran de las víctimas dadas las respuestas a la publicación que expresaban asombro y compasión, que Meta confirma que provenían principalmente de usuarios en Nigeria, y la interacción del usuario con esas respuestas (consultar la decisión del Consejo en el caso sobre la cita nazi). Si bien la mayoría concuerda con que es importante considerar las perspectivas de los sobrevivientes y los familiares de las víctimas, las respuestas a este contenido indican que esas perspectivas no necesariamente sopesan contra mantener el contenido en la plataforma, en especial dada la frecuencia de los ataques contra los creyentes en Nigeria.
Una minoría del Consejo expresó su desacuerdo. Al agregar hashtags que involucran armas de fuego de imitación también parece mostrar que el usuario estaba dirigiendo intencionalmente un video que mostraba a las víctimas de un tiroteo a entusiastas de armas de fuego. Meta actuó correctamente al considerar que esto parece una burla, y es apropiado para la empresa priorizar las perspectivas de los sobrevivientes y los familiares de las víctimas al realizar esta evaluación.
Personas y organizaciones peligrosas
El nivel 1 de la política de personas y organizaciones peligrosas prohíbe contenido que exalte, apoye sustancialmente o represente violencia contra varias víctimas.
El Consejo está de acuerdo en que la definición de Meta de violencia contra varias víctimas se aplica al ataque del 5 de junio. Sin embargo, la mayoría considera que el uso de hashtags en el texto no exalta el ataque y, por lo mismos motivos, tampoco es sádico. La minoría expresó su desacuerdo y considera que, si bien es una decisión difícil, por los mismos motivos expresados en las secciones anteriores, la contraposición entre los hashtags y el contenido podría verse como una exaltación del ataque.
II. Aplicación de políticas
Meta informó inicialmente al Consejo que el usuario no recibió un mensaje cuando se colocó una pantalla de advertencia sobre su contenido debido a un problema técnico. Sin embargo, en respuesta a las preguntas del Consejo, Meta investigó y determinó que no se notifica a los usuarios de Instagram cuando se coloca una pantalla de advertencia sobre su contenido. En este caso, la incorporación de texto en el cual el usuario indica explícitamente que no apoya la violencia pudo haber sido un intento de responder a la imposición de la pantalla de advertencia. Meta debería garantizar que todos los usuarios reciban una notificación cuando se coloque una pantalla de advertencia sobre su contenido y que se les indiquen los motivos.
El Consejo observa que el contenido en este caso fue eliminado porque el video coincidía con un video casi idéntico que fue agregado por error a un banco de escalamientos que elimina automáticamente el contenido coincidente. En el caso de la caricatura sobre la policía colombiana, el Consejo dijo que Meta debe garantizar que tiene sistemas y procesos de análisis robustos para evaluar el contenido antes de agregarlo a cualquier banco de Media Matching Service que elimina contenido coincidente sin una mayor revisión. El Consejo entiende que, después de una crisis, Meta probablemente intentaba garantizar que el contenido infractor no se difundiera en sus plataformas. Sin embargo, dado los impactos cada vez mayores de los bancos de Media Matching Service, los controles siguen siendo críticos. Meta debería garantizar que todo el contenido eliminado por error por un banco sea restaurado y que cualquier falta relacionada sea revertida.
Al Consejo le preocupa que no se hayan revisado los tres reportes de usuarios del contenido en los cinco días anteriores a la eliminación del contenido. En respuesta a las preguntas del Consejo, Meta explicó que esto se debió a un problema técnico desconocido que se está investigando. En respuesta a las otras preguntas, Meta indicó que no puede confirmar qué porcentaje de reportes de usuarios de Instagram en África subsahariana se cierra sin revisión.
8.2 Cumplimiento de los valores de Meta
El Consejo concluyó que la eliminación del contenido en este caso fue coherente con el valor de expresión de Meta.
El Consejo reconoce los intereses que compiten en situaciones como las de este caso. El contenido en este caso implica la dignidad y la privacidad de las víctimas del ataque del 5 de junio, así como las de sus familiares y comunidades. Varias de las víctimas del video tenían sus rostros visibles y podían ser identificadas.
El Consejo recuerda que, en el caso sobre el video gráfico de Sudán y en el caso sobre el poema ruso, solicitó mejoras en la política de Meta de contenido violento y gráfico para que se alineara con los valores de Meta. El Consejo determinó que el tratamiento de la política de contenido que comparte contenido gráfico para generar conciencia no era lo suficientemente claro. En varios casos, el Consejo determinó que las pantallas de advertencia pueden ser mecanismos apropiados para equilibrar los valores de Meta de expresión, privacidad, dignidad y seguridad (consultar las decisiones del Consejo en los casos sobre el video gráfico de Sudán y el poema ruso). El Consejo coincide en que, en contextos donde el espacio cívico y la libertad de los medios son restringidos ilegítimamente por el Estado, como en el caso de Nigeria, el valor de expresión de Meta se vuelve aún más importante (consultar su decisión en el caso sobre las manifestaciones en Colombia). También coincide en que generar conciencia sobre los abusos de los derechos humanos es un aspecto particularmente importante de expresión, que, a la vez, puede fomentar la seguridad al garantizar el acceso a información. Las pantallas de advertencia pueden promover este ejercicio de expresión, aunque pueden ser inapropiadas donde el contenido no es lo suficientemente gráfico, ya que reducen de forma significativa el alcance y la interacción con el contenido (consultar la decisión del Consejo en el caso sobre el poema ruso).
Esencialmente por el mismo motivo detallado en la sección anterior, la mayoría y la minoría llegaron a diferentes conclusiones sobre qué valores de Meta se requieren para interpretar los hashtags agregados al texto del video. La mayoría considera que hay una necesidad particular de proteger la expresión cuando el contenido destaca infracciones y atrocidades graves relacionadas con los derechos humanos, incluidos los ataques en iglesias en Nigeria. La mayoría considera que estos hashtags no contradicen la compasión demostrada por el usuario hacia las víctimas, expresada en el texto, y que su uso es coherente con los esfuerzos del usuario de generar conciencia. Como el texto no es sádico, es coherente con los valores de Meta de restaurar el contenido con una pantalla de advertencia restringida por edad. Si bien la mayoría reconoce que agregar una pantalla de advertencia puede afectar la expresión al limitar el alcance del contenido que genera conciencia sobre los abusos de los derechos humanos, dado que las víctimas pueden ser identificadas, es necesario encontrar un equilibrio adecuado entre los valores de dignidad y seguridad.
La minoría considera que la eliminación del contenido está justificada para proteger la dignidad y la seguridad de los sobrevivientes y los familiares de las víctimas, que tienen un alto riesgo de volver a sufrir un trauma a partir de la exposición a contenido que parece tener comentarios sádicos y sarcásticos sobre los asesinatos de sus seres queridos. Es pertinente el hecho de que los rostros de varias víctimas estén visibles y se puedan identificar en el video y no estén borrosos. En cuanto a la expresión, la minoría considera pertinente que contenido similar sin hashtags se haya compartido en la plataforma detrás de una pantalla de advertencia y que este usuario pudo haber compartido contenido similar sin hashtags relacionados con armas de fuego. Por lo tanto, la eliminación de Meta de este contenido no dificultó excesivamente los esfuerzos de la comunidad en Nigeria de generar conciencia sobre estas atrocidades o buscar responsables.
8.3 Cumplimiento de las responsabilidades de Meta en cuanto a los derechos humanos
Una mayoría del Consejo considera que la eliminación del contenido en este caso no fue coherente con las responsabilidades de Meta en cuanto a los derechos humanos. Sin embargo, como en el caso del video gráfico de Sudán, la mayoría y la minoría acuerdan que Meta debería enmendar la política de contenido violento y gráfico para aclarar qué reglas de la política afectan al contenido que apunta a generar conciencia sobre los abusos y las violaciones de los derechos humanos.
Libertad de expresión (Artículo 19 del ICCPR)
El Artículo 19 del ICCPR proporciona amplia protección a la libertad de expresión, incluido el derecho de buscar y recibir información. No obstante, el derecho podría restringirse en ciertas situaciones específicas, según se evalúa de acuerdo con la prueba de tres partes de legalidad, legitimidad y necesidad y proporcionalidad. El Consejo adoptó este marco para analizar las políticas de contenido y las prácticas de aplicación de políticas de Meta. El Relator Especial de la ONU sobre la libertad de expresión animó a las empresas de medios sociales a tomar como guía estos principios al moderar la expresión online, ya que la regulación de la expresión a escala realizada por empresas privadas podría generar inquietudes específicas según ese contexto (A/HRC/38/35, párrafos 45 y 70).
I.Legalidad (claridad y accesibilidad de las reglas)
El principio de legalidad requiere que cualquier restricción sobre el derecho a la libertad de expresión sea clara y accesible para que las personas sepan qué pueden y qué no pueden hacer (observación general n.º 34, párrafos 25 y 26). La falta de especificidad puede traducirse en una interpretación subjetiva de las reglas y en su aplicación de forma arbitraria. Los principios de Santa Clara sobre la transparencia y rendición de cuentas en la moderación de contenidos, que fueron apoyados por Meta, se basan en garantizar que el respeto de las empresas por los derechos humanos sea coherente con las normas internacionales, incluida la libertad de expresión. Estos principios establecen que las empresas deben tener reglas y políticas comprensibles, incluidas pautas y ejemplos detallados del contenido que se permite y del que no se permite.
Antes de abordar cada política de contenido, el Consejo solicitó a Meta en previas recomendaciones que aclare la relación entre las Normas comunitarias de Instagram y las Normas comunitarias de Facebook (el caso sobre síntomas de cáncer de mama y desnudos, 2020-004-IG-UA-2, y el caso sobre el aislamiento de Öcalan, 2021-006-IG-UA-10), e instó a Meta a que complete la implementación de esta recomendación lo antes posible.
Contenido violento y gráfico
El Consejo reitera su preocupación en cuanto a que la política de contenido violento y gráfico no es lo suficientemente clara respecto a cómo los usuarios pueden generar conciencia sobre la violencia gráfica en virtud de la política. En este caso, hay más preocupaciones sobre el contenido capturado en virtud de la definición de Meta de "sádico".
En la decisión del caso sobre el video gráfico de Sudán, el Consejo:
Concluyó que la política de contenido violento y gráfico no explica con claridad cómo Meta permite a los usuarios compartir contenido gráfico para generar conciencia en torno a los abusos o para documentarlos. Las bases de la norma comunitaria, que establece los fines de la política, no se alinean con las reglas de la política. Las bases de la política establecen que Meta permite a los usuarios publicar contenido gráfico para ayudar a las personas a generar conciencia sobre los abusos de los derechos humanos, pero la política prohíbe todos los videos (ya sea que se compartan para generar conciencia o no) de personas o cadáveres en entornos no médicos si muestran desmembramiento.
El Consejo recomendó a Meta modificar la política para permitir específicamente que se compartan imágenes de personas y cuerpos sin vida para generar conciencia o documentar abusos de los derechos humanos. También le recomendó desarrollar criterios para identificar videos compartidos con ese propósito. Meta indicó que está evaluando la viabilidad de las recomendaciones y que realizará un proceso de desarrollo de políticas para determinar si se pueden implementar. Meta también actualizó las bases de la política para garantizar que reflejen el rango completo de acciones de aplicación de políticas cubiertas en la política y que sean más claras sobre la eliminación de contenido gráfico y comentarios sádicos excepcionalmente. Sin embargo, el Consejo nota que las reglas sobre lo que se puede o no se puede publicar en virtud de esta política aún no son claras en cuanto a cómo se puede publicar contenido prohibido para generar conciencia.
El Consejo también nota que, tras anunciar públicamente la selección de este caso y enviar preguntas a la empresa, Meta actualizó las bases de la política para incluir una referencia a su prohibición actual sobre comentarios sádicos. Sin embargo, el término aún no está públicamente definido, ya que la política tan solo menciona los tipos de contenido sobre los que los usuarios no pueden hacer comentarios sádicos. El Consejo considera que el uso común del término "sádico" tiene connotaciones de depravación y gravedad intencionales, que no concuerdan adecuadamente con las pautas internas de Meta para los moderadores, es decir, las preguntas conocidas. Las pautas internas muestran que la definición de Meta de "sádico" está ampliamente definida para que abarque cualquier respuesta humorística o discurso positivo sobre el sufrimiento de humanos o animales. Esto parece establecer un umbral más bajo para la eliminación de contenido que lo que comunica la política pública.
Bullying y acoso
Conforme a la política de bullying y acoso de Meta, la empresa prohíbe contenido que se burle de la muerte o las lesiones graves de personas no públicas. El Consejo no consideró que el marco de esta regla genere inquietudes legales en este caso.
Personas y organizaciones peligrosas
En el nivel 1 de esta política, Meta prohíbe la exaltación de hechos violentos infractores designados, una categoría que incluye ataques terroristas, violencia contra varias víctimas y homicidios múltiples. El Consejo observa que Meta no parece tener una política coherente sobre cuándo anuncia públicamente hechos designados. Sin esta información, los usuarios en muchas situaciones pueden no saber por qué se eliminó su contenido.
II. Fin legítimo
Las restricciones a la libertad de expresión deben tener un fin legítimo, lo que incluye la protección de los derechos de los demás, como el derecho a la privacidad de las víctimas identificables, incluidas aquellas fallecidas, que se muestran en este contenido (observación general n.º 34, párrafo 28).
El Consejo había evaluado previamente las tres políticas en cuestión en este caso y determinó que cada una persigue el fin legítimo de proteger los derechos de los demás. La política de contenido violento y gráfico fue evaluada en el caso sobre el video gráfico de Sudán, la política de bullying y acoso fue evaluada en el caso sobre las manifestaciones en Rusia a favor de Navalny, y la política de personas y organizaciones peligrosas fue evaluada en el caso sobre la mención de los talibanes en los informes de noticias.
III. Necesidad y proporcionalidad
Toda restricción que se aplique a la expresión debe ser adecuada para cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; y debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34).
El Consejo había analizado si las pantallas de advertencia son una restricción proporcional sobre la expresión en la decisión del caso sobre el video gráfico de Sudán y la decisión del caso sobre el poema ruso. La naturaleza y la gravedad de la violencia gráfica han sido determinantes en esas decisiones, y las responsabilidades de Meta en cuanto a los derechos humanos han estado, en ocasiones, en tensión con sus políticas de contenido definidas y su aplicación. El caso sobre el poema ruso trataba sobre una foto, tomada a distancia, de lo que parecía ser un cuerpo sin vida. El rostro no estaba visible, la persona no se podía identificar y no había indicadores gráficos visibles de violencia. En ese caso, el Consejo determinó que no era necesario aplicar una pantalla de advertencia. Por contraste, el caso sobre el video gráfico de Sudán trataba sobre un video que mostraba desmembramiento y vísceras visibles, filmado de cerca. En ese caso, el Consejo determinó que el contenido era lo suficientemente gráfico para justificar la aplicación de una pantalla de advertencia. La última decisión se basó en la concesión de interés periodístico, que se usó para permitir contenido infractor. Esta concesión se usó porque la política en sí no era clara en cuanto a cómo se podía aplicar para permitir contenido que generara conciencia sobre las infracciones de los derechos humanos.
En el presente caso, el Consejo está de acuerdo en que, sin los hashtags, hubiese sido necesario el uso de una pantalla de advertencia para proteger los derechos de privacidad de las víctimas y sus familiares, principalmente porque los rostros de las víctimas estaban visibles y la ubicación del ataque era conocida. Esto hace que las víctimas sean identificables, y más directamente compromete sus derechos de privacidad y los derechos de sus familiares. Las representaciones de muerte también son significativamente más gráficas que en el caso sobre el poema ruso, con cuerpos ensangrentados mostrados mucho más cerca. Sin embargo, no hay desmembramiento y no hay vísceras visibles. Si alguna de estas características hubiera estado presente, el contenido se tendría que haber eliminado o tendría que haber recibido la concesión de interés periodístico para permitir que permanezca en la plataforma. Si bien una pantalla de advertencia reducirá tanto el alcance como la interacción con el contenido, es una medida proporcional para respetar tanto la expresión como los derechos de los demás.
La mayoría del Consejo considera que eliminar el contenido no era una restricción necesaria ni proporcional sobre la libertad de expresión del usuario, y que debería restaurarse con una pantalla de advertencia que indique que es contenido perturbador. La mayoría considera que la incorporación de hashtags no aumentó el riesgo de dañar los derechos de privacidad y la dignidad de las víctimas, los sobrevivientes o sus familiares, dado que ya hay imágenes sustancialmente similares en Instagram detrás de una pantalla de advertencia.
Al reducir drásticamente el número de personas que verían el contenido, la aplicación de una pantalla de advertencia en este caso sirvió para respetar la privacidad de las víctimas (como con otros casos de videos similares), al mismo tiempo que permitió el debate de hechos que algunos Estados intentan suprimir. En contextos de constante inseguridad, es particularmente importante que los usuarios puedan generar conciencia sobre desarrollos recientes, documentar abusos de los derechos humanos y promover la rendición de cuentas por atrocidades.
Para la mayoría del Consejo, el texto en su totalidad, incluidos los hashtags, no era sádico y tendría que haber demostrado con mayor claridad sadismo, burla o exaltación de la violencia para que la eliminación del contenido fuera considerada necesaria y proporcional.
Una minoría del Consejo coincide con la mayoría en términos de su enfoque analítico y su visión general de las políticas de Meta en esta área, pero expresa desacuerdo con su interpretación de los hashtags y, por lo tanto, con el resultado de su análisis de los derechos humanos.
Para la minoría, la eliminación de la publicación fue coherente con las responsabilidades de Meta en cuanto a los derechos humanos y los principios de necesidad y proporcionalidad. Cuando ocurren hechos como este ataque, los videos de esta naturaleza suelen hacerse virales. El usuario en este caso tenía un gran número de seguidores. Es crucial que, en respuesta a incidentes como este, Meta actúe rápida y masivamente, incluido a través de la colaboración con socios del sector, para evitar y mitigar daños a los derechos humanos de las víctimas, los sobrevivientes y sus familiares. Esto también tiene un propósito público más amplio de contrarrestar el terror generalizado que los perpetradores de dichos ataques buscan sembrar, sabiendo que los medios sociales amplificarán sus impactos psicológicos. Por lo tanto, para la minoría es menos importante en términos de derechos humanos si el usuario en este caso principalmente intentó usar los hashtags para conectarse con su comunidad o aumentar su alcance. El valor de esas asociaciones, para los individuos involucrados y para el público más general, si bien no es insignificante, es mucho menos importante que respetar el derecho a la privacidad y la dignidad de los sobrevivientes y las víctimas. Los rostros de las víctimas están visibles y son identificables desde cerca en el video, en un lugar de culto, con sus cuerpos cubiertos de sangre. La contraposición entre esto y los hashtags militaristas sobre las armas en el texto es estremecedora y parece una burla. Exponer a las víctimas y a sus familiares a dicho contenido probablemente volvería a traumatizarlos, aunque no haya sido la intención del usuario que realizó la publicación.
Para la minoría, esto es diferente del caso sobre el video gráfico de Sudán seleccionado por el Consejo, donde los hashtags indican muy claramente la intención de documentar abusos de los derechos humanos. Si bien no debería ser un requisito de la política realizar declaraciones explícitas de la intención de generar conciencia (consultar las decisiones del Consejo de los casos sobre el cinturón de Wampum y la mención de los talibanes en los informes de noticias), es coherente con las responsabilidades de Meta en cuanto a los derechos humanos de eliminar hashtags que, de forma no crítica, evocan entusiasmo por las armas junto con imágenes identificables de personas asesinadas por armas de fuego. En estas circunstancias, la minoría cree que Meta debe pecar a favor de la eliminación del contenido.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Meta de eliminar el contenido y solicitó que se restaurara la publicación con una pantalla de advertencia que indique que es contenido perturbador.
10. Declaraciones de asesoramiento normativo
Política de contenido
1. Meta debe revisar el lenguaje expuesto al público en la política de contenido violento y gráfico para garantizar que esté mejor alineado con las pautas internas de la empresa sobre cómo se debe aplicar la política. El Consejo considerará que esta recomendación está implementada cuando la política se haya actualizado con una definición y ejemplos, de la misma forma que Meta explica conceptos como "exaltar" en la política de personas y organizaciones peligrosas.
Aplicación de políticas
2. Meta debe notificar a los usuarios de Instagram cuando se aplica una pantalla de advertencia sobre su contenido e indicar las bases de la política específicas para hacerlo. El Consejo considerará que esta recomendación está implementada cuando Meta confirme que se proporcionan notificaciones a los usuarios de Instagram en todos los idiomas admitidos por la plataforma.
* Nota procedimental:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asesoramiento de Duco Advisors, una firma de asesoría que se centra en la intersección de geopolítica, confianza y seguridad, y tecnología, y Memetica, un grupo de investigaciones digitales que brinda asesoría en riesgos y servicios de inteligencia sobre amenazas para mitigar los riesgos online.
Volver a Decisiones de casos y opiniones consultivas sobre políticas