Anulado

Maltrato por parte de las Fuerzas Armadas de Ecuador

Un usuario apeló la decisión de Meta de eliminar un video de Facebook de Ecuador en el que se veía a personas atadas, a quienes otras, vestidas con lo que parecían ser uniformes militares, pisaban y pegaban con palos.

Tipo de decisión

Resumen

Políticas y temas

Tema
Gobiernos, Libertad de expresión, Política
Estándar comunitario
Contenido violento y gráfico, Lenguaje que incita al odio, Violencia e incitación

Regiones/Países

Ubicación
Ecuador

Plataforma

Plataforma
Facebook

Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresae incluyen información sobre los errores que Metareconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de eliminar un video de Facebook de Ecuador en el que se veía a personas atadas, a quienes otras, vestidas con lo que parecían ser uniformes militares, pisaban y pegaban con palos. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original, restauró la publicación y aplicó también una pantalla de advertencia "Marcar como sensible".

Información sobre el caso

En enero de 2024, un usuario de Facebook publicó un video en el que se veía a un grupo de personas atadas que yacían boca abajo en el suelo, mientras varias otras con ropa camuflada les pisaban el cuello y la espalda reiteradamente para sostenerlas en esa postura y las golpeaban con palos. No hay rostros visibles en el video. En el audio se oye también que alguien dice "maricón", término que el Consejo, en su decisión del caso Manifestaciones en Colombia, notó que Meta había designado como insulto. La publicación contiene también texto en español que condena la golpiza propinada a prisioneros "indefensos" y "desarmados".

Aproximadamente en la época en que se publicó el contenido, hubo un motín de reclusos en cárceles de Ecuador donde se tomaron como rehenes a guardias y personal administrativo. El Gobierno de Ecuador declaró estado de emergencia e impuso un toque de queda. La policía y las fuerzas armadas recuperaron el control de varias cárceles, y el ejército publicó imágenes de cientos de reclusos descalzos y con el torso desnudo yaciendo en el suelo.

Meta eliminó inicialmente la publicación del usuario de Facebook en virtud de su norma comunitaria sobre violencia e incitación, que prohíbe amenazas de violencia, que se definen como "frases o imágenes que representan una intención, aspiración o llamada a cometer actos de violencia contra un objetivo".

Cuando el Consejo remitió este caso a Meta, la empresa no justificó los motivos por los que eliminó el contenido en virtud de la norma comunitaria sobre violencia e incitación. Asimismo, la empresa evaluó el contenido conforme a la norma comunitaria sobre lenguaje que incita al odio. Meta explicó que, si bien el contenido incluía insultos, se admitió en virtud de la norma comunitaria sobre lenguaje que incita al odio porque se trataba de "insultos o lenguaje que incita al odio emitido por otra persona con la intención de reprobarlo o concientizar a los demás".

Meta explicó también que, conforme a la norma comunitaria sobre contenido violento y gráfico, la empresa aplicó una pantalla de advertencia "Marcar como sensible" a "imágenes de una o más personas siendo víctimas de violencia o actos humillantes por parte de personal uniformado en el ejercicio de su función policial". La empresa restauró el contenido en Facebook y aplicó la etiqueta "Marcar como sensible".

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Significancia del caso

Este caso ilustra los desafíos que enfrenta Meta con la aplicación de sus políticas de violencia e incitación, contenido violento y gráfico, y lenguaje que incita al odio. Estos desafíos son particularmente difíciles al abordar documentación de violencia o abusos durante situaciones de crisis para generar conciencia al respecto.

Respecto de la norma comunitaria sobre violencia e incitación, el Consejo recomendó que Meta "agregue al texto público... que, según la interpretación de la empresa, la política permite contenido que incluya declaraciones con referencias neutrales a un resultado potencial de una acción o una advertencia, y contenido que condene las amenazas violentas o concientice sobre estas" (caso Poema ruso, recomendación n.º 1). Se implementó esta recomendación. En febrero de 2024, Meta actualizó esta política para incluir una aclaración que indica que no prohíbe las amenazas si se comparten en contextos para generar conciencia o mostrar repudio.

Con respecto a la norma comunitaria sobre contenido violento y gráfico, el Consejo le recomendó a Meta que "notifique a los usuarios de Instagram cuando se aplique una pantalla de advertencia a su contenido y proporcione las bases de la política específicas para ello" (caso Video tras el ataque en una iglesia de Nigeria, recomendación n.º 2). Meta informó que hubo progreso en la implementación de esta recomendación. En la actualización que brindó al Consejo en el cuarto trimestre de 2023, Meta afirmó: "Las personas que usan nuestras plataformas recibirán detalles exhaustivos sobre las determinaciones de aplicación de políticas y las medidas de seguridad que tomemos respecto de su contenido, incluida la implementación de pantallas de advertencia. Dado que se trata de un componente integral de nuestra iniciativa de cumplimiento más general, anticipamos ofrecer una actualización más rigurosa más adelante en 2024".

Respecto del lenguaje que incita al odio, el Consejo recomendó a Meta "revisar la norma comunitaria sobre lenguaje que incita al odio para proteger de forma explícita los reportajes periodísticos cuando se incluyen insultos si estos, en especial, en el contexto de elecciones, no generan un clima de exclusión ni intimidación. Esta excepción debería hacerse pública y estar separada de las excepciones de "concientización" y "condena" (caso Disputa política previa a las elecciones en Turquía, recomendación n.º 1). Se informó que hubo progreso en la implementación de esta recomendación. También se le recomendó a Meta "desarrollar y difundir criterios claros para que los revisores de contenido escalen el contenido de interés público para una nueva revisión cuando posiblemente infrinja las Normas comunitarias, pero también cumpla los requisitos para la concesión de interés periodístico" (caso Manifestaciones en Colombia, recomendación n.º 3). Meta describió recomendación como una tarea que ya realiza, pero no publicó información que demuestre la implementación.

El Consejo considera que la implementación completa de estas recomendaciones podría contribuir a reducir el número de errores al aplicar las políticas de violencia e incitación, contenido violento y gráfico y lenguaje que incita al odio.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas