Anulado

Declaración sobre el Partido Comunista de China

Un usuario apeló la decisión de Meta de eliminar un comentario de Instagram en el que se pedía la "muerte" del Partido Comunista de China.

Tipo de decisión

Resumen

Políticas y temas

Tema
Gobiernos, Libertad de expresión, Protestas
Estándar comunitario
Violencia e incitación

Regiones/Países

Ubicación
China

Plataforma

Plataforma
Instagram

Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de eliminar un comentario de Instagram en el que se pedía la "muerte" del Partido Comunista de China. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.

Información sobre el caso

En marzo de 2024, un usuario de Instagram publicó un comentario en el que decía "Death to the Chinese Communist Party!" (¡Muerte al Partido Comunista de China!) e incluía a continuación emojis de calaveras. Esto fue en respuesta a una publicación de la cuenta de un canal de noticias que incluía un video de Wang Wenbin, exportavoz del Ministerio de Relaciones Exteriores de China, en el que condenaba la aprobación de un proyecto de ley en la Cámara de Representantes de los Estados Unidos que podría tener un impacto en la presencia de TikTok en el país.

Meta inicialmente eliminó la publicación del usuario de Facebook conforme a su norma comunitaria sobre violencia e incitación, que prohíbe "amenazas de violencia". La empresa explicó que la prohibición incluye "ciertos pedidos de muerte si contienen un objetivo y un método de violencia".

Después de que el Consejo remitiera este caso a Meta, la empresa determinó que la eliminación del comentario fue incorrecta y restauró el contenido en Instagram. Meta explicó que, como se detalla en sus normas internas para los revisores de contenido, los pedidos de muerte de una institución como el Partido Comunista de China no se consideran infractores.

Autoridad y alcance del Consejo

El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Significancia del caso

Este caso pone de manifiesto una inconsistencia en la manera en que Meta aplica su política de violencia e incitación en declaraciones metafóricas o figurativas en un contexto político, que puede impactar de forma desproporcionada en el discurso político que critica estados e instituciones gubernamentales. El caso subraya la importancia de que Meta considere el objetivo del discurso (en este caso, un partido político), así como el uso que las personas hacen de la hipérbole, la retórica, la ironía y la sátira para criticar a instituciones, al diseñar sus sistemas de moderación.

En cuanto al discurso retórico, en el caso Poema ruso, el Consejo también observó que los fragmentos con lenguaje violento del poema "Kill him!" (¡Mátalo!) podrían leerse como "expresiones descriptivas, y no alentadoras, de un estado mental". El Consejo determinó que el lenguaje se empleó como recurso retórico para expresar el mensaje del usuario y que, en consecuencia, las normas internas de Meta relacionadas con su política de violencia e incitación permitían esa parte del contenido.

Si bien se refiere a una norma comunitaria (lenguaje que incita al odio) diferente de la que se ve implicada en este caso (violencia e incitación), la decisión del caso Bot de Birmania es relevante porque también se relaciona con discurso dirigido a estados o instituciones políticas. En ese caso, el Consejo concluyó que, dado que las groserías en la publicación no se dirigían a personas con base en su raza, etnia o nacionalidad, sino que estaban dirigidas a un Estado, no infringían la norma comunitaria sobre lenguaje que incita al odio. El Consejo enfatiza lo siguiente: "Es esencial garantizar que las prohibiciones que impidan dirigirse a personas con base en características protegidas no se interpreten de tal manera que protejan a Gobiernos e instituciones contra las críticas".

El Consejo instó anteriormente a Meta a implementar procedimientos adecuados para evaluar el contenido en el marco del contexto pertinente (caso "Memede los dos botones", recomendación n.º 3). También recomendó lo siguiente: "Para informar mejor a los usuarios sobre los tipos de declaraciones que están prohibidos, Meta debe enmendar la norma comunitaria sobre violencia e incitación para (i) explicar que las amenazas retóricas como 'muerte a X' generalmente están permitidas, excepto cuando el objetivo de la amenaza es una persona de alto riego…" (caso Eslogan de protesta contra Irán, recomendación n.º 1); y "Meta debe dar prioridad al otorgamiento de concesiones a gran escala cuando (i) no es probable que se genere violencia; (ii) se usa contenido potencialmente infractor en contextos de protesta; y (iii) hay un nivel alto de interés público" (caso Eslogan de protesta contra Irán, recomendación n.º 2).

Meta informó la implementación de la recomendación del caso "Meme de los dos botones" y de la recomendación n.º 2 de la decisión del caso "Eslogan de protesta contra Irán", pero no publicó información para demostrarlo. Para la recomendación n.º 1 del caso "Eslogan de protesta contra Irán", en su Actualización trimestral de Meta sobre el Consejo asesor de contenido, cuarto trimestre de 2023, Meta afirmó lo siguiente: "Actualizamos nuestra norma comunitaria sobre violencia e incitación al proporcionar más detalles sobre lo que constituye una 'amenaza' y distinguir nuestra aplicación de políticas con base en el objetivo. Como parte de este trabajo, también actualizamos nuestras guías internas".

El Consejo considera que la implementación completa de estas recomendaciones podría contribuir a reducir el número de errores al aplicar la política de violencia e incitación.

Decisión

El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas