Anulado

Dibujo animado sobre violación

Un usuario apeló la decisión de Meta de conservar una publicación de Facebook que contenía un dibujo animado en el que se mostraba a una persona drogando a otra insinuando una violación inminente.

Tipo de decisión

Resumen

Políticas y temas

Tema
Igualdad de sexo y género, Seguridad, Violencia
Estándar comunitario
Explotación sexual de adultos

Regiones/Países

Ubicación
México

Plataforma

Plataforma
Facebook

Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.

Resumen

Un usuario apeló la decisión de Meta de conservar una publicación de Facebook que contenía un dibujo animado en el que se mostraba a una persona drogando a otra insinuando una violación inminente. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó la publicación.

Información sobre el caso

En abril de 2024, un usuario de México volvió a compartir una publicación de Facebook que contenía un dibujo animado sobre una violación. El dibujo mostraba a dos personas, que parecían hombres, ingresando a una casa. La persona que vivía en la casa se disculpaba porque su casa estaba toda desordenada, pero, cuando ingresaban, estaba perfectamente ordenada. La otra persona decía que, en su caso, solo ordenaba cuando quería tener relaciones sexuales. La persona que vivía en la casa decía: "yo también, amigo", al mismo tiempo que cubría el rostro de la otra persona con un trapo mientras luchaban. El texto que acompañaba la publicación decía: "Lo siento, amigo", junto con un emoji triste.

El usuario que reportó esta publicación explica que las bromas sobre violación "no son graciosas" y que "los hombres por lo general no reportan que fueron violados y eso se debe a este tipo de imágenes".

La política de explotación sexual de adultos de Meta prohíbe explícitamente "contenido que muestra o apoya el contacto sexual no consentido, o se burla de este", incluido el "contenido que ridiculiza a los sobrevivientes o el concepto de contacto sexual no consentido". Meta determina la falta de consentimiento analizando el contexto, así como también las expresiones verbales, los gestos físicos o la incapacidad.

Luego de que el Consejo le remitiera este caso a Meta, la empresa determinó que el contenido infringía la política de explotación sexual de adultos y que su decisión original de conservar el contenido había sido incorrecta. La empresa eliminó el contenido de Facebook.

Autoridad y alcance del Consejo

El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.

Significancia del caso

Este caso muestra las falencias de Meta a la hora de aplicar la política de explotación sexual de adultos. Durante muchos años, grupos de sociedad civil han planteado reiteradamente su preocupación sobre la subaplicación de las políticas de Meta ante la presencia de contenido que se burla de las violaciones o de las víctimas o los sobrevivientes de violencia sexual. El Consejo había abordado previamente las dificultades inherentes a moderar con precisión las bromas y los intentos de humor. En la decisión del caso El meme de los dos botones, el Consejo destacó la importancia de analizar con cuidado el contenido y el contexto de supuestas bromas cuando Meta evalúa las publicaciones. Si bien la decisión del caso "El meme de los dos botones" abordaba contenido satírico que había sido eliminado de forma incorrecta, este caso muestra los errores que se comenten cuando publicaciones expresadas como bromas no se toman con la suficiente seriedad y se conservan de forma errónea en la plataforma. Meta ahora coincide en que, esta publicación, que se basa en una premisa homofóbica y se burla de la agresión sexual violenta, claramente infringe la política de explotación sexual de adultos. Dada la alta probabilidad de cometer errores en estos tipos de casos, el Consejo recomendó a Meta garantizar que sus procesos incluyan de forma adecuada suficientes oportunidades para "investigar o escalar casos cuando el moderador no está seguro si un meme es satírico o no" (El meme de los dos botones, recomendación n.° 3). Meta informó la implementación de esta recomendación, pero no publicó información que lo demuestre.

El Consejo emitió recomendaciones destinadas a reducir la cantidad de errores en la aplicación de políticas por parte de Meta. El Consejo instó a Meta "implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores del sistema de aplicación de políticas (decisión del caso Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta reformuló la recomendación en su respuesta e implementación, y no abordó el objetivo de la recomendación del Consejo. El Consejo también destacó reiteradamente la importancia de que Meta dedique una mayor cantidad de recursos a mejorar su capacidad de evaluar con precisión contenido potencialmente dañino que critique o legitime problemas sistémicos, incluida la violencia de género o sexual en situaciones como aquellas que se abordaron en las decisiones de los casos Video sobre acoso sexual en la India e Imagen de violencia de género.

Decisión

El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.

Volver a Decisiones de casos y opiniones consultivas sobre políticas