Anulado
Caricatura de conspiración de los medios
Un usuario apeló la decisión de Meta de dejar un comentario de Facebook con la imagen de una caricatura de un hombre judío sosteniendo una caja de música con la leyenda "Medios", mientras un mono con la leyenda "BLM" descansa sobre sus hombros.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de dejar un comentario de Facebook con la imagen de una caricatura de un hombre judío sosteniendo una caja de música con la leyenda "Medios", mientras un mono con la leyenda "BLM" descansa sobre sus hombros. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó el comentario.
Descripción y contexto del caso
En mayo de 2023, un usuario publicó un comentario con la imagen de una caricatura de un hombre judío sosteniendo una caja de música antigua, con un mono sobre los hombros. La caricatura tiene una nariz de gancho exagerada y lleva la estrella de David con la leyenda "Judío", similar a las insignias que los judíos estaban obligados a llevar durante el Holocausto. El mono sobre sus hombros tiene la leyenda "BLM" (acrónimo del movimiento "Black Lives Matter"), mientras que la caja de música lleva la leyenda "Medios". El comentario se visualizó más de 100 veces.
Este contenido infringe dos elementos independientes de la política sobre lenguaje que incita al odio de Meta. La política sobre lenguaje que incita al odio de Meta prohíbe el contenido que hace referencia a "estereotipos dañinos vinculados históricamente con intimidación", como "declaraciones que afirman que las personas judías controlan instituciones financieras, políticas o de medios de comunicación". Asimismo, la política sobre lenguaje que incita al odio de Meta prohíbe las imágenes deshumanizantes, por ejemplo, contenido que compara "personas negras y simios o criaturas similares a simios". Este contenido infringe ambos elementos, ya que insinúa que los judíos controlan las instituciones de medios de comunicación y compara el movimiento "BLM" con un mono. En su apelación ante el Consejo, el usuario que reportó el contenido indicó que es antisemita y racista hacia las personas negras.
Meta inicialmente conservó el contenido en Facebook. Cuando el Consejo remitió este caso a Meta, la empresa determinó que la publicación infringía su política sobre lenguaje que incita al odio y que su decisión original de conservar el contenido fue incorrecta. La empresa eliminó el contenido de Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación de la persona que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, para reducir los errores y para ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
El caso pone de manifiesto las brechas en la aplicación de Meta de su política sobre lenguaje que incita al odio, que puede conducir a la difusión de contenido que fomenta estereotipos dañinos e imágenes deshumanizantes. Se deben corregir los errores de aplicación de esta naturaleza, dada la responsabilidad de Meta de mitigar el riesgo de daños asociados con contenido cuyo fin es atacar a grupos marginalizados.
El Consejo ya había evaluado casos en los que Meta no aplicó exhaustivamente la política sobre lenguaje que incita al odio, donde el contenido del usuario mostraba una clara infracción de las normas de la empresa. El Consejo recomendó que "Meta aclare la norma comunitaria sobre lenguaje que incita al odio y las pautas proporcionadas a los revisores, y explique que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible" (decisión Dibujo animado de Knin, recomendación n.º 1). Meta implementó parcialmente esta recomendación.
El Consejo también emitió recomendaciones cuyo fin es reducir la cantidad de errores en la aplicación de políticas. El Consejo recomendó a Meta implementar un proceso de auditoría interno para analizar de forma constante una muestra estadísticamente representativa de las decisiones automatizadas de eliminación de contenido que deban revertirse a fin de aprender de los errores del sistema de cumplimiento de normas (decisión Síntomas de cáncer de mama y desnudos, recomendación n.º 5). Meta afirma que ya toma medidas relacionadas con esta recomendación, pero sin publicar información ni demostrarlo.
El Consejo reitera que la implementación total de las recomendaciones antes mencionadas permitirá reducir los errores de aplicación de la política sobre lenguaje que incita al odio, lo que disminuirá la prevalencia de contenido que fomenta estereotipos ofensivos e imágenes deshumanizantes.
Decisión
El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas