Anulado
Alabado sea Dios
Un usuario apeló la decisión de Meta de eliminar su publicación de Instagram, que incluía una foto suya con un atuendo nupcial, acompañada por una descripción que rezaba "alhamdulillah".
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas de posible mejora en su aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar su publicación de Instagram, que incluía una foto suya con un atuendo nupcial, acompañada por una descripción que rezaba "alhamdulillah", expresión habitual que significa "alabado sea Dios". Después de que el Consejo asesor de contenido le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En junio de 2023, un usuario de Pakistán publicó una foto suya con un atuendo nupcial en un evento tradicional previo a una boda. La descripción que acompañaba la publicación rezaba "alhamdulillah", expresión utilizada por muchas personas en las sociedades musulmanas y árabes que significa "alabado sea Dios". La publicación tuvo menos de 1.000 visualizaciones.
La publicación se eliminó por infringir la política sobre personas y organizaciones peligrosas de la empresa. Esta política prohíbe el contenido que exalta, apoya sustancialmente o representa organizaciones o personas que Meta considera peligrosas.
En su declaración ante el Consejo, el usuario hizo hincapié en que la frase "alhamdulillah" es una expresión cultural común que se utiliza para expresar gratitud y no tiene "vínculos remotos o directos con grupos de odio, naturaleza ofensiva ni asociación alguna con una organización peligrosa". El Consejo considera la frase como discurso protegido en virtud de las Normas comunitarias de Meta, coherente con la libertad de expresión y el valor de la empresa de proteger la "expresión".
El usuario remarcó la popularidad de la frase diciendo que es "una de las frases más populares entre la población de más de dos mil millones de musulmanes del planeta... Si este es el motivo por el que se eliminó la publicación, considero que es sumamente perjudicial para la población musulmana en Instagram e intrínsecamente un tanto ignorante".
Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido "no incluía referencias a una organización o persona designada" y, por lo tanto, no infringía la política sobre personas y organizaciones peligrosas. Seguidamente, Meta restauró el contenido en Instagram.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para ser más justo con las personas que usan Facebook e Instagram.
Importancia del caso
Este caso pone de manifiesto la aplicación incoherente de la política sobre personas y organizaciones peligrosas por parte de Meta, que puede conducir a la eliminación errónea de contenido. Los errores de aplicación de políticas de este tipo desvirtúan la responsabilidad de Meta de tratar a los usuarios de manera justa.
Anteriormente, el Consejo había emitido recomendaciones relacionadas con la aplicación de la política sobre personas y organizaciones peligrosas. El Consejo recomendó a Meta que "evalúe los procesos de moderación automática en lo que respecta a la aplicación de la política sobre personas y organizaciones peligrosas" (recomendación n.º 2 del caso Aislamiento de Öcalan). Meta se negó a implementar esta recomendación. Asimismo, el Consejo recomendó a Meta que "mejore la capacidad asignada al sistema de anulación de falsos positivos de alto impacto en los diversos idiomas para garantizar que una mayor cantidad de decisiones de contenido que pueden deberse a errores de aplicación de políticas se sometan a revisión manual" (recomendación n.º 7 del caso Mención de los talibanes en los informes de noticias). Meta indicó que ya realiza esta tarea, pero no publicó información que demuestre la implementación. Por último, el Consejo recomendó a Meta que publique "información más integral sobre las tasas de errores en la aplicación de las reglas sobre 'exaltación' y 'apoyo' de personas y organizaciones peligrosas, desglosada por región e idioma" en sus informes de transparencia (recomendación n.º 12 del caso Aislamiento de Öcalan). Meta se negó a implementar esta recomendación.
En este caso, no hubo mención de una persona u organización que pudiera considerarse peligrosa. El Consejo manifestó en varios casos que los problemas de comprensión cultural y los errores de traducción pueden conllevar la aplicación incorrecta de las políticas de Meta. Asimismo, el Consejo emitió recomendaciones relacionadas con la moderación de contenido árabe. El Consejo recomendó a Meta que "traduzca las normas de implementación internas y las preguntas conocidas", que sirven como guía a los moderadores de contenido "respecto del árabe moderno" (recomendación n.º1 del caso Reapropiación de términos árabes). Meta se negó a implementar esta recomendación.
El Consejo reiteró que la implementación total de las recomendaciones anteriores permitirá reducir los errores de aplicación de políticas conforme a la política sobre personas y organizaciones peligrosas, lo que disminuirá la cantidad de usuarios afectados por la eliminación errónea de contenido.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso a la empresa.
Volver a Decisiones de casos y opiniones consultivas sobre políticas