Anulado
Herencia del Orgullo
Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram que celebraba el Mes del Orgullo porque incluía un insulto que se utiliza tradicionalmente contra la gente homosexual.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos por Meta e informan al púbico sobre el impacto del trabajo del Consejo. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No abarcan el proceso de comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de eliminar una publicación de Instagram que celebraba el Mes del Orgullo porque incluía un insulto que se utiliza tradicionalmente contra la gente homosexual. Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y restauró la publicación.
Descripción y contexto del caso
En enero de 2022, un usuario de Instagram publicó una imagen con un texto que incluía una cita de James Baldwin, escritor y activista de derechos civiles, sobre el poder del amor para unir a la humanidad. Además, en el texto, el usuario expresaba su esperanza por un año de tranquilidad, comunidad y revolución, y abogaba por la afirmación constante de la belleza queer. En la imagen de la publicación, se mostraba a un hombre con un letrero que decía: "That’s Mr Faggot to you" (Ese es el gran puto para ti), haciendo crédito al fotógrafo original en el texto. La publicación se visualizó aproximadamente 37.000 veces.
Según la política sobre el lenguaje que incita al odio de Meta, la empresa prohíbe el uso de ciertas palabras que se consideran insultos. Sin embargo, la empresa reconoce que el "lenguaje, incluidos los insultos, que podría infringir nuestras normas se puede usar de forma autorreferencial o motivadora". Según Meta, "nuestras políticas están diseñadas para dar espacio a estos tipos de lenguaje, pero exigimos que la intención quede clara". Meta podría eliminar el contenido si la intención no es clara.
Inicialmente, Meta eliminó el contenido de Instagram. El usuario, una cuenta verificada de Instagram con base en los Estados Unidos, apeló la decisión de Meta de eliminar la publicación ante el Consejo. Luego de que el Consejo le presentara este caso a Meta, la empresa determinó que el contenido no infringía su norma comunitaria sobre lenguaje que incita al odio y que su decisión original había sido incorrecta. Seguidamente, la empresa restauró el contenido en Instagram.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras una apelación de la persona cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Importancia del caso
Este caso expone los desafíos de Meta a la hora de aplicar excepciones a su política sobre lenguaje que incita al odio, así como las falencias del programa de verificación cruzada de la empresa. El contenido fue publicado por una cuenta verificada de Instagram apta para revisión de acuerdo con el sistema de verificación cruzada. Por lo tanto, la cuenta, dedicada a informar a los usuarios sobre el movimiento LGBTQIA+, debería haber tenido niveles de revisión adicionales. Dado que el texto mencionaba "infinite queer beauty" (belleza queer infinita) y hacía referencia a la comunidad y solidaridad de las personas LGBTQIA+, los sistemas de moderación de Meta deberían haber reconocido que el insulto se usaba aquí de una forma empoderadora, y no de una manera de condenar o menospreciar a esta comunidad.
Anteriormente, el Consejo emitió varias recomendaciones relevantes para este caso. El Consejo recomendó que "Meta debería ayudar a los moderadores a evaluar mejor cuándo corresponde aplicar excepciones para el contenido que contenga insultos" (decisión sobre el caso Reapropiación de términos árabes, recomendación n.º 1) y que Meta debería "permitir a los usuarios indicar en su apelación si el contenido se incluye dentro de alguna de las excepciones de la política sobre lenguaje que incita al odio, entre ellas, cuando el usuario comparte contenido ofensivo a modo de repudio o para generar conciencia" (decisión sobre el caso Meme de "los dos botones", recomendación n.º 4). Meta no tomó más medidas acerca de la primera recomendación e implementó parcialmente la segunda. Además, el Consejo recomendó a Meta que "lleve a cabo evaluaciones de precisión centradas en las concesiones correspondientes a la política sobre lenguaje que incita al odio que amparan la expresión sobre infracciones de los derechos humanos (p. ej., actos de condena, concientización)", decisión sobre el caso Cinturón de abalorios, recomendación n.º 3). Meta implementó esta recomendación parcialmente. Finalmente, dado que el contenido fue publicado por una cuenta que forma parte del programa de verificación cruzada de Meta, entre las recomendaciones relevantes, se incluyen alentar a Meta a que identifique a las "entidades en las que históricamente se aplicaron políticas de forma excesiva para mejorar sus prácticas de aplicación de políticas a gran escala" (opinión de asesoramiento normativo sobre el programa de verificación cruzada, recomendación n.º 26) y a que establezca "un proceso para que los usuarios puedan solicitar recibir protecciones para la prevención de errores por sobreaplicación de políticas" (opinión de asesoramiento normativo sobre el programa de verificación cruzada, recomendación n.º 5). Actualmente, Meta está implementado por completo la primera recomendación y rechazó tomar más medidas con respecto a la segunda. El Consejo subraya la necesidad de que Meta aborde estas preocupaciones para reducir la tasa de errores al moderar contenido relacionado con lenguaje que incita al odio.
Decisión
El Consejo anuló la decisión original de Meta de eliminar el contenido. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas