Anulado
Racismo relacionado con "El planeta de los simios"
Un usuario apeló la decisión de Meta de conservar una publicación de Facebook que compara a un grupo de personas de la comunidad negra involucradas en un disturbio en Francia con "El planeta de los simios".
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo le remitiera el caso a la empresa. Estas decisiones incluyen información sobre los errores reconocidos de Meta. Un panel de miembros del Consejo las aprueba, pero no todo el Consejo. No tienen en cuenta los comentarios del público ni tienen un valor de precedente para el Consejo. Las decisiones resumidas aportan transparencia a las correcciones de Meta y destacan áreas en las que la empresa podría mejorar la aplicación de políticas.
Resumen del caso
Un usuario apeló la decisión de Meta de conservar una publicación de Facebook que compara a un grupo de personas de la comunidad negra involucradas en un disturbio en Francia con "El planeta de los simios". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó la publicación.
Descripción y contexto del caso
En enero de 2023, un usuario de Facebook publicó un video que parece haber sido grabado desde un automóvil que circulaba por la noche. En el video, se puede ver el automóvil circulando por la comunidad local hasta que aparece un grupo de hombres de la comunidad negra, a quienes se los ve persiguiendo el automóvil hasta que termina la grabación. En el pie de video en inglés, se afirma que "France has fell like planet of the friggin apes over there rioting in the streets running amok savages" (Francia parece el maldito planeta de los simios que generan disturbios y corren por las calles descontroladamente como salvajes) y se describe cómo "the ones" (a aquellos) que consiguen llegar a "our shores" (nuestras costas) se les da vivienda y esto, según el usuario, tiene un costo significativo. La publicación tuvo más de 500 reproducciones. Un usuario de Facebook reportó el contenido.
Conforme a la política de Meta sobre lenguaje que incita al odio, la empresa elimina contenido que deshumaniza a las personas pertenecientes a un grupo de características protegidas designadas al compararlas con "insectos" o "animales en general o tipos específicos de animales que culturalmente se perciben como inferiores intelectual o físicamente (incluidos, entre otros: personas negras y simios o criaturas similares a simios; personas judías y ratas; personas musulmanas y cerdos; personas mexicanas y gusanos)".
Meta inicialmente conservó el contenido en Facebook. Luego de que el Consejo le presentara este caso a Meta, la empresa determinó que el contenido infringía su norma comunitaria sobre lenguaje que incita al odio y que su decisión original de conservar el contenido había sido incorrecta. Meta explicó al Consejo que el texto del video infringía su política de lenguaje que incita al odio al comparar a hombres con simios, por lo que se debería haber eliminado. La empresa eliminó el contenido de Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido, para reducir los errores y para ser más justo con las personas que usan Facebook e Instagram.
Importancia del caso
Este caso destaca las dificultades en la aplicación consistente por parte de Meta de sus políticas de contenido. Meta tiene una disposición específica en la política de lenguaje que incita al odio que prohíbe comparaciones de personas de la comunidad negra con simios; sin embargo, no eliminó el contenido en este caso. En otros casos aceptados por el Consejo, se examinaron las políticas de Meta sobre lenguaje que incita al odio y los factores contextuales que se aplican para determinar si dicho lenguaje incluye afirmaciones aptas o no aptas basadas en comportamientos sobre un grupo protegido para un comentario social legítimo. Sin embargo, el contenido en este caso indudablemente utiliza lenguaje que incita al odio deshumanizante con el fin expreso de denigrar a un grupo de personas por su raza, por lo que se debería haber eliminado. El caso también resalta cómo los problemas con la aplicación de políticas pueden tener como consecuencia que se conserve en las plataformas de Meta contenido que discrimina a un grupo de personas por su raza o grupo étnico. El Consejo observa que este tipo de contenido, a gran escala, contribuye a seguir marginalizando a grupos minoritarios visibles e, incluso, podría causar daño en la vida real, especialmente en regiones donde existe hostilidad hacia los inmigrantes.
Anteriormente, el Consejo había emitido una recomendación que enfatizaba la importancia de que los moderadores reconocieran matices en la política de Meta sobre lenguaje que incita al odio. Específicamente, el Consejo recomendó que "Meta debe aclarar la norma comunitaria sobre lenguaje que incita al odio y las pautas proporcionadas a los revisores, y explicar que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible" (decisión Dibujo animado de Knin, recomendación n.º 1). La implementación parcial de esta recomendación por parte de Meta se demostró mediante información publicada. El Consejo subraya la necesidad de que Meta aborde estas preocupaciones para reducir la tasa de errores al moderar contenido relacionado con lenguaje que incita al odio.
Decisión
El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas