Decisión de casos múltiples
Estereotipos negativos de los afroamericanos
El Consejo revisó tres publicaciones de Facebook que incluían material racista, las cuales Meta había decidido conservar en la plataforma. Después de que el Consejo le remitiera estas apelaciones a Meta, la empresa revirtió sus decisiones originales y eliminó las publicaciones.
3 casos incluidos en el paquete
FB-LHBURU6Z
Caso sobre lenguaje que incita al odio en Facebook
FB-1HX5SN1H
Caso sobre lenguaje que incita al odio en Facebook
FB-ZD01WKKW
Caso sobre lenguaje que incita al odio en Facebook
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
El Consejo revisó tres publicaciones de Facebook que incluían material racista, las cuales Meta había decidido conservar en la plataforma. Cada publicación incluía una caricatura o una imagen manipulada de afroamericanos que resaltaba estereotipos ofensivos, como padres ausentes, recepción de asistencia social o saqueadores en una tienda. Estos casos exponen los errores de Meta al aplicar sus políticas de lenguaje que incita al odio y bullying y acoso. Después de que el Consejo le remitiera estas apelaciones a Meta, la empresa revirtió sus decisiones originales y eliminó las publicaciones.
Información de los casos
A fines de 2023, el Consejo recibió tres apelaciones separadas sobre tres imágenes diferentes publicadas en Facebook. Todas ellas incluían material negativo sobre los afroamericanos.
En la primera publicación, la cual tuvo cerca de 500.000 visualizaciones, un usuario compartió una imagen generada por computadora de una tienda en llamas con caricaturas de personas negras. Estos personajes usaban sudaderas con capucha, tomaban mercadería de la tienda y se iban corriendo. En la imagen, el nombre de la tienda, Target, había sido cambiado por "Loot" (saqueo). Y, en el texto que la acompañaba, el usuario describía la imagen como la próxima película de Pixar.
En la segunda publicación, se mostraba una imagen generada por computadora que también imitaba un póster de película. En ella, aparecería una mujer negra con rasgos físicos exagerados llevando un carrito de compra lleno de Cheetos. El título de la película era "EBT", que es el nombre de un sistema para recibir asistencia social en los Estados Unidos. En la parte superior del póster, en lugar de los nombres de los actores, se leían los nombres Trayvon Martin y George Floyd, dos afroamericanos víctimas de violencia. Trayvon murió asesinado por un vigilante armado en 2012, y George murió asesinado por un oficial de policía en 2020. Sus muertes desataron protestas sobre desigualdades raciales en el sistema judicial de los Estados Unidos.
En la tercera publicación, que tuvo cerca de 14 millones de visualizaciones, se podía ver un meme con texto que decía: "Adobe has developed software that can detect photoshop in an image" (Adobe desarrolló un software que permite detectar photoshop en una imagen). Debajo de este texto, aparecía la imagen de una mujer con marcas de colores sobre toda su cara (lo que suele usarse para mostrar la detección de calor) para señalar que partes de la imagen se habían alterado. El usuario contrastaba esta imagen con otra de una familia negra que se encontraba comiendo, en la cual el padre y la comida que estaba sobre la mesa tenían las mismas marcas de colores, lo cual implicaba que estos dos elementos se habían agregado mediante edición. La publicación reforzaba el estereotipo negativo generalizado sobre la falta de una figura paterna en las familias negras en los Estados Unidos, lo cual proviene de una historia compleja de racismo sistemático y desigualdad económica.
Meta inicialmente conservó las tres publicaciones en Facebook, pese a las apelaciones de los usuarios. En sus apelaciones al Consejo, esos mismos usuarios argumentaron que el contenido representaba estereotipos raciales dañinos de los afroamericanos.
Luego de que el Consejo le remitiera estos casos a Meta, la empresa determinó que las publicaciones infringían la norma comunitaria sobre lenguaje que incita al odio, que prohíbe ataques directos contra las personas sobre la base de características protegidas, incluidos el racismo y la etnia. La política también prohíbe específicamente "dirigirse a una persona o un grupo de personas" con "lenguaje deshumanizante" en forma de "comparaciones con criminales, incluidos, entre otros, ladrones", "burlas acerca del concepto de los crímenes de odio, de hechos de este tipo o de sus víctimas", y "generalizaciones que denotan inferioridad en características morales".
Además, Meta determinó que la segunda publicación que incluía los nombres de Trayvon Martin y George Floyd también infringía la norma comunitaria sobre bullying y acoso, conforme a la cual la empresa elimina la "celebración o burla sobre la muerte o enfermedad" de una persona. La empresa explicó que "la imagen incluía los nombres de dos personas fallecidas, Trayvon Martin y George Floyd... El contenido trivializaba sus muertes al implicar que protagonizaban una película animada ficticia".
Por lo tanto, eliminó las tres publicaciones.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Significancia de los casos
Estos casos exponen tres situaciones en las que Meta aplicó incorrectamente sus políticas de lenguaje que incita al odio y de bullying y acoso al conservar publicaciones infractoras pese a los reclamos de los usuarios. Dos de las publicaciones tuvieron un alto número de visualizaciones. Estos errores de aplicación incorrecta de políticas por parte de los moderadores pueden tener un impacto negativo en las personas de grupos con características protegidas y contribuyen a un entorno de discriminación. El Consejo instó a Meta a abordar el lenguaje que incita al odio contra grupos marginados como una prioridad estratégica.
En 2022, el Consejo recomendó a Meta que debe "aclarar la norma comunitaria sobre lenguaje que incita al odio y las pautas proporcionadas a los revisores, y explicar que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible" (decisión sobre el caso Dibujo animado de Knin, recomendación n.º 1). Sin embargo, Meta indicó que implementó parcialmente esta recomendación.
Decisión
El Consejo anuló las decisiones originales de Meta de conservar las tres publicaciones. El Consejo confirma que Meta corrigió su error inicial después de haberle remitido los casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas