Anulado
Comentarios deshumanizantes sobre las personas de Gaza
Un usuario apeló la decisión de Meta de conservar una publicación de Facebook que afirmaba que Hamás había surgido de la población de Gaza y la comparaba con una "horda salvaje". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó la publicación.
Esta es una decisión resumida. Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
Un usuario apeló la decisión de Meta de conservar una publicación de Facebook que afirmaba que Hamás había surgido de la población de Gaza y refleja sus "deseos más íntimos", y la comparaba con una "horda salvaje". Después de que el Consejo le remitiera la apelación a Meta, la empresa revirtió su decisión original y eliminó la publicación.
Información sobre el caso
En diciembre de 2023, un usuario volvió a publicar una imagen en Facebook con texto, junto a la imagen de un hombre sin nombre, que expresaba que el "público general" en Gaza no era "víctima" de Hamás, sino que, más bien, el grupo militante emergió como un "verdadero reflejo" de "los deseos más íntimos de una horda salvaje". Esta imagen contenía texto de apoyo con las palabras "la verdad". La publicación se visualizó menos de 500 veces.
Conforme a la política de lenguaje que incita al odio, Meta prohíbe contenido dirigido contra una persona o un grupo de personas sobre la base de sus características protegidas, en especial, cuando hace comparaciones con "seres infrahumanos" e incluye la palabra "salvaje" como ejemplo. En este contenido, la referencia al "público general de Gaza" es una referencia implícita a la población palestina en Gaza. Por lo tanto, se dirige a las características protegidas de etnia y nacionalidad.
En la apelación del caso al Consejo, el usuario remarcó que la publicación "constituía lenguaje deshumanizante", ya que realizaba una generalización sobre las personas de Gaza.
Luego de que el Consejo remitiera este caso a Meta, la empresa determinó que el contenido infringía su política de lenguaje que incita al odio y que su decisión original de conservarlo había sido incorrecta. La empresa eliminó el contenido de Facebook.
Autoridad y alcance del Consejo
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación del usuario que reportó el contenido que posteriormente se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido, reducir los errores y ser más justo con los usuarios de Facebook e Instagram.
Significancia del caso
Este caso pone de manifiesto los errores de la aplicación de la política de lenguaje que incita al odio de Meta, específicamente en relación con contenido que ataca a personas en función de sus características protegidas. Los errores de moderación son particularmente dañinos en momentos de conflictos armados en curso. Por lo tanto, se deberían haber aplicado prácticas de moderación de contenido más sólidas.
El caso Dibujo animado de Knin también tenía lenguaje que incita al odio dirigido contra una característica protegida (etnia), ya que se refería a un grupo étnico como ratas sin nombrarlos explícitamente. El caso sobre el dibujo animado requirió contexto histórico y cultural para interpretar la representación simbólica de un grupo étnico, mientras que este caso vincula más directamente comentarios deshumanizantes con toda una población, lo cual debe entenderse razonablemente como una referencia a personas por sus características protegidas.
En la decisión del caso sobre el dibujo animado, el Consejo recomendó que Meta debe "aclarar la norma comunitaria sobre lenguaje que incita al odio y las pautas proporcionadas a los revisores, y explicar que la política prohíbe incluso las referencias implícitas a los grupos protegidos cuando hubiera una referencia razonablemente comprensible" (decisión sobre el caso Dibujo animado de Knin, recomendación n.º 1). Sin embargo, Meta indicó que implementó parcialmente esta recomendación. En el cuarto trimestre de 2022, Meta informó que "agregó contenido a las Normas comunitarias y a las pautas normativas de los revisores aclarando que se eliminará lenguaje que incita al odio implícito si los revisores lo escalan a expertos en los casos en los que Meta pueda entender razonablemente la intención del usuario". El Consejo considera que esta recomendación está parcialmente implementada, ya que no se actualizó la norma comunitaria sobre lenguaje que incita al odio, sino que solo se actualizó la introducción general de las Normas comunitarias.
El Consejo considera que la implementación completa de esta recomendación reduciría el número de errores al aplicar la política de lenguaje que incita al odio de Meta.
Decisión
El Consejo anuló la decisión original de Meta de conservar el contenido. El Consejo confirmó que Meta corrigió su error inicial después de haberle remitido el caso.
Volver a Decisiones de casos y opiniones consultivas sobre políticas