Decisión de casos múltiples
Dibujos animados sobre protestas universitarias
En estas dos decisiones resumidas, el Consejo revisó dos publicaciones que contenían dibujos animados sobre protestas universitarias.
2 casos incluidos en el paquete
FB-TO38JZ4O
Caso sobre personas y organizaciones peligrosas en Facebook
FB-0F4BU4NY
Caso sobre personas y organizaciones peligrosas en Facebook
Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
En estas dos decisiones resumidas, el Consejo revisó dos publicaciones que contenían dibujos animados sobre protestas universitarias. Meta eliminó ambas publicaciones en una revisión inicial. Sin embargo, después de que el Consejo le remitiera estos casos a Meta para que realizara una revisión adicional, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.
Información de los casos
En el primer caso, en mayo de 2024, un usuario de Facebook publicó un dibujo animado que mostraba a dos personas. Una de las personas usaba una vincha que decía "Hamás" y sostenía un arma. Esta persona decía que matarían a la población judía hasta que Israel "quedara borrado del mapa". La otra persona usaba una camiseta que decía "universidad". Esa persona sostenía un libro y decía "Es obvio que solo quieren vivir en paz". En el segundo caso, en abril de 2024, un usuario de Facebook publicó un dibujo animado que mostraba a una familia reunida comiendo. La figura del hijo parecía Adolf Hitler y usaba una camiseta que decía "[corazón] Hamás". La figura del padre expresaba su preocupación sobre cómo la universidad había cambiado a su hijo. Ambos usuarios publicaron el contenido en el contexto de las protestas relacionadas con el conflicto entre Israel y Gaza que se llevaban a cabo en universidades de todo Estados Unidos.
Inicialmente, Meta eliminó ambas publicaciones de Facebook citando su política de personas y organizaciones peligrosas. Conforme a esta política, la empresa elimina la "glorificación", el "apoyo" y la "representación" de entidades designadas, sus líderes, fundadores o miembros destacados, así como las referencias poco claras a ellos.
En sus apelaciones al Consejo, ambos usuarios indicaron que publicaron un dibujo animado político que no infringía las Normas comunitarias de Meta. Después de que el Consejo remitiera estos dos casos a Meta, la empresa determinó que las publicaciones no infringían sus políticas y las restauró en su plataforma.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar la decisión de Meta tras la apelación de un usuario cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Significancia de los casos
Estos casos resaltan los errores al aplicar la excepción de la política de personas y organizaciones peligrosas de Meta que permite que se comparta contenido con el fin de "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral" a fin de brindar un espacio seguro para el "discurso social y político".
El Consejo emitió varias recomendaciones para mejorar la transparencia en torno a la aplicación de la política de personas y organizaciones peligrosas de Meta y sus excepciones. El Consejo también emitió recomendaciones para abordar los desafíos de la aplicación de políticas asociados con esta política. Esto incluye una recomendación para "evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política de personas y organizaciones peligrosas a fin de identificar cuestiones sistemáticas que causen errores en la aplicación". Si bien Meta informó la implementación de esta recomendación, no publicó información que lo demuestre (caso Mención de los talibanes en los informes de noticias, recomendación n.º 5).
El Consejo también recomendó a Meta "agregar criterios y ejemplos ilustrativos a la política de personas y organizaciones peligrosas de Meta para mejorar la comprensión de las excepciones, específicamente, en torno a los debates y los informes de noticias neutrales", una recomendación que Meta demostró haber implementado al publicar información al respecto (caso Publicación compartida de Al Jazeera, recomendación n.º 1). Asimismo, en una opinión de asesoramiento normativo, el Consejo le pidió a Meta que "explicara los métodos que usa para evaluar la precisión de la revisión manual y el desempeño de los sistemas automáticos al aplicar la política de personas y organizaciones peligrosas" (refiriéndose a las personas peligrosas designadas como "shaheed", recomendación n.° 6). Meta reformuló esta recomendación. La empresa compartió información sobre las auditorías que lleva a cabo para evaluar la precisión de sus decisiones de moderación de contenido y sobre cómo sirven para reforzar áreas de mejora. Sin embargo, Meta no explicó los métodos que usa para realizar estas evaluaciones, así como tampoco se comprometió a compartir el resultado de ellas.
Además, el Consejo había emitido una recomendación sobre la aplicación de políticas de Meta respecto de contenido satírico. Esto incluye una recomendación a Meta de "asegurarse de implementar procedimientos adecuados para evaluar el contenido satírico y el contexto relevante correctamente. Por ejemplo, proporcionar a los moderadores de contenido (i) acceso a los equipos operativos locales de Facebook para recopilar información cultural y contextual relevante; y (ii) tiempo suficiente para hablar con los equipos operativos locales de Facebook y llevar a cabo la evaluación. Meta debe asegurarse de que sus políticas para los moderadores de contenido incentiven la investigación o el escalamiento en casos en que los moderadores no estén seguros si un meme es satírico o no"; una recomendación que Meta informó que implementó, pero que no publicó información que lo demuestre (caso El meme de los dos botones, recomendación n.° 3). El Consejo también recomendó a Meta incluir la excepción de la sátira en el texto público de la norma comunitaria sobre lenguaje que incita al odio, una recomendación cuya implementación Meta demostró al publicar información al respecto (caso El meme de los dos botones, recomendación n.° 2).
Decisión
El Consejo anuló las decisiones originales de Meta de eliminar los dos contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido estos casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas