Decisión de casos múltiples
Informes periodísticos sobre la guerra en Gaza
En estas dos decisiones resumidas, el Consejo revisó dos publicaciones que informaban sobre la guerra en Gaza.
2 casos incluidos en el paquete
FB-VXKB1TZ5
Caso sobre personas y organizaciones peligrosas en Facebook
IG-50OFM0LV
Caso sobre personas y organizaciones peligrosas en Instagram
Las decisiones resumidas examinan casos en los que Meta revirtió su decisión original sobre un contenido después de que el Consejo lo remitiera a la empresa e incluyen información sobre los errores que Meta reconoció. Estas decisiones son aprobadas por un panel de miembros del Consejo, no por todo el Consejo, no implican comentarios del público ni tienen valor de precedencia para el Consejo. Las decisiones resumidas traen aparejados cambios directos en las decisiones de Meta, ya que aportan transparencia respecto de estas correcciones, mientras que permiten identificar en qué aspectos Meta podría mejorar la aplicación de sus políticas.
Resumen
En estas dos decisiones resumidas, el Consejo revisó dos publicaciones que informaban sobre la guerra en Gaza. Después de que el Consejo le remitiera estas dos apelaciones a Meta, la empresa revirtió sus decisiones originales y restauró ambas publicaciones.
Información de los casos
En el primer caso, un usuario de Instagram publicó un video corto en febrero de 2024 de un informe de Channel 4 News (Reino Unido) sobre el asesinato de un niño palestino. El video tenía un texto que indicaba expresamente que no promovía las organizaciones ni las personas peligrosas, y que se trataba de una historia sobre una familia palestina y los trabajadores humanitarios.
En el segundo caso, un usuario de Facebook publicó un video en enero de 2024 de un informe de Al-Jazeera sobre la guerra en Gaza. El clip contenía informes y análisis sobre negociaciones para la liberación de rehenes entre Israel y Hamás.
En un principio, Meta eliminó las publicaciones de Instagram y Facebook, respectivamente, citando su política de personas y organizaciones peligrosas. Conforme a esta política, la empresa elimina la "glorificación", el "apoyo" y la "representación" de entidades designadas, sus líderes, fundadores o miembros destacados, así como las referencias poco claras a ellos.
En sus apelaciones al Consejo, ambos usuarios indicaron que los videos eran informes de medios de comunicación y no infringían las Normas comunitarias de Meta. Después de que el Consejo remitiera estos dos casos a Meta, la empresa determinó que las publicaciones no infringían sus políticas y las restauró en sus plataformas.
Autoridad y alcance del Consejo
El Consejo tiene la facultad para revisar las decisiones de Meta tras apelaciones de los usuarios cuyo contenido se eliminó (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
Cuando Meta reconoce que cometió un error y revierte su decisión en un caso en consideración para la revisión del Consejo, el Consejo puede seleccionar ese caso para una decisión resumida (artículo 2, sección 2.1.3, de los estatutos). El Consejo revisa la decisión original para entender mejor los procesos de moderación de contenido empleados, reducir los errores y ser más justo con los usuarios de Facebook, Instagram y Threads.
Significancia de los casos
Estos casos resaltan los errores al aplicar la excepción de la política de personas y organizaciones peligrosas que permite que se comparta contenido con el fin de "reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral" a fin de brindar un espacio seguro para el "discurso social y político". Este tipo de error socava las iniciativas genuinas de informar y concientizar sobre el actual conflicto en Gaza y en otras regiones afectadas por el conflicto.
El Consejo emitió varias recomendaciones para mejorar la aplicación de la política de personas y organizaciones peligrosas de Meta. En una opinión de asesoramiento normativo, el Consejo le pidió a Meta que "explicara los métodos que usa para evaluar la precisión de la revisión manual y el desempeño de los sistemas automáticos al aplicar la política de personas y organizaciones peligrosas" (refiriéndose a las personas peligrosas designadas como "shaheed", recomendación n.° 6). El Consejo también instó a Meta a "evaluar la precisión de los revisores al aplicar la concesión para informes periodísticos correspondiente a la política de personas y organizaciones peligrosas a fin de identificar problemas sistémicos que causen errores en la aplicación", una recomendación que Meta dijo haber implementado, aunque no publicó información que lo demuestre (caso Mención de los talibanes en los informes de noticias, recomendación n.º 5). El Consejo también recomendó a Meta "agregar criterios y ejemplos ilustrativos a la política de personas y organizaciones peligrosas de Meta para mejorar la comprensión de las excepciones, específicamente, en torno a los debates y los informes de noticias neutrales", una recomendación que Meta demostró haber implementado al publicar información al respecto (caso Publicación compartida de Al Jazeera", recomendación n.º 1).
Decisión
El Consejo anuló las decisiones originales de Meta de eliminar los dos contenidos. El Consejo confirmó que Meta corrigió sus errores iniciales después de haberle remitido estos casos.
Volver a Decisiones de casos y opiniones consultivas sobre políticas