El Consejo asesor de contenido publicó sus primeras decisiones rápidas sobre el conflicto entre Israel y Hamás
19 de diciembre de 2023
Hoy, el Consejo asesor de contenido publicó sus primeras decisiones rápidas en dos casos sobre el conflicto entre Israel y Hamás. Estos casos, anunciados el 7 de diciembre, se decidieron en un plazo acelerado de 12 días. El Consejo debe emitir decisiones rápidas en un plazo de 30 días.
El Consejo asesor de contenido seleccionó estos casos debido a la importancia de la libertad de expresión en situaciones de conflicto. Ambos casos representan los tipos de apelaciones que los usuarios de la región presentan al Consejo desde los ataques del 7 de octubre. Un caso se trata sobre un video publicado en Facebook de una mujer israelí rogando a sus secuestradores que no la maten mientras la toman de rehén durante los ataques terroristas en Israel del 7 de octubre. El otro caso se trata sobre un video que se publicó en Instagram, en el que se veía lo que parecía ser el momento posterior de un ataque en el hospital Al-Shifa o cerca de este en la ciudad de Gaza durante la ofensiva terrestre de Israel en el norte de la Franja de Gaza. La publicación muestra a palestinos, incluidos niños, asesinados o heridos.
En ambos casos, el Consejo anuló la decisión original de Meta de eliminar el contenido de sus plataformas, pero aprobó la posterior decisión de la empresa de restaurar las publicaciones con pantallas de advertencia.
Puedes leer el informe completo sobre las decisiones del Consejo aquí.
Conclusiones principales
Las decisiones del Consejo abordaron diversos aspectos del desempeño de Meta durante la crisis que afectó la libertad de expresión.
En respuesta a un incremento repentino y excepcional de publicaciones con contenido violento y gráfico en sus plataformas tras los ataques del 7 de octubre, Meta redujo temporalmente los umbrales de confianza de los sistemas de clasificación automática (clasificadores) que identifican y eliminan contenido que infringe sus políticas sobre contenido violento y gráfico, lenguaje que incita al odio, violencia e incitación, y bullying y acoso. Estas medidas se aplicaron al contenido procedente de Israel y Gaza en todos los idiomas.
Esto significa que Meta usó sus herramientas automatizadas de manera más agresiva para eliminar contenido que podría infringir sus políticas. Si bien esto redujo las probabilidades de que Meta pasara por alto contenido infractor que, de otro modo, podría evadir la detección o en el que había capacidad limitada de revisión manual, también aumentó las probabilidades de que Meta eliminara por error contenido no infractor relacionado con el conflicto.
El caso del hospital Al-Shifa demuestra que una supervisión manual insuficiente de la moderación automática en el contexto de respuesta ante una crisis puede generar la eliminación incorrecta de expresiones que puedan ser de interés público. Tanto la decisión inicial de eliminar este contenido como el rechazo de la apelación del usuario se tomaron automáticamente en función de la puntuación del clasificador, sin revisión manual alguna. Es posible que esto se haya visto exacerbado por la respuesta de Meta ante la crisis, que fue reducir el umbral de eliminación de contenido de conformidad con la política sobre contenido violento y gráfico tras los ataques del 7 de octubre.
En los dos casos que revisó el Consejo, Meta degradó el contenido al que le aplicó pantallas de advertencia, lo que impide que se recomiende a otros usuarios de Facebook o Instagram, a pesar de que la empresa había determinado que el propósito de las publicaciones era concientizar.
En el caso "Rehenes secuestrados de Israel", se observa que la postura inicial de Meta sobre la política el 7 de octubre fue de eliminar "imágenes de terceros que muestren el momento de los ataques (designados) contra víctimas visibles", de acuerdo con la política sobre personas y organizaciones peligrosas. El Consejo está de acuerdo con esta postura inicial y con el hecho de que proteger la seguridad y la dignidad de los rehenes debe ser la respuesta predeterminada de Meta. Sin embargo, el Consejo considera justificable la posterior decisión de Meta de permitir dicho contenido con una pantalla de advertencia cuando se comparte con fines de condena, concientización, informe de noticias o pedido de liberación. De hecho, dadas las circunstancias que cambian rápidamente y los altos costos para la libertad de expresión y el acceso a la información que implica eliminar este tipo de contenido, Meta debería haber actuado más rápidamente para adaptar su política.
Meta confirmó que el 20 de octubre, aproximadamente, empezó a permitir contenido sobre rehenes de los ataques del 7 de octubre, pero inicialmente solo de cuentas en las listas de verificación cruzada de la empresa. Esto se aplicó a todas las cuentas recién a partir del 16 de noviembre, y solo para contenido publicado después de esta fecha.
Esto resalta algunas de las inquietudes previas del Consejo sobre las listas de verificación cruzada de Meta, incluido el trato desigual de los usuarios, la falta de criterios transparentes para la inclusión en estas listas y la necesidad de asegurar una mayor representación de usuarios cuyo contenido puede resultar importante desde el punto de vista de los derechos humanos. Este tipo de uso del programa de verificación cruzada también contradice cómo Meta describió y explicó el propósito del programa, como un sistema de prevención de errores y no como un programa que proporciona a ciertos usuarios privilegiados reglas más permisivas.
Por último, Meta tiene la responsabilidad de preservar la evidencia de posibles violaciones de los derechos humanos y del derecho internacional humanitario. Incluso si se elimina contenido de las plataformas de Meta, es fundamental preservar dicha evidencia para poder asignar las responsabilidades pertinentes a quien corresponda en el futuro. Si bien Meta explicó que conserva durante un año todo el contenido que infringe las Normas comunitarias, el Consejo insta a que el contenido que se relaciona específicamente con posibles crímenes de guerra, crímenes de lesa humanidad y violaciones graves de los derechos humanos se identifique y preserve de un modo más accesible y permanente para los fines de atribución de responsabilidades en el largo plazo.
Además, el Consejo reiteró la necesidad urgente de tomar medidas relacionadas con los siguientes consejos de moderación de contenido:
- A principios de año, Meta se comprometió a desarrollar un protocolo de preservación de contenido que pueda ser útil para investigaciones de crímenes atroces o violaciones de los derechos humanos. Si bien Meta informó que está en las últimas etapas de desarrollo del protocolo, la empresa debería demostrar rápidamente su enfoque en este tema durante el conflicto actual (recomendación n. 1del caso Video de prisioneros de guerra armenios.
- Se debe reevaluar si el contenido identificado en los bancos de Media Matching Service es infractor cuando tiene un gran porcentaje de apelaciones favorables (recomendación n. 1 del caso Caricatura sobre la policía colombiana.
- El Consejo recomendó a Meta notificar a los usuarios cuando se usen sistemas automatizados de aplicación de políticas contra su contenido. Meta comunicó que completó la implementación mundial de esta recomendación, pero la empresa aún no proporcionó evidencia de ello al Consejo (recomendación n. 3 del caso Síntomas de cáncer de mama y desnudos.
Nota: El Consejo asesor de contenido es una organización independiente que analiza decisiones de Meta para eliminar o conservar contenido en Facebook e Instagram en una cantidad determinada de casos emblemáticos. El Consejo revisa, y cuando es necesario, revierte las decisiones de la empresa. Las decisiones del Consejo son vinculantes para Meta.