Anulado

Cautivo en video de las Fuerzas de Apoyo Rápido de Sudán

El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en el que se veía a hombres armados de las Fuerzas de Apoyo Rápido (FAR) de Sudán deteniendo a una persona en la parte trasera de un vehículo militar.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Guerras y conflictos
Estándar comunitario
Lenguaje que incita al odio, Personas y organizaciones peligrosas, Violencia e incitación

Regiones/Países

Ubicación
Sudán

Plataforma

Plataforma
Facebook

Resumen

El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en el que se veía a hombres armados de las Fuerzas de Apoyo Rápido (FAR) de Sudán deteniendo a una persona en la parte trasera de un vehículo militar. El video infringe las normas comunitarias sobre personas y organizaciones peligrosas y sobre organización de actos dañinos y promoción de la delincuencia. Al Consejo le preocupa que Meta no haya eliminado con la rapidez suficiente el contenido, que muestra a un prisionero de guerra e incluye apoyo a un grupo que la empresa designó como peligroso. Esto indica que hay otros inconvenientes respecto de la eficacia con que se aplican políticas de contenido durante conflictos armados y cómo se revisa el contenido que devela ("expone") la identidad de un prisionero de guerra. El Consejo insta a Meta a desarrollar una solución escalable para identificar de forma proactiva el contenido que expone a prisioneros de guerra durante un conflicto armado.

Información sobre el caso

El 27 de agosto de 2023, un usuario de Facebook publicó un video en el que se veía a hombres armados en Sudán deteniendo a una persona en la parte trasera de un vehículo militar. Un hombre que habla árabe se identifica como miembro de las FAR y afirma que el grupo capturó a un extranjero, probablemente un combatiente asociado con las Fuerzas Armadas de Sudán (FAS). El hombre continúa diciendo que entregarán a esta persona a los líderes de las FAR, y que la intención es encontrar y capturar a los dirigentes de las FAS, así como a todos los colaboradores extranjeros de este grupo en Sudán. El video incluye comentarios insultantes sobre ciudadanos extranjeros y líderes de otros países que respaldan las FAS, mientras que la descripción que lo acompaña en árabe dice: "sabemos que hay extranjeros que luchan codo a codo con las diabólicas brigadas de la Hermandad".

En abril de 2023, se desató un conflicto armado en Sudán entre el grupo paramilitar FAR y las FAS, que es la fuerza militar oficial del Gobierno. Aproximadamente 7,3 millones de personas fueron desplazadas debido al conflicto y más de 25 millones quedaron expuestas a inseguridad alimentaria. Las organizaciones de derechos humanos sudanesas denunciaron que las FAR detuvieron a más de 5.000 personas, que quedaron cautivas en condiciones inhumanas. Se denuncia que ambos extremos cometieron crímenes de guerra y delitos de lesa humanidad. Meta designó a las FAR en virtud de su norma comunitaria sobre personas y organizaciones peligrosas.

Poco tiempo después de que se publicara el video, tres usuarios de Facebook reportaron el contenido, pero, como la puntuación de gravedad (probabilidad de infringir las Normas comunitarias) y viralidad (cantidad de visualizaciones) era baja, no se priorizó para remitirlo a revisión manual y se conservó en la plataforma. Uno de los usuarios presentó una apelación, pero el reporte se cerró debido a las políticas de automatización del COVID-19 de Meta. El mismo usuario entonces presentó una apelación ante el Consejo asesor de contenido. Luego de que el Consejo remitiera el caso a Meta, la empresa eliminó la publicación de Facebook en virtud de la norma comunitaria sobre personas y organizaciones peligrosas, y aplicó también una norma y una falta grave al perfil de la persona que publicó el video.

Conclusiones principales

El contenido infringe la norma comunitaria sobre personas y organizaciones peligrosas de Meta porque muestra apoyo a un grupo que la empresa designó como organización peligrosa de Nivel 1, específicamente por "canalizar información o recursos, incluidas comunicaciones oficiales" en nombre de la organización. El hombre que habla en el video se identifica como parte de las FAR, describe sus actividades, habla sobre las medidas que está tomando el grupo y nombra directamente al comandante, Mohamed Hamdan Dagalo. Para el Consejo, es necesario y proporcionado eliminar este contenido, que incluye amenazas a todo aquel que se oponga o desafíe a las FAR.

En decisiones anteriores, el Consejo destacó su preocupación respecto de la falta de transparencia de la lista de personas y organizaciones designadas de Meta. Dada la situación en Sudán, donde las FAR tienen influencia o control de facto sobre partes del país, la población civil que recurre a Facebook, incluidos a los canales de comunicación de las FAR, en busca de seguridad crítica e información humanitaria podría correr mayor riesgo debido a las restricciones impuestas sobre dichos canales.

Asimismo, el Consejo considera que este contenido infringe la política de organización de actos dañinos y promoción de la delincuencia porque muestra a un hombre capturado cuya identidad queda totalmente expuesta y a quien se describe como "prisionero extranjero" asociado con las FAS. La política de Meta no admite que la identidad de un prisionero de guerra quede expuesta durante un conflicto armado. Es necesario eliminar el video dadas las reglas específicas del derecho internacional humanitario que exige proteger a los detenidos en un conflicto armado. Al Consejo le preocupa que este contenido no se identificó ni eliminó por infringir la regla de Meta que prohíbe exponer a prisioneros de guerra. Esta ineficacia a la hora de aplicar políticas se debe probablemente a que esta regla actualmente se impone solo en el escalamiento, lo que significa que los revisores que moderan contenido a escala no pueden tomar medidas por sí mismos. De hecho, la regla solo se puede aplicar si los equipos solo de escalamiento de Meta toman conocimiento de ella a través de otros medios, como socios de confianza o contenido con mucha cobertura de prensa.

Por último, al Consejo también le preocupa que Meta no eliminó este contenido de inmediato ni poco después de haberse publicado. Los sistemas automatizados de Meta no lograron identificar una infracción correctamente en este video, lo que indica que hay un problema más grande de aplicación de políticas. El Consejo considera que se deben realizar cambios para permitir que más contenido que respalda a organizaciones peligrosas se envíe a revisión manual cuando se relaciona con conflictos armados.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el video.

El Consejo le recomendó a Meta:

  • Desarrollar una solución escalable para aplicar la política de organización de actos dañinos y promoción de la delincuencia que prohíbe exponer a prisioneros de guerra en el contexto de un conflicto armado. Debe haber un equipo especializado que priorice e identifique de forma proactiva dicho tipo de contenido.
  • Auditar los datos de entrenamiento utilizados en su clasificador de interpretación de contenido de video para evaluar si cuenta con una cantidad suficiente de ejemplos diversos de contenido que respalda a organizaciones peligrosas en el contexto de conflictos armados, incluidos diferentes idiomas, dialectos, regiones y conflictos.
  • Incluir un hipervínculo a las listas de organizaciones terroristas extranjeras y de terroristas internacionales especialmente designados de los Estados Unidos en sus Normas comunitarias, en las que se mencionan dichas listas.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión original de Meta de conservar un video en el que se veía a hombres armados, que se describen como miembros de las Fuerzas de Apoyo Rápido (FAR), deteniendo a una persona en la parte trasera de un vehículo militar. Los miembros de las FAR describen a la persona cautiva, cuyo rostro se puede ver con claridad, como un ciudadano extranjero que colabora con las Fuerzas Armadas de Sudán (FAS). Meta designó a las FAR en virtud de su norma comunitaria sobre personas y organizaciones peligrosas. Luego de que el Consejo seleccionara el caso, Meta revisó su decisión original y eliminó el video por infringir su norma comunitaria sobre personas y organizaciones peligrosas que prohíbe "respaldar" a entidades designadas, específicamente "canalizar información o recursos, incluidas las comunicaciones oficiales, en nombre de una entidad o un hecho designados". La publicación también infringe la política de organización de actos dañinos y promoción de la delincuencia, que prohíbe el contenido que revela la identidad de un prisionero de guerra en un conflicto armado, que en este caso es la persona detenida en el vehículo. Al Consejo le preocupa que Meta no eliminó el contenido con la rapidez suficiente, lo que podría indicar que hay problemas más grandes respecto de la aplicación efectiva de políticas durante conflictos armados.

2. Descripción y contexto del caso

El 27 de agosto de 2023, un usuario de Facebook publicó un video en el que se veía a hombres armados en Sudán deteniendo a una persona en la parte trasera de un vehículo militar. En el video, un hombre, que no es quien publicó el contenido, se identificaba en árabe como miembro del grupo paramilitar FAR. Esta persona afirmaba que el grupo había capturado a un ciudadano extranjero, probablemente un combatiente asociado con las FAS y que tenía intención de entregárselo a los líderes de las FAR. El hombre señalaba que su intención era encontrar a los dirigentes de las FAS y sus colaboradores extranjeros en Sudán, que capturaría a todo aquel que trabaje contra las FAR y que seguiría siendo fiel a su propio líder, Mohamed Hamdan Dagalo. En el video, se incluían comentarios despectivos sobre ciudadanos extranjeros y dirigentes de otras naciones que apoyaban a las FAS.

El video incluía una descripción también en árabe que se traduce como: "sabemos que hay extranjeros de nuestro maldito vecino que luchan codo a codo con las diabólicas brigadas de la Hermandad". Poco tiempo después de publicar el video, el usuario editó la descripción, cuya nueva versión se tradujo como: "sabemos que hay extranjeros que luchan codo a codo con las diabólicas brigadas de la Hermandad". La publicación tuvo menos de 100 reacciones y 50 comentarios, y se compartió 50 veces; la persona que publicó el contenido tenía aproximadamente 4.000 amigos y 32.000 seguidores.

Poco tiempo después de que se publicara, otros usuarios de Facebook reportaron el contenido, pero esos reportes no se priorizaron para someterse a revisión manual, y la publicación se conservó en la plataforma. Uno de estos usuarios apeló la decisión de Meta, pero la apelación nuevamente se cerró sin someterse a revisión. El mismo usuario entonces presentó una apelación ante el Consejo asesor de contenido. Luego de que el Consejo remitiera el caso a Meta en octubre de 2023, y tras una revisión a cargo de expertos en políticas de Meta, la empresa eliminó la publicación de Facebook en virtud de su política de personas y organizaciones peligrosas. Tras la eliminación del contenido, Meta aplicó una falta grave, además de una falta estándar, al perfil de la persona que publicó el contenido porque una falta grave impone penalizaciones diferentes más estrictas que una estándar. Con la acumulación de faltas estándar, la rigurosidad de las penalizaciones puede ir en aumento. Cuando el contenido publicado infringe políticas de Meta más severas, como la política de personas y organizaciones peligrosas, la empresa puede aplicar otras restricciones más estrictas, además de las restricciones estándar. Por ejemplo, se puede restringir a los usuarios para que no puedan crear anuncios ni usar Facebook Live durante un período establecido.

El Consejo consideró el siguiente contexto en cuanto a la decisión que tomó en este caso.

El conflicto armado en Sudán comenzó en abril de 2023 entre las FAS, las fuerzas militares del Gobierno reconocido internacionalmente cuyo líder es el General Abdel Fattah al-Burhan, y el grupo paramilitar FAR, dirigido por Mohamed Hamdan Dagalo, a quien se conoce como "Hemedti". Al poco tiempo de que estallara el conflicto, las FAS declararon a las FAR como grupo rebelde y ordenaron su disolución. La guerra en el país se clasificó como un conflicto armado no internacional. A noviembre de 2023, según Sudan War Monitor, las FAR controlaban la mayor parte de Darfur del Oeste, el área alrededor de la capital, Jartúm, y partes de Kordofán del Norte y del Oeste, mientras que las FAS controlaban la mayor parte del Valle del Nilo y las provincias y los puertos del este del país.

El Departamento del Tesoro de Estados Unidos sancionó a Abdelrahim Hamdan Dagalo, representante de las FAR y hermano de Mohamed Hamdan Dagalo, el 6 de septiembre de 2023. Meta designó de forma independiente a las FAR como organización terrorista de Nivel 1 casi un mes antes, el 11 de agosto de 2023, en virtud de su política de personas y organizaciones peligrosas. Esta designación de Meta estaba vigente en el momento de publicar esta decisión.

De conformidad con las Naciones Unidas, desde abril de 2023 aproximadamente 7,3 millones de personas fueron desplazadas debido al conflicto; alrededor de la mitad de ese total son mujeres y niños. Más de 25 millones de personas, incluidos más de 14 millones de niños, enfrentan una grave inseguridad alimentaria y necesitan ayuda humanitaria. Hay cada vez más violencia de género, violencia sexual, acoso, explotación sexual y tráfico. Se estima que los brotes de enfermedades y el deterioro del sistema de salud se cobraron la vida de aproximadamente 6.000 personas en Sudán. En octubre de 2023, el Consejo de Derechos Humanos de la ONU adoptó una resolución para establecer con urgencia una misión de investigación internacional independiente en Sudán, con la orden de investigar y determinar los hechos y las circunstancias de presuntas violaciones de los derechos humanos y del derecho internacional humanitario cometidas durante el conflicto. Organizaciones de derechos humanos sudanesas denunciaron que las FAR habían detenido a más de 5.000 personas en la capital, Jartúm, en condiciones de cautiverio degradantes e inhumanas, con falta de acceso a necesidades básicas para la dignidad humana.

De acuerdo con varias fuentes, incluidos la Corte Penal Internacional y el Departamento de Estado de los Estados Unidos, hay informes que indican que tanto miembros de las FAS como de las FAR cometieron genocidios, delitos de lesa humanidad y crímenes de guerra en Sudán. Asimismo, dichos informes mencionan que las FAR y las milicias aliadas cometieron crímenes de guerra motivados por el origen étnico, cuyas víctimas fueron las comunidades masalit en Sudán y la frontera con Chad. Los expertos especializados en estudios de Oriente Medio y África septentrional a los que consultó el Consejo señalaron que hay informes que denuncian que ambos bandos son responsables por los abusos generalizados contra los detenidos, incluidos condiciones inhumanas, detenciones ilegales y arbitrarias, ataques por motivos étnicos, violencia sexual, asesinatos y uso de rehenes como escudos humanos.

Los expertos a los que consultó el Consejo manifestaron que, debido a que Meta designó a las FAR como organización peligrosa, se limitó la difusión de información de esta organización, incluidas narrativas dañinas. No obstante, esta designación también motivó a las FAR a explotar otras tácticas para compartir información, por ejemplo, usar cuentas y páginas personales no oficiales, incluido publicar contenido sobre los detenidos. Esto supuso una dificultad para los observadores a la hora de supervisar o combatir de forma efectiva las actividades del grupo. Los expertos expresaron también que la designación de las FAR contribuye a una asimetría informativa y obstaculiza el acceso de la población civil a la información. Por ejemplo, las personas tendrían menos probabilidades de recibir actualizaciones de las FAR sobre las condiciones de seguridad en determinadas áreas por medio de las plataformas de Meta (consulta el comentario del público de Civic Media Observatory, PC -24020).

La población civil y los medios de comunicación sudaneses recurren a plataformas de medios sociales, a Facebook en particular, para adquirir información fundamental y novedades sobre desarrollos sociales, políticos, militares y humanitarios, y difundirla más allá de las fronteras de Sudán; encontrar rutas que conduzcan a lugares seguros en el país o les permitan abandonar Sudán; obtener información esencial sobre operaciones militares o estallidos de violencia a fin de conocer las medidas militares tomadas en determinadas ubicaciones, y buscar refugio o refugiarse de ellas (consulta los comentarios del público de Civic Media Observatory, PC -24020); buscar ayuda médica y humanitaria; y obtener información sobre rehenes y prisioneros de guerra.

3. Autoridad y alcance del Consejo asesor de contenido

El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación de la persona que previamente reportó el contenido que se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).

El Consejo puede mantener o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.

4. Fuentes de autoridad y pautas

El análisis del Consejo en este caso se basó en las siguientes normas y precedentes:

I. Decisiones del Consejo asesor de contenido

II. Políticas de contenido de Meta

El análisis del Consejo se basó en el compromiso que Meta asumió con la expresión, a la cual la empresa describe como "fundamental", y con los valores de seguridad, privacidad y dignidad.

Luego de que el Consejo identificara este caso para someterlo a revisión, Meta eliminó el contenido por infringir la política de personas y organizaciones peligrosas, dado que respaldaba a una entidad designada. El contenido también infringía la política de organización de actos dañinos y promoción de la delincuencia, ya que exponía visiblemente la identidad de prisioneros de guerra en un conflicto armado. Tal como Meta le informó al Consejo en casos anteriores, cuando el contenido infringe varias políticas, la empresa aplica sus normas conforme a la infracción más grave. En este caso, Meta consideró que la infracción más grave es la de la política de personas y organizaciones peligrosas.

Personas y organizaciones peligrosas

De acuerdo con las bases de la política de personas y organizaciones peligrosas, para evitar y prevenir daños en la vida real, Meta no permite en sus plataformas la presencia de personas u organizaciones que reivindiquen una misión violenta o cometan actos de violencia. Meta evalúa a estas entidades en función de su comportamiento tanto online como offline, principalmente, sus vínculos con la violencia. En el momento en que se publicó el contenido en este caso, la política prohibía "las exaltaciones, el apoyo sustancial y la representación" de entidades designadas.

"Apoyo sustancial" abarca la "canalización de información o recursos, incluidas las comunicaciones oficiales, en nombre de una entidad o un hecho designados", por ejemplo, "citar directamente a una entidad designada sin [un] título que condene, debata con neutralidad o sea parte de un informe de noticias".

El 29 de diciembre de 2023, Meta actualizó la línea normativa de "apoyo sustancial", cuya nueva versión estipula que Meta elimina "la glorificación, el apoyo o la representación de entidades de Nivel 1". Meta agregó dos subcategorías: "Apoyo material" y "Otro apoyo". La regla relacionada con la "canalización" ahora aparece en "Otro apoyo".

Organización de actos dañinos y promoción de la delincuencia

Según las bases de la política, la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia pretende "prevenir y evitar daños en la vida real, y la imitación de dicho comportamiento, y no permitir que las personas faciliten, organicen, promuevan o admitan determinadas actividades criminales o dañinas dirigidas a personas, negocios, propiedades o animales". Esta norma comunitaria prohíbe el contenido que "expone la identidad de una persona y la pone en riesgo de daño". Entre los grupos protegidos de la "exposición", la política incluye a "prisioneros de guerra en el contexto de un conflicto armado".

III. Responsabilidades de Meta con los derechos humanos

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, en la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. De manera significativa, los UNGP imponen una responsabilidad mayor a las empresas que operan en un entorno de conflicto (informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas", A/75/212).

El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:

  • Derecho a la libertad de expresión: artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019); informe de la Relatora Especial de la ONU sobre la desinformación y la libertad de opinión y de expresión durante conflictos armados, A/77/288; informe de la OHCHR sobre la protección jurídica internacional de los derechos humanos durante los conflictos armados (2011).
  • Derecho a la vida: artículo 6 del ICCPR.
  • Derecho a la libertad y a la seguridad de las personas: artículo 9 del ICCPR.
  • Derecho a no ser sometido a torturas ni tratos inhumanos y degradantes: artículo 7 del ICCPR.
  • Derecho a la privacidad: artículo 17 del ICCPR.
  • Derecho a ser tratado con humanidad en condiciones de detención: artículo 10 del ICCPR.
  • Protección de prisioneros de guerra contra tratos degradantes y humillantes, incluido contra insultos y curiosidad pública: artículo 3 común a los Convenios de Ginebra y protocolo adicional II; artículo 13, párrafo 2, del Convenio de Ginebra III, observación sobre el Convenio de Ginebra (III), Comité Internacional de la Cruz Roja (ICRC), 2020; observación general n.º 31 del Comité de Derechos Humanos (2004).

5. Respuestas del usuario

El usuario que apeló la decisión de la empresa de conservar el contenido indicó que la publicación incluye información engañosa, así como escenas y amenazas de violencia por parte de las FAR en la capital de Sudán, Jartúm. El usuario solicitó que el contenido se eliminara porque supone un peligro para las personas en Sudán.

6. Respuestas de Meta

Meta le indicó al Consejo que tomó la decisión inicial de conservar el contenido porque sus sistemas automatizados no lo priorizaron para someterlo a revisión manual. De acuerdo con el Centro de transparencia de Meta, en general, los reportes se priorizan de manera dinámica para revisión en función de factores como la gravedad de la infracción prevista, la viralidad del contenido y la probabilidad de que infrinja las Normas comunitarias. Los reportes que sistemáticamente se clasifican con menor prioridad que otros en la cola por lo general se cierran después de 48 horas. Poco después de la publicación del contenido en este caso, tres usuarios de Facebook lo denunciaron cuatro veces por "terrorismo", "lenguaje que incita al odio" y "violencia". Debido a la baja gravedad y a la escasa puntuación de viralidad, estos reportes no se priorizaron para someterlos a revisión manual, y el contenido se mantuvo en la plataforma. Uno de estos usuarios apeló la decisión de Meta de conservar el contenido. Según la empresa, esa apelación se cerró automáticamente debido a las políticas de automatización del COVID-19, que Meta introdujo al comienzo de la pandemia en 2020 para reducir el volumen de reportes enviados a revisión manual y mantener abiertos reportes potencialmente de "alto riesgo" (consulta la decisión del caso Negación del Holocausto). Cuando el reporte se cerró automáticamente, el contenido no se remitió a expertos en el tema o en políticas para realizar una revisión adicional.

Meta explicó que, luego de que el Consejo seleccionara este caso, la empresa había decidido eliminar la publicación porque infringía la norma comunitaria sobre personas y organizaciones peligrosas. Meta concluyó que, con la publicación de un video en el que aparece una persona que se autoproclama miembro de las FAR hablando sobre las actividades de la organización, sin una descripción que "condene, debata con neutralidad o sea parte de un informe de noticias", el usuario infringió la política que prohíbe el "apoyo sustancial" porque "canaliza información" sobre una entidad designada de Nivel 1. Por ende, Meta lo eliminó de la plataforma.

El Consejo le hizo a Meta 13 preguntas por escrito. Las preguntas versaban sobre las medidas de aplicación de políticas de Meta respecto de contenido relacionado con el conflicto en Sudán; los sistemas automatizados y los modelos de clasificación; los procesos relativos a la designación de personas u organizaciones peligrosas; el fundamento por el cual se designó a las FAR como organización terrorista de Nivel 1; y el impacto de esta decisión en el acceso a la información en Sudán. Meta respondió todas las preguntas.

7. Comentarios del público

El Consejo asesor de contenido recibió 16 comentarios del público dentro de los plazos de presentación. Diez de ellos procedían de Oriente Medio y África septentrional, tres de Europa, uno de Latinoamérica y el Caribe, uno de África subsahariana y uno de los Estados Unidos y Canadá. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.

Los comentarios abarcaban los siguientes temas: el trato de las FAR a rehenes, detenidos y civiles; los presuntos abusos e instancias de violencia de las FAR en la región; los riesgos de exponer la identidad de rehenes y detenidos en medios sociales; el uso de medios sociales por parte de las FAR; la importancia de los medios sociales para la población civil de Sudán; las consecuencias de la designación de las FAR por parte de Meta en el entorno informativo de Sudán; y cómo Meta prioriza el contenido para someterlo a revisión manual y automatizada en situaciones de conflicto.

8. Análisis del Consejo asesor de contenido

El Consejo examinó si este contenido debía eliminarse a la luz de las políticas de contenido, las responsabilidades en materia de derechos humanos y los valores de Meta. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.

El Consejo seleccionó este caso porque brinda la oportunidad de explorar cómo las empresas de medios sociales deben respetar el acceso a información en países como Sudán, en los que esta puede ser vital durante un conflicto en curso, en especial para la población civil; pero también permite poner de manifiesto que organizaciones peligrosas pueden valerse de estas plataformas para impulsar su misión violenta y fomentar daños en la vida real.

Asimismo, el caso le ofrece al Consejo la posibilidad de evaluar cómo Meta protege a los detenidos en conflictos armados de conformidad con el derecho internacional humanitario. El caso recae principalmente dentro de la prioridad estratégica ante situaciones de crisis y conflicto del Consejo, pero también concierne a la aplicación automatizada de políticas y la selección de contenido.

8.1 Cumplimiento de las políticas de contenido de Meta

I. Reglas de contenido

Norma comunitaria sobre personas y organizaciones peligrosas

El Consejo considera que el contenido en este caso infringe la política de personas y organizaciones peligrosas porque respalda a una organización designada de Nivel 1.

Meta le informó al Consejo que eliminó el contenido en este caso porque incluía "apoyo sustancial" a una organización terrorista de Nivel 1. La empresa explicó que el apoyo sustancial incluye la "canalización de información o recursos, incluidas las comunicaciones oficiales, en nombre de una entidad designada", por ejemplo, "citar directamente a una entidad designada sin [un] título que condene, debata con neutralidad o sea parte de un informe de noticias". En este caso, el video muestra a una persona que se identifica a sí misma como miembro de las FAR, habla sobre las actividades de la organización y las acciones que emprenderá, y nombra a su comandante.

Asimismo, las pautas internas de Meta brindan una lista no exhaustiva de ejemplos de elementos escritos o visuales que muestran una expresión de apoyo sustancial. Esto incluye publicaciones en las que "el contenido muestra, o afirma mostrar, a un líder, vocero o miembro conocido o autoproclamado de una entidad designada hablando sobre la organización o su causa".

El 29 de diciembre de 2023, Meta actualizó la línea normativa de "apoyo sustancial" de la política de personas y organizaciones peligrosas, cuya nueva versión estipula que Meta elimina "la glorificación, el apoyo o la representación de entidades de Nivel 1". Si bien Meta sustituyó la categoría "Apoyo sustancial" por "Apoyo", estos cambios no afectan al análisis en este caso ni a cómo Meta aplicaría sus políticas respecto de este contenido.

Política de organización de actos dañinos y promoción de la delincuencia

El Consejo determinó que el contenido también infringe la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia.

La política de Meta prohíbe exponer la identidad de un prisionero de guerra durante un conflicto armado. Según Meta, esta política se aplica solo durante el escalamiento y no incluye una excepción que admita el contenido que genera conciencia sobre los prisioneros de guerra o condene el trato que reciben. Meta define prisionero de guerra como "un miembro de las fuerzas armadas que es capturado o cae en poder del adversario durante un conflicto armado o inmediatamente después". El Consejo entiende que esta regla se aplica igualmente a conflictos armados internacionales y no internacionales.

En este caso, el Consejo considera que el video muestra a una persona identificable a quienes los miembros armados de las FAR que la detuvieron describen como "prisionero extranjero" asociado con las FAS, principal enemigo de las FAR en el conflicto vigente en Sudán. Por lo tanto, el contenido infringe la política y se debe eliminar.

8.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19 del ICCPR prevé una amplia protección de la expresión, en especial, la expresión política. Este derecho incluye la "libertad de buscar, recibir y difundir información e ideas de toda índole". Estos derechos deben respetarse durante conflictos armados activos, y se los debe seguir usando como fundamento de las responsabilidades de Meta con los derechos humanos, junto con las reglas complementarias y que se refuerzan entre sí del derecho internacional humanitario vigentes durante tales conflictos (observación general n.º 31 del Comité de Derechos Humanos, 2004, párrafo 11; observación sobre el principio 12 de los UNGP; consulta también el informe de la Relatora Especial de la ONU sobre la desinformación y la libertad de opinión y de expresión durante conflictos armados, A/77/288, párrafos 33 a 35 [2022]; y el informe de la OHCHR sobre la protección jurídica internacional de los derechos humanos durante los conflictos armados [2011], página 59).

La Relatora Especial de la ONU sobre la libertad de expresión indicó que "durante un conflicto armado, la vulnerabilidad de las personas es máxima, y ellas tienen la mayor necesidad de información precisa y confiable para garantizar su propia seguridad y bienestar. No obstante, es precisamente en esas situaciones cuando su libertad de opinión y de expresión, que incluye la libertad de buscar, recibir e impartir información e ideas de todo tipo, está más restringida por las circunstancias de la guerra y las acciones de las partes del conflicto y otros actores para manipular y limitar la información con fines políticos, militares y estratégicos" (informe A/77/288, párrafo 1). El Consejo reconoce la importancia de garantizar que las personas puedan compartir información sobre conflictos con libertad, en especial cuando los medios sociales son la fuente principal de información, y, al mismo tiempo, asegurar que el contenido que es probable que exacerbe la violencia en la vida real, o incite a esta, se elimine.

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad conforme al derecho internacional de derechos humanos requiere que cualquier regla que limite la expresión sea clara y de acceso público (observación general n.º 34, párrafo 25). Las restricciones a la expresión deberían formularse con la precisión suficiente para permitir que las personas regulen su conducta en consonancia (ibid.). Conforme se aplica a Meta, la empresa debe proporcionar pautas a los usuarios respecto de qué contenido se permite en la plataforma y cuál no. Asimismo, las reglas que restringen la expresión "no pueden conferir una discrecionalidad a los encargados de [su] implementación" y deben "proporcionar suficientes pautas para aquellos que están a cargo de su implementación, de manera que puedan definir qué tipos de expresión pueden restringirse de forma adecuada y cuáles no" (A/HRC/38/35, párrafo 46).

Personas y organizaciones peligrosas

La Relatora Especial de la ONU sobre la libertad de expresión señaló inquietudes respecto de las reglas impuestas por las plataformas de medios sociales que prohíben la "exaltación" y el "apoyo", porque considera que ambos términos son "excesivamente ambiguos" (A/HRC/38/35, párrafo 26). El Consejo anteriormente había criticado la falta de claridad de la política de personas y organizaciones peligrosas. Meta no comparte públicamente la lista de entidades que designa en virtud de la política. La empresa explica que decide designar entidades que el Gobierno de los Estados Unidos ya designó como organizaciones terroristas extranjeras o terroristas internacionales especialmente designados. Mientras que la lista completa de designaciones terroristas de Nivel 1 de Meta es creada por la empresa y trasciende las designaciones de los Estados Unidos, el Consejo comprende que una parte sustancial de las entidades terroristas de Nivel 1 designadas de Meta se encuentran en las listas de organizaciones terroristas extranjeras o terroristas internacionales especialmente designados. Si bien las listas del Gobierno de los Estados Unidos son públicas, las Normas comunitarias solo hacen referencia a los marcos en los que se basan las listas de organizaciones terroristas extranjeras y terroristas internacionales especialmente designados, pero no proporcionan un enlace a estas. Por ende, el Consejo recomienda que Meta incluya un hipervínculo a las listas de organizaciones terroristas extranjeras y de terroristas internacionales especialmente designados de los Estados Unidos en sus Normas comunitarias para aumentar la transparencia y la claridad en favor de los usuarios.

No obstante, en este caso, el Gobierno de los Estados Unidos no designó a las FAR, lo que significa que el público no sabría que Meta sí designó a una de las partes involucradas en este conflicto. Esta falta de transparencia en cuanto a las designaciones implica que el público tal vez no sepa si su contenido puede ser potencialmente infractor. En la decisión del caso Cita nazi, el Consejo recomendó que Meta "proporcione una lista pública de personas y organizaciones designadas como 'peligrosas' en virtud de las norma comunitaria sobre personas y organizaciones peligrosas". Meta se negó a implementar esta recomendación tras realizar una evaluación de viabilidad.

Al Consejo le preocupa que, dada la situación en Sudán, la designación de las FAR como organización terrorista de Nivel 1, sumada a la falta de transparencia en torno a la designación, suponga que la población de Sudán no esté al tanto de que una de las partes del conflicto tiene prohibido tener presencia en la plataforma. Esta situación podría, por lo tanto, afectar de manera desproporcionada el acceso a la información en este país, sin que a los usuarios se les avise al respecto. El Consejo cree que Meta debería ser más transparente al tomar decisiones en regiones sacudidas por conflictos armados cuyo espacio cívico está restringido, en las que hay limitadas fuentes de información disponibles para la población civil, la libertad de los medios corre peligro y la sociedad civil es frágil. Como las FAR tienen influencia y control de facto sobre partes del país (consulta la sección 2) y los civiles sudaneses recurren a Facebook para acceder a información humanitaria y sobre seguridad, incluido por medio de los canales de comunicación de las FAR, el Consejo determina que las consecuencias impredecibles que tiene para la población local la falta de transparencia de Meta en cuanto a la designación de las partes del conflicto la pondrán en mayor riesgo de seguridad física.

En la opinión de asesoramiento normativo del caso Referencia a personas peligrosas designadas como "shaheed", el Consejo abordó este problema de transparencia en torno a la lista de entidades designadas de Meta. En la recomendación n.º 4, el Consejo instó a Meta a "explicar el procedimiento por el cual designa a entidades y hechos" en más detalle. La empresa también debe "publicar información consolidada sobre la cantidad total de entidades en cada nivel de su lista de designación, así como la cantidad de entidades que se agregaron o eliminaron el año pasado" ( Referencia a personas peligrosas designadas como "shaheed", recomendación n.º 4). El Consejo volvió a hacer hincapié en esta recomendación y exigió mayor transparencia.

Para una minoría en el Consejo, si bien Meta no anunció públicamente la designación de las FAR, los abusos cometidos por este grupo son de público conocimiento, incluidos presuntos crímenes de guerra y delitos de lesa humanidad, los cuales se reportaron extensamente a medida que el conflicto cobraba ímpetu (consulta la sección 2). Si el público está al tanto de estos abusos, los usuarios podrían prever de forma razonable que, al compartir contenido que las FAR grabaron o difundieron, estarían infringiendo las Normas comunitarias de Meta.

Con el contexto concreto en Sudán en mente, el Consejo concluyó que la regla que se impone en este caso, que prohíbe el "apoyo sustancial" mediante la "canalización de información o recursos, incluidas las comunicaciones oficiales, en nombre de una entidad o un hecho designados", se explica con claridad en la política de personas y organizaciones peligrosas de Meta, los usuarios pueden acceder a ella y, por ende, satisface la prueba de legalidad. El Consejo arribó a la misma conclusión respecto de las reglas actualizadas de la política en cuanto al "apoyo", que Meta publicó el 29 de diciembre de 2023 y que sustituyen la categoría "Apoyo sustancial" por "Apoyo". El Consejo manifestó que, aunque Meta agregó dos subcategorías, "Apoyo material" y "Otro apoyo", y la línea normativa sobre "canalización" ahora aparece bajo "Otro apoyo", la regla en sí no cambió en esencia.

Norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia

Para el Consejo, la regla de Meta que prohíbe "exponer la identidad de prisioneros de guerra" es lo suficientemente clara y accesible para los usuarios, y satisface el principio de legalidad.

II. Fin legítimo

Cualquier limitación sobre la libertad de expresión debe procurar alguno de los fines legítimos mencionados en el ICCPR, entre ellos, seguridad nacional, orden público y respeto por los derechos de los demás.

De acuerdo con sus bases, la política de personas y organizaciones peligrosas tiene como objetivo "evitar y prevenir daños en la vida real" y no permite la presencia en Meta de "personas u organizaciones que reivindiquen una misión violenta o cometan actos de violencia". Anteriormente, el Consejo reconoció que la política de personas y organizaciones peligrosas tiene el fin de proteger los derechos de los demás, incluido el derecho a la vida, la seguridad personal y la igualdad y no discriminación (artículo 19, párrafo 3, del ICCPR; consulta también las decisiones de los casos Inquietud punyabí en torno a la RSS en la India y Cita nazi). El Consejo había determinado también en otra ocasión que el propósito de la política de personas y organizaciones peligrosas de prevenir el daño en la vida real es un fin legítimo (consulta la decisión del caso Aislamiento de Öcalan).

La política de organización de actos dañinos y promoción de la delincuencia persigue el fin legítimo de proteger los derechos de los demás (artículo 19, párrafo 3, del ICCPR), incluido el derecho a la vida, la privacidad y la protección contra la tortura o el trato cruel, inhumano o degradante. En este caso, la legitimidad del fin que fundamenta la prohibición sobre la exposición de prisioneros de guerra identificables se basó en las reglas más específicas del derecho internacional humanitario que exigen la protección de la vida, la privacidad y la dignidad de los prisioneros de guerra (artículo 3 común a los Convenios de Ginebra; consulta también el caso Video de prisioneros de guerra armenios) y al hecho de que la situación hostil en Sudán se calificó como un conflicto armado (consulta la sección 2).

III. Necesidad y proporcionalidad

Toda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34). Las empresas de medios sociales deben considerar diversas respuestas posibles ante un contenido problemático más allá de la eliminación para garantizar que las restricciones se delimiten estrictamente (A/74/486, párrafo 51).

Como el Consejo ya había señalado en la decisión del caso Consejo de comunicaciones de Tigray, los UNGP imponen mayor responsabilidad a las empresas que operan en entornos de conflicto. En la decisión del caso Video de prisioneros de guerra armenios, el Consejo determinó que "en una situación de conflicto armado, el análisis de la libertad de expresión del Consejo se basa en las reglas más precisas del derecho internacional humanitario".

Personas y organizaciones peligrosas

El Consejo determinó que la eliminación del contenido en este caso es una medida necesaria y proporcionada. Es necesario prohibir el contenido que cita de manera directa a una persona que se autoproclama miembro de una organización designada involucrada en hechos de violencia generalizada contra la población civil, cuando no hay descripción que lo condene, hable al respecto en un tono neutral o indique que se trata de una noticia. En este caso, la publicación incluye un video que muestra a un miembro de las FAR describiendo las actividades y los planes del grupo, incluso amenazando a todo aquel que se le oponga o lo desafíe. Difundir este tipo de información en nombre de una organización designada en Facebook, en especial en el contexto del conflicto armado en Sudán, con las FAR implicadas en hechos de violencia generalizada, crímenes de guerra y delitos de lesa humanidad (consulta la sección 2), podría conducir a un mayor riesgo de daños en la vida real. En dichas circunstancias, toda medida que no sea eliminar el contenido no abordará el riesgo de daño, y la eliminación es el medio menos restrictivo de proteger los derechos de otras personas.

Al Consejo también le preocupa que Meta no eliminó este contenido de inmediato ni poco después de haberse publicado, sino que tomó medidas solo cuando el Consejo seleccionó el caso, dos meses después. Meta le informó al Consejo que, pese a los reportes de varios usuarios, sus sistemas automatizados concedieron a este contenido una puntuación baja, lo que significa que no se priorizó para someterse a revisión manual. Los sistemas automatizados de Meta emplean diversas funciones al determinar qué medida tomar respecto de un elemento de contenido, incluidos clasificadores basados en aprendizaje automático que lo puntúan según la probabilidad de infracción, la gravedad de la posible infracción y su viralidad. Si se agrega a una cola de revisión, estas funciones también se pueden usar para priorizar o clasificar el orden en el que se revisa. Según Meta, el contenido en este caso no se priorizó porque los sistemas de la empresa no detectaron una infracción en el video y predijeron que tendría pocas visualizaciones. Por ello, se cerró automáticamente sin revisar una vez transcurrido el período de 48 horas. En la clasificación de este video en concreto, hubo dos clasificadores de problemas que generaron puntuaciones de clasificación de gravedad prevista, y ambos produjeron puntuaciones bajas. Al Consejo le preocupa que los errores cometidos por la detección automatizada de Meta en este caso puedan indicar problemas más grandes, en particular la incapacidad de los clasificadores de identificar contenido que respalda a las FAR, una entidad designada cuya presencia en la plataforma está prohibida, y que muestra a un miembro que se identifica como parte de dicha entidad, sin una descripción que condene, debata con neutralidad o sea parte de un informe de noticias. En respuesta a la pregunta del Consejo sobre los factores que no permitieron que los clasificadores detectaran la infracción en este caso, Meta señaló que no logró identificar exactamente qué hizo que este contenido recibiera una puntuación baja.

Por lo tanto, el Consejo concluyó que Meta debe tomar las medidas necesarias para mejorar la detección y priorización automatizadas del contenido. Para ello, debe auditar los datos de entrenamiento utilizados en su clasificador de interpretación de contenido de video para evaluar si cuenta con una cantidad suficiente de ejemplos diversos de contenido que respalda a organizaciones peligrosas en el contexto de conflictos armados, incluidos diferentes idiomas, dialectos, regiones y conflictos. Meta debe garantizar que este cambio permita que más contenido se ponga en cola de revisión manual. Probablemente esto exigirá que aumente la capacidad de revisión manual, de modo que Meta logre abordar de manera efectiva el aumento en el volumen de contenido que se debe revisar tras el estallido de un conflicto. Este ajuste permitirá a la empresa calibrar cómo sus sistemas automatizados responden ante a los desafíos relacionados con conflictos armados, así como identificar y abordar mejor el contenido que tiene que ver con organizaciones peligrosas en estos contextos, lo que aumentaría la efectividad a la hora de aplicar sus políticas.

Asimismo, para el Consejo, Meta no logró establecer un mecanismo sustentable para aplicar sus políticas de contenido de manera adecuada durante la guerra en Sudán. En el caso Publicación sobre armas vinculada con el conflicto en Sudán, Meta explicó que no estableció un centro de operaciones de productos e integridad para Sudán, que se utiliza para responder a amenazas en tiempo real, porque la empresa logró "gestionar los riesgos detectados del contenido por medio de los procesos actuales". Meta reiteró una postura similar en este caso. Anteriormente, el Consejo recomendó que, "para mejorar la aplicación de sus políticas de contenido durante períodos de conflicto armado, Meta debería evaluar la viabilidad de establecer un mecanismo interno continuo que le proporcione la pericia, capacidad y coordinación necesarias para revisar contenido y responder ante este con eficacia durante épocas de conflicto" (consulta la decisión del caso Consejo de comunicaciones de Tigray, recomendación n.º 2). En agosto de 2023, Meta le informó al Consejo que había conformado "un equipo para abordar la coordinación de crisis y supervisar las operaciones de manera específica durante todo el ciclo de vida de una crisis inminente y emergente. Desde entonces, sumamos al equipo el personal necesario, y ahora nos encontramos en el proceso de ampliarlo para que ejerza sus responsabilidades de ejecución operativa antes de acontecimientos y elecciones de alto riesgo, mientras se llevan a cabo y una vez que terminan. Ya se definió toda la logística operativa del equipo, que estará totalmente en actividad en todas las regiones durante los próximos meses. Seguiremos mejorando su marco de ejecución a medida que detectemos incidentes relacionados con conflictos y evaluemos la efectividad de esta estructura. Ahora consideramos totalmente implementada esta recomendación y no habrá más novedades al respecto". Sin embargo, en respuesta a la pregunta del Consejo, Meta indicó que no había establecido dicho mecanismo en relación con el conflicto en Sudán, aunque la empresa considera implementada la recomendación.

Norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia

La necesidad y proporcionalidad de eliminar este contenido en virtud de la política que prohíbe exponer la identidad de prisioneros de guerra se basa en las reglas más específicas del derecho internacional humanitario (consulta el caso Video de prisioneros de guerra armenios). El artículo 3 común a los Convenios de Ginebra prohíbe "los atentados contra la dignidad personal, especialmente los tratos humillantes y degradantes" de detenidos en conflictos armados internacionales y no internacionales. El artículo 13 de la Convención de Ginebra (III) prohíbe exponer a prisioneros de guerra a actos de violencia o de intimidación, insultos y curiosidad pública. Solo en circunstancias limitadas, el derecho internacional humanitario permite la divulgación pública de imágenes de prisioneros de guerra. Conforme a las pautas del ICRC para medios de comunicación, si el "interés público apremiante" o "el interés vital" del prisionero lo exigen, se puede permitir de forma excepcional que se muestren imágenes de prisioneros de guerra, siempre que se proteja la dignidad de estas personas. Si se muestra a una prisionero en situaciones humillantes o degradantes, se debe ocultar su identidad "por medio de métodos adecuados, por ejemplo, difuminar, pixelar o, de otro modo, oscurecer rostros y nombres" (observación del ICRC sobre el artículo 13, página 1.627). Si bien el Consejo reconoce que hay herramientas online disponibles para que los usuarios anonimicen contenido delicado sobre prisioneros de guerra, Meta actualmente nos les brinda los medios para difuminar u oscurecer los rostros de prisioneros de guerra en el contenido de video que se publica en su plataforma.

Estas prohibiciones del derecho internacional humanitario, y las excepciones específicas que de ellas derivan, tienen como fin proteger a los detenidos en un conflicto. Tal como sostuvo el Consejo en el caso Video de prisioneros de guerra armenios, prohibir que se compartan imágenes de prisioneros de guerra "es coherente con los objetivos que entraña el derecho internacional humanitario" y "si el contenido revela la identidad o ubicación de prisioneros de guerra, su eliminación será en general una medida proporcionada si se tiene en cuenta la gravedad de los daños que dicho contenido puede ocasionar".

En este caso, resultó necesario eliminar la publicación debido a las reglas del derecho internacional humanitario y los riesgos presentes en el conflicto de Sudán. Como se detalla en la sección 2 anterior, desde que estalló el conflicto, las FAR detuvieron a miles de civiles y miembros de las FAS, o aquellas personas sospechadas de brindarles apoyo. Hay denuncias de infracciones generalizadas del derecho internacional humanitario, que indican que los detenidos se mantienen cautivos en condiciones inhumanas y degradantes, son víctimas de maltrato e incluso se los asesina. En tales circunstancias, y ante la falta de un motivo imperioso para conservar este contenido en la plataforma en favor de los derechos humanos, es necesario y proporcionado eliminarlo para garantizar la dignidad y seguridad del prisionero.

Dada la gravedad de los posibles daños y los elevados riesgos que se corren durante un conflicto armado, al Consejo le preocupa que este contenido no se haya identificado y eliminado por infringir la regla de Meta que prohíbe exponer (revelar) la identidad de prisioneros de guerra. La deficiencia en la aplicación de políticas probablemente se deba a que dicha regla solo se impone en el escalamiento, lo que significa que los moderadores a escala no pueden aplicar la política. En el caso Video de prisioneros de guerra armenios, el Consejo sostuvo que "la regla que exige que haya contexto adicional para poder aplicar políticas y que, por ende, requiere remitir los casos a equipos internos antes de imponer cualquier norma es necesaria, ya que, para determinar si la persona que se muestra es un prisionero de guerra identificable en el contexto de un conflicto armado, es necesario someter el asunto a la pericia de expertos". Sin embargo, dado que esa decisión se publicó, el Consejo tomó conocimiento de que los moderadores a escala de Meta no reciben capacitación ni cuentan con herramientas para identificar contenido que infringe las políticas de la empresa que solo se aplican en el proceso escalamiento, como la regla en cuestión en este caso. Dicho de otra forma, la regla solo se puede aplicar si los equipos solo de escalamiento de Meta toman conocimiento de ella a través de otros medios, como socios de confianza o mucha cobertura de prensa.

En la práctica, esto significa que se conservaron en la plataforma importantes cantidades de contenido en el que se identifican prisioneros de guerra. Esto suscita inquietudes respecto de la precisión de la detección y aplicación de políticas automatizadas de Meta, ya que es más probable que las políticas que solo se aplican en el escalamiento no produzcan suficientes decisiones humanas para entrenar a un clasificador automatizado.

Por lo tanto, si bien el Consejo determinó que la regla que prohíbe exponer a prisioneros de guerra en un conflicto armado es necesaria, la aplicación de la política por parte de Meta no es adecuada para cumplir con la responsabilidad de la empresa de respetar los derechos de prisioneros de guerra. Para garantizar la protección efectiva de los derechos de los detenidos en virtud del derecho internacional humanitario, la empresa debe desarrollar una solución escalable para aplicar la política. Meta debe establecer un proceso o protocolo especializado para identificar de manera proactiva dicho contenido durante un conflicto armado.

Acceso a mecanismos de reparación

Meta le informó al Consejo que la apelación en este caso se cerró de manera automática debido a las políticas de automatización del COVID-19 de Meta, lo que implica que el contenido se conservó en la plataforma. En el caso Negación del Holocausto, el Consejo le recomendó a Meta " confirmar públicamente si culminó todas las políticas de automatización del COVID-19 que estableció durante la pandemia de COVID-19". Al Consejo le preocupa que las políticas de automatización del COVID-19 de Meta, justificadas por la reducción temporal de capacidad de revisión manual debido a la pandemia, sigan vigentes y reitera enfáticamente su recomendación de que Meta explique de forma pública cuándo su proceso de revisión manual trabajará de nuevo con plena capacidad.

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.

10. Recomendaciones

Aplicación de políticas

1. Para garantizar la protección efectiva de los detenidos en virtud del derecho internacional humanitario, Meta debe desarrollar una solución escalable para aplicar la política de organización de actos dañinos y promoción de la delincuencia que prohíbe exponer a prisioneros de guerra en el contexto de un conflicto armado. Meta debe establecer un protocolo durante el tiempo que dure un conflicto por el cual se conforme un equipo especializado que priorice e identifique de manera proactiva el contenido que expone la identidad de prisioneros de guerra.

El Consejo considerará implementada esta recomendación cuando Meta le comparta datos sobre qué tan efectivo es este protocolo en cuanto a identificar contenido que expone la identidad de prisioneros de guerra en contextos de conflictos armados y brinde actualizaciones al respecto cada seis meses.

2. Para mejorar la detección y priorización automatizadas de contenido que potencialmente infringe la política de personas y organizaciones peligrosas y someterlo así a revisión manual, Meta debe auditar los datos de entrenamiento utilizados en su clasificador de interpretación de contenido de video para evaluar si cuenta con una cantidad suficiente de ejemplos diversos de contenido que respalda a organizaciones peligrosas en el contexto de conflictos armados, incluidos diferentes idiomas, dialectos, regiones y conflictos.

El Consejo considerará implementada esta recomendación cuando Meta le brinde resultados detallados de su auditoría y demuestre las mejoras necesarias que la empresa implementará como resultado.

3. Para brindar mayor claridad a los usuarios, Meta debe incluir un hipervínculo a las listas de organizaciones terroristas extranjeras y de terroristas internacionales especialmente designados de los Estados Unidos en sus Normas comunitarias, en las que se mencionan dichas listas.

El Consejo considerará implementada esta recomendación cuando Meta realice estos cambios en las Normas comunitarias.

Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas