Violencia homofóbica en África Occidental

Al Consejo asesor de contenido le preocupa seriamente que Meta no haya eliminado un video que muestra a dos hombres ensangrentados que al parecer recibieron una paliza presuntamente por ser gais. El contenido se publicó en Nigeria, país que criminaliza las relaciones entre personas del mismo sexo. Tras anular la decisión original de la empresa, el Consejo manifestó que, como el video permaneció en Facebook durante cinco meses, la identidad de estos hombres quedó expuesta, lo que supuso un riesgo de daños inmediatos para ellos, dada la hostilidad contra la comunidad LGBTQIA+ en Nigeria. Dichos daños son directos e imposibles de revertir. El contenido, que difundía violencia, discriminación y burla, infringió cuatro normas comunitarias diferentes, se reportó varias veces y se sometió a la revisión de tres moderadores. Este caso revela fallas en torno a la aplicación de políticas. Las recomendaciones del Consejo, entre otras cuestiones, instan a Meta a evaluar la aplicación de la regla relevante en virtud de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia. También abordan las fallas que es probable que hayan ocurrido porque Meta identificó el idioma del video incorrectamente, y la manera en que la empresa gestiona los idiomas no es compatible con una revisión de contenido a gran escala.

Información sobre el caso

Un usuario de Facebook en Nigeria publicó un video que muestra a dos hombres ensangrentados que parecen haber sido atados y apaleados. Las personas alrededor de los hombres, que se ven asustados, les hacen preguntas en uno de los principales idiomas de Nigeria, igbo. En respuesta, uno de ellos responde con su nombre y explica, aparentemente bajo coerción, que recibió una paliza por tener sexo con otro hombre. El usuario que publicó este contenido incluyó una descripción en inglés en la que se burla de ellos y afirma que se los descubrió manteniendo relaciones sexuales, lo que es "gracioso" porque están casados.

El video se reprodujo más de 3,6 millones de veces. Entre diciembre de 2023, mes en que se publicó, y febrero de 2024, 92 usuarios lo reportaron, la mayoría por violencia e incitación o lenguaje que incita al odio. Los revisores decidieron que no infringía ninguna de las normas comunitarias, por lo que debía permanecer en Facebook. Un usuario apeló a Meta, pero tras otra ronda de revisión manual, la empresa decidió nuevamente que no había infracción alguna. El usuario entonces apeló al Consejo. Luego de que el Consejo remitiera el caso a Meta, la empresa eliminó la publicación en virtud de la política de organización de actos dañinos y promoción de la delincuencia.

Nigeria criminaliza las relaciones entre personas del mismo sexo, y la comunidad LGBTQIA+ enfrenta discriminación y severas restricciones a sus derechos humanos.

Conclusiones principales

Para el Consejo, el contenido infringió cuatro normas comunitarias independientes, incluida la norma sobre organización de actos dañinos y promoción de la delincuencia que no permite que se identifique a personas que presuntamente son miembros de un grupo de riesgo de exposición. La confesión del hombre que admite haber tenido relaciones sexuales con otro es forzada, mientras que la descripción explícitamente declara que son gais. El contenido también infringió las reglas de lenguaje que incita al odio, bullying y acoso, y contenido violento y gráfico.

Hay dos reglas relacionadas con la exposición en virtud de la política de organización de actos dañinos y promoción de la delincuencia. La primera es relevante para este caso y se aplica a gran escala. Esta prohíbe la "exposición: exponer la identidad o las ubicaciones vinculadas con cualquiera que presuntamente sea miembro de un grupo de riesgo de exposición". Hay una regla similar que se aplica solo cuando el contenido se remite a expertos de Meta. Al Consejo le preocupa que Meta no explique de forma adecuada las diferencias entre las dos reglas relacionadas con la exposición y que la regla que se impone a gran escala no indique públicamente que "exposición" tiene que ver con identificar a personas como miembros de la comunidad LGBTQIA+ en países donde hay mayor riesgo de daño en la vida real, como es el caso de Nigeria. Actualmente esta información solo está disponible en las pautas internas. Esta ambigüedad podría generar confusión, ya que evita que los usuarios cumplan con las reglas e impide que aquellos que son víctimas de este tipo de contenido abusivo soliciten la eliminación de estas publicaciones. Meta debe actualizar su regla pública y brindar ejemplos de grupos de riesgo de exposición.

El contenido se conservó aproximadamente cinco meses, pese a infringir cuatro reglas diferentes, y mostrar violencia y discriminación. Los moderadores humanos lo revisaron y no lograron identificar por qué infringía las reglas. Con el video en la plataforma, aumentaron las posibilidades de que se identificara a los hombres y de que la publicación incitara a los usuarios a dañar a las personas de la comunidad LGBTQIA+ en Nigeria. Finalmente, el video se eliminó, pero, para ese entonces, ya se había viralizado. Incluso antes de que se elimine, la investigación que realizó el Consejo mostró que aún quedaban secuencias de este en Facebook.

Cuando el Consejo le preguntó a Meta sobre sus medidas de aplicación de políticas, la empresa admitió haber cometido dos errores. En primer lugar, los sistemas automatizados que detectan idiomas identificaron el contenido como inglés antes de enviarlo a revisión manual, mientras que los equipos de Meta identificaron erróneamente el idioma del video como suajili. El idioma correcto es igbo, lengua que hablan millones de personas en Nigeria, pero Meta no lo admite en la moderación de contenido a gran escala. Si no se admite el idioma, como en este caso, el contenido se envía entonces a revisores que trabajan con varios idiomas y recurren a las traducciones que proporcionan las tecnologías de Meta. Esto genera inquietudes sobre cómo se aborda el contenido en idiomas no admitidos, la opción de idiomas que la empresa admite para realizar revisiones a gran escala y la precisión de las traducciones que se proporcionan a los revisores que trabajan con varios idiomas.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.

El Consejo le recomendó a Meta:

  • Actualizar la disposición a gran escala de la política de organización de actos dañinos y promoción de la delincuencia que prohíbe la "exposición" para que incluya ejemplos ilustrativos de "grupos de riesgo de exposición", incluidos miembros de la comunidad LGBTQIA+ en países donde están prohibidas las relaciones entre personas del mismo sexo o en los que exponer esta información crea riesgos importantes para la seguridad.
  • Realizar una evaluación que mida la precisión de aplicación de la disposición a gran escala que prohíbe exponer la identidad o ubicación de alguien que presuntamente es miembro de un grupo de riesgo de exposición, en virtud de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia.
  • Garantizar que los sistemas de detección de idiomas identifiquen con precisión contenido en idiomas no admitidos y brinden traducciones precisas a los revisores que trabajan con varios idiomas.
  • Garantizar que el contenido en un idioma no admitido, incluso en combinación con idiomas admitidos, se someta a un proceso de revisión que incluya varios idiomas. Esto incluye ofrecer a los revisores la opción de redirigir el contenido en un idioma no admitido a una revisión en varios idiomas.

Para obtener más información

To read public comments for this case, click here.

Volver a Noticias