Nuevos casos para considerar acusaciones criminales con base en la nacionalidad

El día de hoy, el Consejo anuncia tres casos nuevos a considerar. Como parte de esto, estamos invitando a personas y organizaciones a enviar comentarios públicos utilizando el botón de abajo.

Selección de casos

Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que tienen el potencial de afectar a una gran cantidad de usuarios alrededor del mundo, los casos que son de suma importancia para el discurso público o los que plantean preguntas importantes respecto a las políticas de Meta.

Los casos que anunciamos el día de hoy son los siguientes:

Acusaciones criminales con base en la nacionalidad

2024-028-IG-MR, 2024-029-TH-MR, 2024-030-FB-MR

Casos remitidos por Meta

Envíe un comentario público utilizando el botón de abajo

Estos casos están relacionados con tres decisiones de contenido que ha tomado Meta y que corresponden a Instagram, Threads y Facebook, y que el Consejo asesor de contenido se propone abordar de manera conjunta. En cada caso, el Consejo decidirá si el contenido debe continuar en la plataforma relevante.

El primer caso implica la respuesta de un usuario a un comentario sobre una publicación de Threads de enero de 2024. La publicación se trataba de un video sobre el conflicto entre Israel y Hamás. La respuesta dice “genocidio” y afirma que “todos los israelíes son criminales”. En este caso, una de las herramientas automatizadas de Meta (concretamente, un clasificador de discursos hostiles) identificó el contenido como potencial infractor. Después de una revisión manual, Meta determinó que el contenido infringía su Norma comunitaria sobre lenguaje que incita al odio y lo eliminó. Los expertos en políticas de Meta también determinaron que la decisión original de eliminar el contenido era correcta, después de que la empresa identificara este caso como uno que debía remitirse al Consejo. 

El segundo caso trata de una publicación de Facebook en árabe de diciembre de 2023, en la que se afirma que tanto los rusos como los estadounidenses son “criminales”. El contenido también afirma que “los estadounidenses son más dignos” porque “admiten sus crímenes”, mientras que los rusos “quieren beneficiarse de los crímenes de los estadounidenses”. Después de que una de las herramientas automatizadas de Meta (un clasificador de discursos hostiles) identificara el contenido como potencial infractor, la publicación se envió a revisión, pero esta se cerró automáticamente, por lo que permaneció en Facebook. En marzo de 2024, Meta seleccionó este contenido para remitirlo al Consejo, y los expertos en políticas de la empresa determinaron que la publicación infringía la Norma comunitaria sobre lenguaje que incita al odio. Después de eso, se eliminó de Facebook. El usuario que publicó el contenido apeló a esta decisión. Tras otra fase de revisión manual, la empresa decidió que eliminar el contenido en este caso era correcto.

El tercer caso se refiere al comentario de un usuario en una publicación de Instagram de marzo de 2024, en el que afirmaba que “todos los indios son violadores”. Meta eliminó el contenido después de que una de sus herramientas automatizadas (un clasificador de discursos hostiles) lo identificara como potencial infractor de la Norma comunitaria sobre lenguaje que incita al odio. El usuario no apeló la decisión de Meta. Después de que Meta seleccionara este contenido para remitirlo al Consejo, los expertos en políticas de la empresa determinaron que la decisión original de eliminar el contenido seguía siendo correcta.

Meta eliminó el contenido en los tres casos. En el primer caso, Meta no aplicó una infracción estándar a la cuenta del usuario, ya que a este se le había eliminado otro contenido más o menos al mismo tiempo. Meta explicó que, cuando la empresa elimina varios contenidos a la vez, puede contabilizarlos como una sola infracción. En el segundo caso, Meta no aplicó una infracción estándar a la cuenta del usuario, ya que el contenido estuvo publicado más de 90 días antes de que se tomara una medida de aplicación, según la política de infracciones de Meta. En el tercer caso, la empresa aplicó una infracción estándar y un límite de funciones por 24 horas a la cuenta del usuario, lo que le impidió utilizar el video en directo.

La Norma comunitaria sobre lenguaje que incita al odio de Meta hace distinción entre los ataques contra conceptos o instituciones, generalmente permitidos, y los ataques directos contra personas por motivos de características protegidas, como la raza, la etnia, el origen nacional y la afiliación religiosa. Los contenidos que atacan conceptos o instituciones pueden eliminarse si “pueden contribuir a un daño físico inminente, intimidación o discriminación” contra personas asociadas a la característica protegida correspondiente. Los ataques prohibidos en virtud de la política sobre lenguaje que incita al odio incluyen “expresiones deshumanizadoras en forma de comparaciones o generalizaciones sobre” criminales, incluidos depredadores sexuales, terroristas, asesinos, miembros de organizaciones de odio o delictivas, ladrones y atracadores de bancos. En los casos revisados, Meta eliminó las tres publicaciones por “dirigirse a personas con acusaciones criminales con base en la nacionalidad”.

Cuando Meta remitió estos casos al Consejo, declaró que planteaban un reto sobre cómo tratar las acusaciones criminales dirigidas contra personas con base en su nacionalidad, en el marco de la política sobre lenguaje que incita al odio. Meta explicó al Consejo que, aunque la empresa cree que esta línea de políticas logra el equilibrio adecuado entre la voz y la seguridad en la mayoría de las circunstancias, hay situaciones, especialmente en tiempos de crisis y conflicto, “en las que las acusaciones criminales dirigidas contra personas de una nacionalidad determinada pueden interpretarse como un ataque a las políticas de una nación, a su gobierno o a su ejército, en lugar de a su pueblo”.

El Consejo seleccionó estos casos para considerar cómo debe moderar Meta las acusaciones de criminalidad con base en la nacionalidad. Estos casos entran en la categoría de prioridades estratégicas del Consejo de Situaciones de crisis y conflicto, y Lenguaje que incita al odio contra grupos marginados.

El Consejo agradecería comentarios públicos que aborden lo siguiente:

  • El impacto de las políticas sobre lenguaje que incita al odio de las plataformas de redes sociales, especialmente de Meta, en la capacidad de los usuarios para denunciar los actos de los Estados, sobre todo en situaciones de crisis y conflicto.
  • El impacto del contenido que alega criminalidad con base en la nacionalidad de una persona, incluidos los miembros de grupos marginados (por ejemplo, minorías nacionales, étnicas o religiosas; migrantes), especialmente en situaciones de crisis y conflicto.
  • Las responsabilidades de Meta en materia de derechos humanos en relación con contenidos que incluyan acusaciones de criminalidad con base en la nacionalidad, dado el planteamiento de la empresa de distinguir entre ataques contra conceptos (generalmente permitidos) y ataques contra personas por motivos de características protegidas (no permitidos).
  • Información sobre los posibles criterios para establecer si un usuario se dirige a un concepto o una institución (por ejemplo, un Estado, un ejército), o a un grupo de personas en función de su nacionalidad.

Entre sus decisiones, el Consejo puede emitir recomendaciones de políticas a Meta. Aunque las recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. Por ello, el Consejo agradece los comentarios públicos que propongan recomendaciones pertinentes para estos casos.

Comentarios públicos

Si usted o su organización consideran que pueden aportar perspectivas valiosas que ayuden a tomar una decisión sobre los casos anunciados hoy, pueden enviar sus contribuciones utilizando el siguiente botón. Tenga en cuenta que los comentarios públicos pueden realizarse de manera anónima. El plazo para enviar comentarios públicos es de 14 días y finalizará a las 23:59 (hora local) del martes 4 de junio.

Próximos pasos

En las próximas semanas, los Miembros del Consejo deliberarán sobre estos casos. Una vez que hayan tomado una decisión, la publicaremos en la página de Decisiones.

Volver a Noticias