Nuevos casos relacionados con publicaciones compartidas en apoyo a los disturbios del Reino Unido

El día de hoy, el Consejo anuncia nuevos casos para considerar. Como parte de esto, invitamos a personas y organizaciones a enviar comentarios públicos utilizando el botón de abajo.

Selección de casos

Como no podemos atender todas las apelaciones, el Consejo prioriza los casos que tienen el potencial de afectar a una gran cantidad de usuarios alrededor del mundo, los casos que son de suma importancia para el discurso público o los que plantean preguntas importantes respecto a las políticas de Meta.

Los casos que anunciamos el día de hoy son los siguientes:

Publicaciones de apoyo a los disturbios del Reino Unido

2025-009-FB-UA, 2025-010-FB-UA, 2025-011-FB-UA

Recursos de los usuarios para eliminar contenidos

Envíe un comentario público utilizando el botón de abajo

El Consejo asesor de contenido abordará los siguientes tres casos de manera conjunta y decidirá si mantendrá o anulará las decisiones de Meta caso por caso.

Tres usuarios de Facebook compartieron contenido durante los disturbios del Reino Unido que ocurrieron entre el 30 de julio y el 7 de agosto de 2024. Los disturbios se desencadenaron como consecuencia de un ataque con cuchillo que tuvo lugar el 29 de julio en Southport (Inglaterra), en el que tres niñas fueron asesinadas y otras ocho resultaron heridas en un taller de baile con temática de Taylor Swift. Tras el ataque, se extendió rápidamente por las redes sociales información errónea sobre la identidad del agresor, que sugería, de manera equivocada, que se trataba de un musulmán en busca de asilo. La violencia y los altercados que se desataron posteriormente implicaron a miles de personas, entre ellas grupos antimusulmanes y antiinmigración. Se produjeron daños materiales, como en centros de refugiados y hoteles que alojaban a inmigrantes, y hubo heridos entre los agentes de policía.

La primera publicación expresaba su acuerdo con los disturbios, e instaba a destrozar más mezquitas e incendiar edificios donde “vive escoria”, haciendo referencia también a “inmigrantes, terroristas”. La persona que publicó el contenido reconoce que los disturbios han dañado la propiedad privada y herido a agentes de policía, pero argumenta que, sin esta violencia, las autoridades no escucharán ni detendrán a “toda la escoria que entra a Gran Bretaña”. Por último, la publicación recordaba a los lectores acerca de los asesinatos, y declaraba que las tres niñas no serían las últimas víctimas si el público no hacía algo. Esta publicación fue vista más de 1000 veces y tuvo menos de 50 comentarios.

La segunda pieza de contenido es una publicación compartida. Contiene lo que parece una imagen generada por inteligencia artificial (IA) de un hombre gigante con una camiseta de la bandera del Reino Unido, que persigue a varios hombres musulmanes. La imagen tiene texto superpuesto que indica la hora y el lugar para reunirse en una de las protestas e incluye el hashtag “EnoughIsEnough” (Ya es suficiente). Este contenido tuvo menos de 1000 vistas.

La tercera también es una publicación compartida de otra imagen probablemente generada por IA. Muestra cuatro hombres musulmanes vestidos con kurtas (túnicas) blancas que corren delante del Parlamento detrás de un niño pequeño rubio que tiene puesta una camiseta de la bandera británica y está llorando. Uno de los hombres empuña un cuchillo y, arriba, un avión vuela hacia el Big Ben. La imagen está acompañada de la leyenda “wake up” (Despierta). Este contenido también ha tenido más de 1000 vistas y menos de 50 comentarios.

Las tres publicaciones fueron denunciadas por otros usuarios de Facebook por infringir las políticas de Lenguaje que incita al odio o Violencia e incitación. Tras las evaluaciones que realizaron las herramientas automatizadas de Meta, las tres publicaciones se mantuvieron en Facebook. Los usuarios que denunciaron estas publicaciones apelaron para que no se mantuvieran, pero los sistemas automatizados de Meta confirmaron las decisiones iniciales. Ninguna de las publicaciones fue evaluada por seres humanos. Los mismos usuarios apelaron al Consejo, declarando que el contenido incita a la violencia contra los inmigrantes, fomenta la visión de que los inmigrantes son los culpables de los asesinatos de Southport o anima a las personas a asistir a los disturbios.

El Consejo seleccionó estos casos para examinar la preparación política y la respuesta ante crisis de Meta frente a disturbios violentos contra comunidades inmigrantes y musulmanas. Este caso corresponde a la prioridad estratégica del Consejo sobre lenguaje que incita al odio contra grupos marginados.

Como resultado de la selección de estos casos por parte del Consejo, Meta determinó que su decisión anterior de dejar la primera publicación en Facebook fue errónea. La empresa eliminó la publicación de acuerdo con la política sobre violencia e incitación. Meta confirmó que sus decisiones de dejar la segunda y la tercera publicación en Facebook fueron correctas. Según la empresa, en el caso de la segunda publicación (el hombre gigante), no hubo violación de su política sobre violencia e incitación porque la imagen no constituía un llamado a la violencia contra un objetivo. Según Meta, la tercera publicación (los cuatro hombres corriendo detrás de un niño pequeño) no infringía su política sobre lenguaje que incita al odio porque Meta interpretó que la imagen hacía referencia a un hombre u hombres musulmanes concretos, y no a todos los musulmanes. Meta determinó que la imagen debía interpretarse como una referencia a un delito concreto, y no como un discurso deshumanizador dirigido al pueblo musulmán o a inmigrantes musulmanes, teniendo en cuenta lo que Meta describió como un “rumor falso” muy extendido, según el cual el autor del atentado de Southport era musulmán o inmigrante. La empresa añadió que su enfoque de la aplicación en un contexto de protesta es privilegiar la mayor protección del derecho de expresión.

El Consejo agradecería comentarios públicos que aborden lo siguiente:

  • El papel que desempeñaron las redes sociales en los disturbios de 2024 en el Reino Unido, como la difusión de información errónea, en la organización de los disturbios y en la información al público de los acontecimientos pertinentes.
  • Cualquier vínculo documentado entre el discurso contra la inmigración y la comunidad musulmana en Internet y la violencia y la discriminación en el Reino Unido.
  • El papel que desempeñan las imágenes (es decir, fotografías, gráficos, memes o videos, incluso los generados por IA) en el lenguaje que incita al odio en línea.
  • Desafíos para la automatización en el análisis de la provocación o el lenguaje que incita al odio en las imágenes, especialmente en las generadas por IA.
  • Riesgos de una aplicación excesiva de las normas comunitarias en estos contextos y las posibles repercusiones negativas en los derechos de libertad de expresión de oradores y oyentes.
  • Si Meta debería considerar medidas de moderación de contenido que no impliquen la eliminación de este tipo de contenido.

Entre sus decisiones, el Consejo puede emitir recomendaciones de políticas a Meta. Aunque las recomendaciones no son vinculantes, Meta debe responder a ellas en un plazo de 60 días. Por ello, el Consejo agradece los comentarios públicos que propongan recomendaciones pertinentes para estos casos.

Comentarios públicos

Si usted o su organización consideran que pueden aportar perspectivas valiosas que ayuden a tomar una decisión sobre los casos anunciados hoy, pueden enviar sus contribuciones utilizando el siguiente botón. Tenga en cuenta que los comentarios públicos pueden realizarse de manera anónima. El plazo para enviar comentarios públicos es de 14 días y finalizará el martes 17 de diciembre a las 23:59, hora estándar del Pacífico (PST).

Próximos pasos

En las próximas semanas, los Miembros del Consejo deliberarán sobre estos casos. Una vez que hayan tomado una decisión, la publicaremos en la página de Decisiones.

Volver a Noticias