La nueva decisión resalta por qué el uso de la expresión “Del río al mar” por sí sola no debería llevar a la eliminación de contenido.
4 de septiembre de 2024
La Junta también subraya la importancia del acceso a datos garantizar una supervisión independiente de la moderación de Meta
Luego de revisar tres casos relativos a diferentes contenidos de Facebook que incluían la frase "From the River to the Sea" (Desde el río hasta el mar), el Consejo determinó que no infringían las reglas de Meta sobre lenguaje que incita al odio, violencia e incitación o personas y organizaciones peligrosas. Específicamente, los tres contenidos presentan signos contextuales de solidaridad con los palestinos, pero ninguna clase de lenguaje que incite a la violencia o la exclusión. Tampoco glorifican ni hacen referencia a Hamás, una organización que Meta designa como peligrosa. Al ratificar la decisión de Meta de mantener el contenido, el Consejo por mayoría destacó que la frase tiene múltiples significados y las personas la utilizan de diversas maneras y con diferentes intenciones. Sin embargo, una minoría consideró que, debido a que la frase aparece en la Carta fundacional de Hamás de 2017 y dados los atentados del 7 de octubre, debería presumirse que su uso en una publicación constituye una glorificación de una entidad designada, salvo que haya indicios claros en contrario.
Estos tres casos ponen de manifiesto las tensiones entre el valor de expresión de Meta y la necesidad de proteger la libertad de expresión, en especial, el discurso político en tiempos de conflicto, y los valores de seguridad y dignidad de Meta para proteger a las personas de la intimidación, la exclusión y la violencia. El conflicto actual y en curso tras el atentado terrorista de Hamás en octubre de 2023 y las operaciones militares subsiguientes desplegadas por Israel dieron lugar a protestas en todo el mundo y a acusaciones contra ambas partes por infringir el derecho internacional. El aumento estrepitoso del antisemitismo y de la islamofobia es igual de importante, no solo en estos casos, sino también en cuanto al uso generalizado de la frase "From the River to the Sea" (Desde el río hasta el mar) en las plataformas de Meta. Estos casos han vuelto a resaltar la importancia del acceso a los datos para evaluar con eficacia la moderación del contenido de Meta en tiempos de conflicto, así como también la necesidad de contar con un método para hacer un seguimiento de la cantidad de contenido que ataca a las personas basándose en una característica protegida. Las recomendaciones del Consejo instan a Meta a asegurarse de que su nueva biblioteca de contenido sea un reemplazo eficaz de CrowdTangle y a implementar por completo una recomendación del informe de diligencia debida respecto de los derechos humanos elaborado por BSR sobre el impacto de Meta en Israel y Palestina.
Información de los casos
En el primer caso, un usuario de Facebook comentó un video publicado por otro usuario. La descripción del video anima a las personas a "speak up" (no quedarse calladas) e incluye hashtags como "#ceasefire" (alto al fuego) y "#freepalestine" (liberen a Palestina). El comentario del usuario incluye la frase "FromTheRiverToTheSea" (Desde el río hasta el mar) con formato de hashtag, hashtags adicionales como "#DefundIsrael" (Desfinancien a Israel) y emojis de corazones con los colores de la bandera de Palestina. El comentario tuvo 3.000 visualizaciones y cuatro usuarios lo reportaron, pero estos reportes se cerraron automáticamente porque el sistema automatizado de Meta no los priorizó para que pasen a revisión manual.
En el segundo caso, el usuario de Facebook publicó lo que probablemente sea una imagen generada de unas rodajas de sandía flotando que forman las palabras de la frase, junto a "Palestine will be free" (Palestina será libre). Esta publicación tuvo 8 millones de visualizaciones y 937 usuarios la reportaron. Algunos de estos reportes fueron evaluados por moderadores humanos que determinaron que la publicación no infringía las reglas de Meta.
En el tercer caso, el administrador de una página de Facebook volvió a compartir una publicación de una organización comunitaria canadiense, en la que los miembros fundadores declaraban su apoyo al pueblo palestino, denunciaban su "senseless slaughter" (matanza sin sentido) y a los "Zionist Israeli occupiers" (israelíes sionistas que ocupan sus territorios). Esta publicación tuvo menos de 1.000 visualizaciones y un usuario la reportó, pero el reporte se cerró automáticamente.
En los tres casos, los usuarios apelaron a Meta para que elimine el contenido, pero las apelaciones se cerraron sin revisión manual luego de una evaluación realizada por una de las herramientas automatizadas de la empresa. Luego de que Meta ratificara su decisión de mantener el contenido en Facebook, los usuarios apelaron al Consejo.
Los atentados terroristas sin precedentes perpetrados por Hamás en Israel en octubre de 2023, en los que 1.200 personas murieron y 240 fueron tomadas como rehenes, fueron sucedidos por una respuesta militar a gran escala por parte de Israel en Gaza, que se cobró la vida de 39.000 personas (hasta julio de 2024). Desde entonces, ambas partes han sido acusadas de infringir el derecho internacional y de cometer crímenes de guerra y crímenes de lesa humanidad. Esto ha generado debates a nivel mundial, de los cuales gran parte se han dado en medios sociales, incluidos Facebook, Instagram y Threads.
Conclusiones principales
El Consejo determinó que no hay indicios que permitan concluir que el comentario o las dos publicaciones infringen las reglas de Meta sobre lenguaje que incita al odio porque no atacan al pueblo judío o israelí con incitaciones a la violencia o la exclusión, ni a un concepto o institución asociados con una característica protegida que pueda dar lugar a violencia inminente. Los tres contenidos presentan indicios contextuales de solidaridad con los palestinos, mediante hashtags, representaciones visuales o declaraciones de apoyo. En lo relativo a otras políticas, no infringen las reglas de violencia e incitación ni la política de personas y organizaciones peligrosas de Meta dado que no contienen amenazas relacionadas con actos de violencia u otro tipo de daño físico ni glorifican a Hamás o sus acciones.
Al tomar su decisión, el Consejo por mayoría destacó que la frase "From the River to the Sea" (Desde el río hasta el mar) tiene múltiples significados. Aunque algunas personas pueden interpretarla como un acto de promoción y legitimación del antisemitismo y del exterminio de Israel y su pueblo, a menudo también se la utiliza como un llamado político a la solidaridad con el pueblo palestino, su derecho a la igualdad y a la autodeterminación, y para abogar por el fin de la guerra en Gaza. Considerando las circunstancias, y como muestran estos casos, la frase aislada no puede interpretarse como una incitación a la violencia contra un grupo sobre la base de características protegidas, ni como promoción de la exclusión de un grupo en particular o como apoyo a una entidad designada (Hamás). El uso de la frase por parte de un grupo terrorista con una intención violenta explícita de exterminio y acciones en igual sentido no implica que la frase sea intrínsecamente ofensiva o violenta, teniendo en cuenta la variedad de personas que la utilizan de diferentes maneras. Es esencial evaluar factores como el contexto y la identificación de riesgos específicos para analizar el contenido que se publica en las plataformas de Meta de manera integral. Aunque la eliminación del contenido podría haber estado alineada con las responsabilidades de Meta en materia de derechos humanos si la frase hubiese estado acompañada por declaraciones o indicios que incitaran a la exclusión o la violencia o legitimaran el odio, a criterio de la mayoría del Consejo, dicha eliminación no habría estado basada en la frase en sí, sino en otros elementos que infringen las normas. Debido a que la frase no tiene un único significado, una prohibición absoluta del contenido que la incluya, una regla predeterminada que obligue a eliminar este tipo de contenido o incluso utilizarla como indicio para tomar medidas o realizar una revisión constituiría un obstáculo inaceptable para el discurso político protegido.
En contraste, una minoría del Consejo consideró que Meta debería implementar una regla predeterminada que presuma que la frase constituye una glorificación de una organización designada, salvo que haya indicios claros de que el usuario no apoya a Hamás ni los atentados del 7 de octubre.
El Consejo dispuso una investigación en relación con estos casos que se basó en la herramienta de análisis de datos CrowdTangle. El acceso a datos de la plataforma es esencial para el Consejo y otras partes externas para poder evaluar la necesidad y la proporcionalidad de las decisiones sobre moderación de contenido de Meta durante conflictos armados. Por este motivo, al Consejo le preocupa la decisión de Meta de desactivar la herramienta mientras existen dudas sobre si la biblioteca de contenido de Meta, que es una opción más nueva, es un reemplazo adecuado.
Por último, el Consejo reconoció que, incluso con herramientas de investigación, la capacidad de evaluar el alcance del aumento del antisemitismo, la islamofobia, el racismo y el contenido ofensivo en las plataformas de Meta es limitada. El Consejo instó a Meta a implementar por completo una recomendación previamente publicada en el informe de diligencia debida respecto de los derechos humanos elaborado por BSR para abordar esta problemática.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó las decisiones de Meta de mantener el contenido en los tres casos.
El Consejo le recomendó a Meta:
- Garantizar que los investigadores calificados, incluidos periodistas y organizaciones de la sociedad civil, que previamente tuviesen acceso a CrowdTangle se registren en la nueva biblioteca de contenido de Meta en un plazo máximo de tres semanas desde la presentación de la solicitud correspondiente.
- Garantizar que la biblioteca de contenido sea un reemplazo adecuado para CrowdTangle, que proporcione un nivel de acceso a los datos y funcionalidad igual o mayor.
- Implementar la recomendación n.º 16 del informe de diligencia debida respecto de los derechos humanos elaborado por BSR sobre el impacto de Meta en Israel y Palestina para desarrollar un mecanismo para registrar la prevalencia de contenido que ataca a las personas sobre la base de características protegidas (por ejemplo, contenido antisemita, islamofóbico y homofóbico).
Para obtener más información
For Arabic translation, click here.
For Hebrew translation, click here.
To read public comments for this case, click here.