Confirmado

Candidato político de Pakistán acusado de blasfemia

El Consejo sostuvo la decisión de Meta de eliminar una publicación que contenía una acusación de blasfemia contra un candidato político, dado el potencial de daño inminente en el período previo a las elecciones 2024 de Pakistán.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Elecciones, Religión
Estándar comunitario
Organización de actos dañinos y promoción de la delincuencia

Regiones/Países

Ubicación
Pakistán

Plataforma

Plataforma
Instagram

Para leer la decisión en urdu, haz clic aquí.

مکمل فیصلہ اردو میں پڑھنے کے لیے، یہاں پر کلک کریں

Resumen

El Consejo sostuvo la decisión de Meta de eliminar una publicación que contenía una acusación de blasfemia contra un candidato político. En el período previo a las elecciones 2024 de Pakistán, había una posibilidad de daño inminente. Sin embargo, el Consejo considera que no queda claro que la regla pertinente de la política de organización de actos dañinos y promoción de la delincuencia, que evita que los usuarios revelen la identidad de una persona de un "grupo de riesgo de exposición", se aplica a figuras públicas acusadas de blasfemia en Pakistán o en cualquier otra parte. Es preocupante que este marco no se entiende fácilmente en todas las culturas e idiomas, por lo que genera confusión para los usuarios que intentan comprender las reglas. Meta debería actualizar su política para aclarar que los usuarios no deben publicar acusaciones de blasfemia contra personas que se puedan identificar en lugares donde la blasfemia constituye un delito o donde hay riesgos de seguridad significativos contra los acusados.

Información sobre el caso

En enero de 2024, un usuario de Instagram publicó un video de seis segundos del discurso de un candidato en las elecciones de febrero 2024 de Pakistán. En el clip, el candidato elogiaba al ex primer ministro Nawaz Sharif diciendo que "después de Dios, seguía Nawaz Sharif". El usuario, usando texto superpuesto en el video, criticaba ese elogio por "cruzar todos los límites de kufr" y alegaba que no era creyente de acuerdo con las enseñanzas del Islam.

Tres usuarios de Instagram reportaron el contenido un día después de su publicación y un revisor que lo analizó consideró que no infringía las Normas comunitarias de Meta. Los usuarios que reportaron el contenido no apelaron la decisión. Varios usuarios más reportaron la publicación los días posteriores, pero Meta sostuvo que el contenido no infringía sus reglas luego de la revisión manual y el cierre automático de algunos reportes.

En febrero de 2024, el sistema HERO (High Risk Early Review Operations) de Meta identificó el contenido para que se sometiera a otra revisión basándose en señales que indicaban que tenía una gran probabilidad de volverse viral. El contenido se escaló a expertos en políticas de Meta, quienes lo eliminaron por infringir la regla sobre "exposición" de la política de organización de actos dañinos y promoción de la delincuencia. Meta define la "exposición" como "exponer la identidad o las ubicaciones vinculadas con cualquiera que presuntamente sea miembro de un grupo de riesgo de exposición". De acuerdo con las pautas internas de Meta para los revisores, un grupo de riesgo de exposición incluye a las personas acusadas de blasfemia en Pakistán. Cuando el sistema HERO marcó el video y lo eliminó, ya había tenido 48.000 visualizaciones y se había compartido más de 14.000 veces. En marzo de 2024, Meta remitió el caso al Consejo asesor de contenido.

Las ofensas relacionadas con la religión infringen la ley pakistaní, y las reglas de medios sociales del país exigen la eliminación de contenido online que sea "blasfemo".

Conclusiones principales

El Consejo considera que, dado los riesgos asociados con las acusaciones de blasfemia en Pakistán, la eliminación del contenido se ajustaba a la disposición de prevenir "daños en la vida real" de la política de organización de actos dañinos y promoción de la delincuencia.

No queda claro para los usuarios que los riesgos que enfrentan los miembros de ciertas minorías religiosas o de creencias se relacionan con la "exposición", como se conoce a este concepto habitualmente (en otras palabras, los riesgos que genera la divulgación pública de un estado privado). El uso del término "outing" (exposición) en este contexto es confuso, tanto en inglés como en urdu. No queda claro ni que las personas acusadas de blasfemia se considerarían ellas mismas miembros de un "grupo" en riesgo de "exposición" ni que los políticos se encontrarían dentro de un "grupo de riesgo de exposición" por dar discursos públicos, especialmente durante las elecciones. En resumen, la política simplemente no deja en claro para los usuarios que el video sería infractor.

Además, la política no especifica qué contextos abarca su disposición sobre la exposición ni qué grupos se consideran en riesgo. Tampoco indica explícitamente que aquellas personas acusadas de blasfemia están protegidas en ubicaciones donde dichas acusaciones implican un riesgo de daño inminente. Meta explicó que, aunque tiene una lista interna de grupos de riesgo de exposición, no la proporciona públicamente para que las personas malintencionadas no puedan evadir las reglas. El Consejo no considera que este motivo justifique la falta de claridad general de la política. Definir con claridad contextos de exposición y grupos de riesgo indicaría a posibles blancos de acusaciones de blasfemia que dichas acusaciones infringen explícitamente las reglas de Meta y se eliminarán. Al mismo tiempo, podría fomentar los reportes de los usuarios acusados de blasfemia en contextos donde la blasfemia implica riesgos legales y de seguridad, como Pakistán. Un mayor nivel de detalle en la regla pública también permitiría que los revisores apliquen las políticas con más precisión.

Al Consejo también le preocupa que varios revisores hayan determinado que el contenido no era infractor, aunque los usuarios lo hayan reportado varias veces y las pautas internas de Meta, que son más claras, incluyan explícitamente a las personas acusadas de blasfemia de Pakistán en sus grupos de riesgo de exposición. Recién cuando el sistema HERO de Meta identificó el contenido, aparentemente luego de volverse viral, se escaló a expertos en políticas internas, que lo identificaron como infractor. Por lo tanto, los revisores a gran escala de Meta deberían recibir una capacitación más personalizada, en especial, en contextos como Pakistán.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido mantuvo la decisión de Meta de eliminar el contenido.

El Consejo le recomendó a Meta lo siguiente:

  • Actualizar la política de organización de actos dañinos y promoción de la delincuencia para aclarar que los usuarios no deben publicar acusaciones de blasfemia contra personas que se puedan identificar en lugares donde la blasfemia es un delito o donde hay riesgos de seguridad significativos para los acusados de blasfemia.
  • Capacitar a los revisores a gran escala que cubren ubicaciones donde las acusaciones de blasfemia implican un riesgo de daño inminente para las personas acusadas con el fin de brindarles pautas más específicas de aplicación de políticas que les permitan identificar con eficacia publicaciones con tales acusaciones, así como considerar diferentes matices y contextos.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Descripción y contexto del caso

A fines de enero de 2024, un usuario de Instagram publicó un clip de video de seis segundos en Instagram que mostraba a un candidato de las elecciones de febrero 2024 de Pakistán dando un discurso en urdu. En el clip, el candidato elogiaba al ex primer ministro Nawaz Sharif diciendo que "después de Dios, seguía Nawaz Sharif". El usuario, usando texto superpuesto en el video, criticaba ese elogio por "cruzar todos los límites de kufr", donde la palabra "kufr" hace referencia a una persona que no cree en Alá de acuerdo con las enseñanzas del Islam.

Tres usuarios de Instagram reportaron el contenido un día después de su publicación y un revisor que lo analizó consideró que no infringía las Normas comunitarias de Meta. Los usuarios que hicieron los reportes no apelaron. Un día después, dos usuarios más reportaron el contenido. Los revisores decidieron que el contenido no era infractor en todas las instancias. Tres días después de su publicación, otro usuario reportó el contenido. Los revisores analizaron los reportes y determinaron que no infringía las reglas de Meta. Luego, otros usuarios reportaron el contenido nueve veces más en los días posteriores, pero Meta cerró los reportes automáticamente en función de las decisiones anteriores. Todos los reportes de los usuarios se revisaron durante el mismo día en que se enviaron.

A principios de febrero, cinco días después de su publicación, el sistema HERO (High Risk Early Review Operations) de Meta identificó el contenido para que se sometiera a otra revisión basándose en señales que indicaban que tenía una gran probabilidad de volverse viral. El sistema HERO escaló el contenido a expertos en políticas de Meta, quienes lo eliminaron por infringir la política de organización de actos dañinos y promoción de la delincuencia en lo que respecta a la "exposición: exponer la identidad o las ubicaciones vinculadas con cualquiera que presuntamente sea miembro de un grupo de riesgo de exposición". De acuerdo con las pautas internas de Meta para los revisores, un grupo de riesgo de exposición incluye a las personas acusadas de blasfemia en Pakistán. Cuando el clip de video se eliminó, ya había tenido alrededor de 48.000 visualizaciones y se había compartido más de 14.000 veces. A fines de marzo de 2024, Meta remitió el caso al Consejo asesor de contenido.

El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó.

El clip de video se publicó durante el período previo a las elecciones de febrero 2024 de Pakistán, en las cuales el hermano del ex primer ministro Nawaz Sharif, Shehbaz Sharif, fue elegido Primer Ministro por otro mandato. El candidato político que elogiaba a Nawaz Sharif en el video pertenecía al mismo partido político que los hermanos.

De acuerdo con una investigación que encargó el Consejo, hubo muchas publicaciones online del video que hacían referencia a la acusación de blasfemia. Al mismo tiempo, hubo otras publicaciones que compartieron el clip de video de seis segundos, pero que se oponían a la acusación de "kufr", ya que afirmaban que el clip editado sacaba de contexto todo el discurso del candidato. Una publicación diferente que mostraba 60 segundos del mismo discurso, pero desde la perspectiva de otra cámara, se compartió más de 1.000 veces y se visualizó aproximadamente 100.000 veces. Este video más largo mostraba el contexto completo de la referencia a Alá del candidato, que el texto superpuesto en el clip de video de este caso consideraba blasfema.

Pakistán penaliza las ofensas relacionadas con la religión conforme a las secciones 295-298 del Código Penal de Pakistán, lo que incluye la profanación del Corán, comentarios despectivos sobre el profeta Mahoma y la intención deliberada y maliciosa de ultrajar "sentimientos religiosos". Las reglas de medios sociales de Pakistán (2021) exigen la eliminación de contenido online en caso de ser "blasfemo", según el Código Penal. Como consecuencia, muchas personas, a menudo minorías religiosas y personas percibidas como críticas del Islam, fueron condenadas por blasfemia debido a publicaciones online y sentenciadas a muerte. De acuerdo con la Relatora Especial sobre la libertad de religión o de creencias de la ONU, los miembros de las minorías religiosas suelen ser el blanco de leyes de blasfemia y suelen designarse ampliamente como "blasfemos" o "apóstatas" (A/HRC/55/47, párrafo 14). En Pakistán, los ahmadíes y los cristianos se encuentran entre esos blancos (A/HRC/40/58, párrafo 37). El Relator Especial sobre la libertad de religión o de creencias de la ONU observó, además, que incluso aquellas personas que pertenecen a las denominaciones religiosas principales, incluido dentro del Islam, y que se oponen activamente a la difamación de su religión por medio de leyes de blasfemia también "corren un mayor riesgo de que se les acuse de 'traición'
o 'blasfemia' y se les impongan sanciones de represalia" (A/HRC/28/66, párrafo 7; ver también comentario del público PC-29617). Los cargos por blasfemia también se usan para intimidar a oponentes políticos.

Las acusaciones por blasfemia también provocaron linchamientos en Pakistán, los cuales han ocurrido durante décadas en el país, aunque no siempre han sido registrados por los medios sociales. Estos son algunos incidentes recientes:

  • En 2021, una banda atacó una fábrica de equipamiento deportivo y golpeó y quemó a un hombre esrilanqués hasta matarlo luego de que fuera acusado de profanar carteles que llevaban el nombre del profeta Mahoma. Un video compartido en los medios sociales mostraba a la banda arrastrando el cuerpo del hombre gravemente herido antes de quemarlo vivo hasta matarlo mientras cientos de personas vitoreaban.
  • En febrero de 2023, una banda arrebató a un hombre musulmán de custodia policial y lo golpeó hasta matarlo luego de acusarlo de profanar páginas del Corán. En los medios sociales, circuló un video del incidente que mostraba a personas arrastrando al hombre por las piernas mientras lo golpeaban con palos y varillas de metal.
  • En agosto de 2023, varias bandas atacaron iglesias cristianas y las quemaron, y dañaron las casas cercanas junto con todo lo que había en ellas, luego de que dos parroquianos supuestamente rompieran páginas del Corán y escribieran insultos en ellas. Algunos parroquianos tuvieron que huir de sus hogares para escapar.
  • En febrero de 2024, la policía salvó a una mujer del posible ataque de una banda luego de que confundieran el texto impreso en su vestido con versos del Corán. La banda se había juntado fuera del restaurante donde la mujer estaba comiendo. Luego, la mujer se disculpó públicamente.
  • En mayo de 2024, una banda atacó a un hombre cristiano mayor, Nazir Masih, supuestamente por haber profanado el Corán. El hombre sufrió varias lesiones en la cabeza y fue llevado a un hospital, donde murió. A principios de junio, un grupo de 2.500 personas organizaron una manifestación para expresar su apoyo por el asesinato.
  • En junio de 2024, mientras el Consejo analizaba este caso, un turista local fue asesinado y su cuerpo fue prendido fuego luego de ser acusado de profanar el Corán. La policía había arrestado al hombre, pero cientos de personas se juntaron frente a la comisaría donde estaba detenido y exigieron que lo entregaran. La banda atacó la comisaría y sacó al hombre por la fuerza. Luego, lo golpeó hasta matarlo y prendió fuego el cuerpo. A fines de junio, la policía había arrestado a 23 personas que habían participado en el ataque.

Políticos también fueron blanco de violencia relacionada con blasfemia. Uno de los incidentes de más alto perfil involucró al ex gobernador de Punjab Salman Taseer, que fue asesinado por su propio guardaespaldas en 2011. Taseer había pedido la derogación de las leyes de blasfemia de Pakistán. El guardaespaldas fue sentenciado a pena de muerte y una enorme multitud salió a las calles a manifestarse. Luego de la ejecución del guardaespaldas, los manifestantes construyeron un santuario en su tumba. Otro incidente en 2011 involucró a delincuentes no identificados que asesinaron al ministro federal de minorías Shahbaz Bhatti. Como Taseer, Bhatti había criticado las leyes de blasfemia de Pakistán.

Además de los procedimientos especiales de la ONU, tanto organizaciones de derechos humanos como de libertad religiosa y otros Gobiernos condenaron la violencia de las bandas en relación con la blasfemia en Pakistán derivada de acusaciones de blasfemia. Los expertos a los que consultó el Consejo confirmaron que presentar una denuncia policial contra una persona acusada de blasfemia puede derivar en su arresto para protegerla de las bandas. Sin embargo, como se puede observar en el incidente de junio de 2024, la custodia policial puede ser insuficiente para proteger a las personas acusadas de blasfemia de la violencia de las bandas.

Pese a esto, las acusaciones de blasfemia continúan en Pakistán, y las publicaciones de medios sociales constituyen la base de su condena. Por ejemplo, un profesor enfrenta la pena de muerte y ha estado preso durante más de 10 años por una supuesta publicación blasfema en Facebook en 2013. Su abogado fue asesinado en 2014 por defenderlo. En 2020, la policía presentó un caso de blasfemia contra un defensor de los derechos humanos por una publicación de los medios sociales. En marzo de 2024, un estudiante de 22 años fue condenado por blasfemia y sentenciado a pena de muerte supuestamente por enviar imágenes despectivas sobre el profeta Mahoma y sus esposas en WhatsApp. El Gobierno pakistaní tiene antecedentes de controlar que no haya contenido blasfemo online y ordenó que las empresas de medios sociales restringieran el acceso a publicaciones que considera blasfemas. También se ha reunido con Meta para debatir sobre las publicaciones que considera blasfemas.

En su informe de transparencia de julio a diciembre de 2023, Meta indicó que restringió el acceso en Pakistán a más de 2.500 publicaciones que había reportado la Autoridad de Telecomunicaciones de Pakistán supuestamente por infringir las leyes locales, incluidas publicaciones por blasfemia y "opiniones antirreligiosas". Estos informes solo abarcan contenido que Meta elimina tras una solicitud gubernamental, pero que de otro modo no infringiría las políticas de contenido de Meta (es decir, las publicaciones marcadas por el Gobierno que la empresa elimina por infringir la regla de exposición no se incluirían en estos datos). De acuerdo con la información que proporcionó Meta sobre este caso, no parece haber evidencia que indique que el Gobierno solicitó la revisión o eliminación de este contenido. Como miembro de la Iniciativa de Red Global, Meta se comprometió a respetar la libertad de expresión cuando se enfrenta a restricciones gubernamentales sobre contenido demasiado amplias.

2. Respuestas de los usuarios

El usuario no hizo ninguna declaración sobre este caso.

3. Respuestas y políticas de contenido de Meta

I. Políticas de contenido de Meta

Organización de actos dañinos y promoción de la delincuencia

La política de organización de actos dañinos y promoción de la delincuencia tiene como fin "prevenir y evitar daños en la vida real, y la imitación de dicho comportamiento". Para ello, prohíbe el contenido que "facilite, organice, promueva o admita determinadas actividades criminales o dañinas dirigidas a personas, negocios, propiedades o animales". Dos disposiciones de la política abordan la "exposición": la primera se aplica a gran escala y la segunda requiere "más contexto para poder aplicar la política" (lo que significa que esta disposición solo se aplica tras un escalamiento). La primera disposición de la política se aplica a este caso. Prohíbe específicamente la "exposición: exponer la identidad o las ubicaciones vinculadas con cualquiera que presuntamente sea miembro de un grupo de riesgo de exposición". Esta disposición no explica qué grupos se consideran "grupos de riesgo de exposición". La segunda disposición, que solo se aplica tras un escalamiento, también prohíbe la "exposición: contenido que exponga la identidad de una persona y la ponga en riesgo de daño" para una lista específica de grupos vulnerables, incluidos los miembros de la comunidad LGBTQIA+, las mujeres sin velo, activistas y prisioneros de guerra. Las personas acusadas de blasfemia no se encuentran entre los grupos mencionados en la lista.

De acuerdo con las pautas internas que Meta proporciona a los revisores, los "grupos de riesgo de exposición" mencionados en la primera disposición de la política de exposición incluyen a las personas acusadas de blasfemia en Pakistán, además de otros lugares. Además, la "exposición" debe ser involuntaria; una persona no puede exponerse por sus propios medios, es decir, no puede declararse miembro de un grupo de riesgo de exposición. Para infringir la política en virtud de las pautas internas de Meta, no es importante si se confirma la supuesta blasfemia o si el contenido representa de forma incorrecta blasfemia. Solo basta una mera acusación para que la persona se incluya en el grupo "de riesgo" y para que se elimine el contenido.

Excepción basada en el espíritu de la política

Meta puede aplicar una concesión basada en el "espíritu de la política" al contenido si las bases de la política (el texto que introduce cada norma comunitaria) y los valores de Meta exigen un resultado diferente en lugar de una lectura estricta de las reglas (estipuladas en la sección "No publicar" y en la lista de contenido prohibido). En decisiones anteriores, el Consejo recomendó a Meta brindar una explicación pública de esta concesión de la política (casos Productos farmacéuticos en Sri Lanka, recomendación n.° 1, y Violencia en una comunidad del estado de Odisha de la India). Meta aceptó las recomendaciones relevantes, las cuales están completamente implementadas o en progreso, según la última evaluación del Consejo.

II. Respuestas de Meta

Meta explicó que agregó a las personas acusadas de blasfemia en Pakistán a su lista interna de "grupos de riesgo de exposición" en la política de organización de actos dañinos y promoción de la delincuencia a fines de 2017, tras la violencia relacionada con las acusaciones de blasfemia en el país. Como parte de estas iniciativas de integridad de las elecciones 2024 de Pakistán, Meta priorizó la supervisión de contenido que tenía acusaciones de blasfemia dado el alto riesgo de daño en la vida real, incluida la violencia extrajudicial, que generan dichas acusaciones. Meta afirma que, gracias a estas iniciativas de integridad, identificó el contenido en este caso.

Al remitir el caso, Meta observó la tensión entre la expresión y la seguridad en este tipo de contenido durante un período de elecciones. Meta observó el valor del interés público en las críticas a candidatos políticos al mismo tiempo que reconoció los diversos riesgos de seguridad que generan las acusaciones de blasfemia en Pakistán, como violencia y muerte contra políticos.

Meta determinó que el texto superpuesto del clip de video, que indicaba que el candidato electoral había "cruzado todos los límites de kufr", constituía una acusación de blasfemia. Para Meta, ese texto sugiere que el candidato político cometió el pecado de "shirk" (en otras palabras, creer en más de un Dios o considerar cosas o personas como Dios) o acusa al candidato político de infringir las leyes de blasfemia de Pakistán. En cualquier caso, Meta determinó que el riesgo de daño en la vida real era más importante que el posible valor de expresión del video. La empresa aclaró que, si el video no hubiera tenido ese texto superpuesto, se habría conservado en la plataforma.

Meta también brindó una explicación sobre el sistema HERO que usa para detectar contenido de alto riesgo (además de los reportes de usuarios): el alto riesgo de un contenido particular depende de la probabilidad de que se vuelva viral. Meta usa varias señales para predecir si el contenido se volverá viral. Estas señales incluyen la visibilidad del contenido en la pantalla de un usuario (aunque sea parcial), el idioma de la publicación y el país principal en el que se está compartiendo cuando se detecta. HERO no está vinculado a ninguna norma comunitaria particular. Además, Meta no tiene una definición establecida para "viralidad alta". Por el contrario, la viralidad alta depende de factores que varían en cada mercado. Por lo tanto, la forma en que Meta pondera las señales de viralidad alta durante hechos de alto riesgo, que pueden incluir períodos de elecciones, varía. Los equipos internos de Meta pueden analizar la cantidad de visualizaciones durante períodos de elecciones para responder a riesgos específicos. Por lo tanto, HERO identifica contenido conforme a cualquier política, sin importar la probabilidad de que exista alguna infracción de políticas.

El Consejo le hizo a Meta varias preguntas respecto de la regla sobre "grupos de riesgo de exposición" de la política de organización de actos dañinos y promoción de la delincuencia, las iniciativas de integridad de las elecciones de la empresa para Pakistán y las solicitudes gubernamentales de eliminación de contenido conforme a las leyes de blasfemia de Pakistán y las Normas comunitarias de Meta. Meta respondió todas las preguntas.

4. Comentarios del público

El Consejo asesor de contenido recibió tres comentarios del público dentro de los plazos de presentación. Dos de los comentarios se enviaron desde Europa y uno desde Asia central y meridional. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.

Los comentarios enviados se referían a los siguientes temas: La moderación de contenido por parte de Meta de publicaciones que contienen acusaciones de blasfemia, el impacto en los derechos humanos de dichas acusaciones y otras acusaciones relacionadas en Pakistán, y el papel que tienen las acusaciones de blasfemia contra las figuras públicas en Pakistán y otros países.

5. Análisis del Consejo asesor de contenido

Este caso destaca la tensión entre los valores de Meta de proteger la expresión, incluidas las críticas políticas durante las elecciones, y de garantizar la seguridad de las personas acusadas de blasfemia, dada las amenazas contra la vida y la libertad que pueden implicar dichas acusaciones en Pakistán.

El Consejo analizó la decisión de Meta en este caso en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de este caso para el enfoque más general de Meta en cuanto a la gobernanza de contenido.

5.1 Cumplimiento de las políticas de contenido de Meta

I. Reglas de contenido

El Consejo considera que no se infringió la regla de la política de Meta que prohíbe revelar la identidad de las personas que supuestamente forman parte de "grupos de riesgo de exposición" porque no queda claro que se extienda a las figuras públicas acusadas de blasfemia en Pakistán o en otras partes.

En Pakistán, si bien los miembros de ciertas minorías religiosas o de creencias pueden considerarse "grupos en riesgo" de daño, no queda claro que estos riesgos se relacionen con la "exposición", como se conoce a este concepto habitualmente (en otras palabras, los riesgos que genera la divulgación pública de un estado privado). De forma similar, las personas acusadas de blasfemia no necesariamente se consideran ellas mismas miembros de un "grupo" (en comparación con personas que comparten una característica protegida, que incluiría las minorías religiosas). Además, tampoco queda claro que los políticos se encuentren en un "grupo de riesgo de exposición" por información revelada en discursos públicos, especialmente en un contexto electoral. En cambio, otras partes de las reglas de Meta en este ámbito distinguen a las "figuras políticas" y no les brindan protección para ciertas formas de "exposición".

El Consejo considera que, aunque las pautas internas de los revisores indiquen de forma más específica cuáles son los "grupos de exposición" (o brinden contextos más precisos) cubiertos en esta política, la política pública no contiene los elementos básicos que prohibirían claramente el contenido en este caso.

Sin embargo, al ejercer su función de evaluación y supervisión, el Consejo considera que analizar la prohibición de la política de organización de actos dañinos y promoción de la delincuencia teniendo en cuenta las bases de la política garantiza la eliminación del contenido, una conclusión que queda reforzada por el análisis de los derechos humanos a continuación. Según las bases de la política, la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia pretende "prevenir y evitar daños en la vida real", lo que incluye no permitir que las personas "faciliten, organicen, promuevan o admitan determinadas actividades criminales o dañinas dirigidas a personas". Meta permite debatir la legalidad o concientización de la actividad criminal o dañina, siempre y cuando la publicación no defienda ni coordine dichas actividades. En este caso, el Consejo considera que la eliminación del contenido se alinea con las bases de la política de prevenir el daño en la vida real, dado los riesgos legales y de seguridad que pueden generar las acusaciones de blasfemia en Pakistán. La publicación del usuario no se puede interpretar como concientización o debate de la legalidad de la blasfemia en Pakistán; sino como todo lo contrario, ya que acusa a alguien de cometer blasfemia en un lugar donde podría enfrentar una acusación o riesgos de seguridad. La acusación contra el candidato político se realizó en el período previo a las elecciones de febrero 2024, cuando el candidato estaba participando activamente en la campaña. Había un posible daño inminente, como violencia justiciera y acusación penal. Esto se sumaba a "facilitar" una actividad criminal o dañina, lo que está prohibido conforme a la política de organización de actos dañinos y promoción de la delincuencia.

Una minoría del Consejo considera que el contenido se debería haber eliminado sobre la base del espíritu de la política. Para la minoría, esta excepción de la política solo se debe usar en casos muy excepcionales, especialmente para eliminar contenido. Sin embargo, hay instancias, como las de este caso, donde es necesario abordar situaciones de riesgo muy alto de daño que no están prohibidas expresamente en las reglas de Meta de la sección "No publicar". Tal como sucede aquí, porque la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia no indica expresamente que las acusaciones de blasfemia en Pakistán están prohibidas. No obstante, la eliminación se ajusta al espíritu de la política en general y a sus finalidades de reducir el daño. La minoría considera que, cuando Meta elimina contenido en función del "espíritu de la política", la empresa debería documentarlo para que se pueda hacer un seguimiento y formar una base a fin de identificar brechas en las políticas que deben abordarse.

5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo considera que eliminar el contenido de la plataforma era coherente con las responsabilidades de Meta en materia de derechos humanos, aunque Meta debe abordar las preocupaciones sobre la claridad de sus reglas en este ámbito y la velocidad de su aplicación.

Libertad de expresión (artículo 19 del ICCPR)

El artículo 19 del ICCPR comprende la libertad de "buscar, recibir y difundir informaciones e ideas de toda índole" y brinda una mayor protección de la expresión, incluidos el "discurso político" y comentarios sobre "asuntos públicos". Esto incluye ideas y opiniones que pueden ser controversiales o profundamente ofensivas (observación general n.° 34, párrafo 11). El valor de la expresión es particularmente alto cuando se debaten asuntos de interés público, y la libertad de expresión se considera una "condición esencial" para ejercer con eficacia el propio derecho al voto durante elecciones (observación general n.° 25, párrafo 12). Todas las figuras públicas, incluidas aquellas que ejercen la máxima autoridad política como los jefes de Estado y Gobierno, están legítimamente sujetas a críticas y oposición política (observación general n.° 34, párrafo 38).

Las leyes de blasfemia son incompatibles con el artículo 19 del ICCPR (observación general n.° 34, párrafo 48). Según el Alto Comisionado de las Naciones Unidas para los Derechos Humanos, el derecho a la libertad de religión o creencia no incluye el derecho a tener una religión o una creencia libre de crítica o burla. Sobre esta base, las leyes de blasfemia deberían derogarse (observación general n.° 34, párrafo 48 y A/HRC/31/18, párrafos 59-60; Plan de Acción de Rabat, informe A/HRC/22/17/Add.4, párrafo 19). En cambio, las leyes de blasfemia suelen fomentar intolerancia religiosa y conducir a la persecución de minorías religiosas y discrepancia. En lugar de penalizar la blasfemia y el discurso que refleje intolerancia religiosa, en 2011, la comunidad internacional se unió en torno a la resolución 16/18 del Consejo de Derechos Humanos de las Naciones Unidas, que definió un útil kit de herramientas de medidas comprobadas con el tiempo para combatir la intolerancia religiosa y solo recurrir a la prohibición del discurso en casos en donde exista un riesgo de violencia inminente.

Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR; observación general n.° 34, párrafos 22 y 34). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo utiliza este marco para interpretar las responsabilidades de Meta en materia de derechos humanos, en línea con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas, que Meta se comprometió a cumplir en su Política corporativa de derechos humanos. El Consejo lo hace tanto respecto de la decisión sobre el contenido en particular en revisión como de lo que esto pone de manifiesto acerca del enfoque más amplio de Meta en relación con la gestión del contenido. Como indicó el Relator Especial de la ONU sobre libertad de expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.

El Consejo considera que la política de organización de actos dañinos y promoción de la delincuencia que prohíbe identificar a un miembro de un grupo de riesgo de exposición no es clara para los usuarios. En primer lugar, el Consejo considera que el uso del término "outing" (exposición) es confuso, tanto en inglés como en varios idiomas a los cuales se tradujo la regla, incluido el urdu. Aunque "outing" suele referirse a la divulgación no consensuada del estado privado de otra persona y se usa habitualmente en el contexto de la divulgación no consensuada de la orientación sexual o la identidad de género de una persona, este término se usa con menos frecuencia en otros contextos, como las afiliaciones o creencias religiosas. Las personas acusadas de blasfemia no suelen considerarse en riesgo de "outing". Además, la traducción de la frase "outing-risk group" (grupo de riesgo de exposición) a otros idiomas es problemática. Por ejemplo, la traducción a urdu de la versión pública de la política de exposición es particularmente confusa. Un hablante de urdu en Pakistán no comprendería que "شناخت ظاہر کرنا" significa "outing risk" (riesgo de exposición). La traducción tampoco especifica qué significa "outing risk". Al Consejo le preocupa que el marco actual no se aplica fácilmente a diversos contextos culturales, lo que genera una posible confusión para los usuarios que buscan comprender las reglas. La falta de transparencia se intensifica por el hecho de que las Normas comunitarias de Instagram no tienen un enlace claro a la política de organización de actos dañinos y promoción de la delincuencia de Meta, lo que dificulta al usuario conocer las reglas que se aplican al contenido que acusa a alguien de blasfemia.

En segundo lugar, la política (pública) no especifica qué contextos abarca esta regla ni qué grupos se consideran en riesgo. Tampoco indica explícitamente que aquellas personas acusadas de blasfemia están protegidas, en ubicaciones donde dichas acusaciones implican un riesgo de daño inminente. Esto es especialmente problemático para los miembros de minorías religiosas que suelen ser blancos de acusaciones de blasfemia con mayor frecuencia, en particular cuando las personas pueden, por motivos de seguridad, ocultar sus afiliaciones o creencias religiosas y ser vulnerables a la "exposición". Para estas comunidades, es importante que las reglas les garanticen que el contenido que directamente ponga en riesgo su seguridad esté prohibido. Si bien las pautas internas para los revisores son más claras, las fallas reiteradas de los revisores en este caso para poder identificar correctamente que la publicación del usuario era infractora indican que siguen siendo insuficientes.

Meta explicó que no indica públicamente la lista de grupos de riesgo de exposición de la política para que las personas malintencionadas no puedan evadir las reglas. El Consejo no considera que este motivo justifique la falta de claridad general de la política. Definir con claridad los contextos de exposición y los grupos de riesgo que cubre esta política indicaría a posibles blancos de acusaciones de blasfemia que dichas acusaciones infringen explícitamente las reglas de Meta y se eliminarán. De hecho, Meta ya lo hace en la otra regla contra "exposición" que requiere más contexto para aplicarla. Esa regla, que era irrelevante para este caso, menciona varios grupos de riesgo de exposición (por ejemplo, miembros de la comunidad LGBTQIA+, mujeres sin velo, activistas y prisioneros de guerra) que entran dentro de su alcance. Aplicar el mismo enfoque en relación con las acusaciones de blasfemia, por lo tanto, no se apartaría del enfoque actual de Meta sobre la claridad para sus usuarios con otras reglas comparables donde los riesgos y las concesiones parecen ser similares. En cambio, esta claridad podría fomentar los reportes de los usuarios acusados de blasfemia en contextos donde la blasfemia implica riesgos legales y de seguridad, como Pakistán. Un mayor nivel de detalle en las reglas públicas también permitiría que los revisores apliquen las políticas con más precisión.

El Consejo insta seriamente a Meta a que especifique en sus reglas públicas que las acusaciones de blasfemia y apostasía contra las personas están prohibidas en ciertas ubicaciones donde generan riesgos legales y de seguridad. Esto no solo hubiera sido mucho más claro en una regla independiente, separada del concepto de "outing" (exposición), sino también consistente con el enfoque de Meta al mencionar grupos de riesgo en otras partes de la política de organización de actos dañinos y promoción de la delincuencia. El Consejo no plantea cada detalle que debe incluirse en el texto público de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia. Pero, como mínimo, considera que los elementos relevantes del contenido prohibido, como los tipos de grupos protegidos, los tipos de ubicaciones a los que se aplica la regla y los tipos de expresiones que caen dentro de la prohibición, aportarían más claridad a los usuarios. De este modo, se abordaría la preocupación de Meta sobre las personas malintencionadas que intentan evadir las reglas, al mismo tiempo que se advertiría a los posibles blancos de acusaciones de blasfemia que este tipo de contenido está prohibido.

II. Fin legítimo

Cualquier restricción sobre la libertad de expresión debe procurar uno o más de los fines legítimos mencionados en el ICCPR, entre ellos, proteger los derechos de los demás (artículo 19, párrafo 3 del ICCPR). Esto incluye los derechos a la vida, la libertad y la seguridad de las personas (artículos 6 y 9 del ICCPR). El Consejo también reconoce que, conforme a las normas internacionales de derechos humanos, proteger a las personas de ofensas no se considera un fin legítimo. El Consejo previamente había reconocido que la política de organización de actos dañinos y promoción de la delincuencia de Meta busca el fin legítimo de proteger los derechos de los demás en el contexto de elecciones, como el derecho a votar (Procedimientos de votación de la Comisión Electoral de Australia). El Consejo considera que el fin de la política de "prevenir y evitar daños en la vida real" es consistente con el fin legítimo de proteger los derechos a la vida, la libertad y la seguridad de las personas.

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).

El Consejo considera que eliminar el contenido en este caso es consistente con el principio de necesidad y proporcionalidad. Asimismo, considera que los seis factores para evaluar la incitación a la violencia y la discriminación en el Plan de Acción de Rabat son esenciales para determinar la probabilidad de que la publicación genere daño. Esos factores son el contenido y la forma de expresión, la intención del hablante, la identidad del hablante, su alcance, y la probabilidad y la inminencia del daño.

En relación con el contenido y la forma de expresión y la intención del hablante, como se indica previamente, el contenido de la publicación claramente comunica un deseo de acusar al candidato político de blasfemia sin mostrar ningún indicio de intención de generar conciencia sobre la legalidad de dicho discurso ni debatir al respecto.

En relación con la identidad del hablante y el alcance de su contenido, el Consejo observa que el usuario no es una figura pública con influencia sobre otros y que tiene relativamente pocos seguidores. No obstante, la configuración de privacidad de la cuenta fue definida como "público" en el momento en que se publicó el contenido, y el contenido fue compartido aproximadamente 14.000 veces por unos 9.000 usuarios. Esto muestra que el discurso de figuras no públicas se puede difundir muy ampliamente en los medios sociales de todos modos, y la viralidad es complicada de predecir. El alcance de esta publicación aumentó su potencial de daño, pese a que la persona que realizó la publicación no parece tener una posición de autoridad.

El Consejo considera que hay una probabilidad de daño inminente dado el contexto en torno a las acusaciones de blasfemia en Pakistán, donde tales acusaciones generan un riesgo serio de daño físico e incluso la muerte. Ese contexto de prohibiciones legales nacionales, acusaciones relacionadas y violencia de parte de presuntos justicieros se establece en la sección 1 anterior (ver también los comentarios del público PC-29615 y PC-29617).

Tras analizar los seis factores del Plan de Rabat, el Consejo concluyó que era necesario y proporcionado eliminar la publicación en cuestión.

Además, al Consejo le preocupa particularmente que muchos revisores que aplican las Normas comunitarias de Meta determinaron que el contenido no era infractor. Esto fue pese a los reportes reiterados de los usuarios y la priorización alegada de Meta de tomar medidas contra contenido de este tipo como parte de sus iniciativas de integridad de las elecciones en Pakistán, dado el alto riesgo de que pueda ocurrir daño en la vida real. Recién cuando el sistema HERO de Meta identificó el contenido algunos días después, aparentemente luego de volverse viral, se escaló a expertos en políticas internas, que lo identificaron como infractor de la norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia. Varios revisores tomaron medidas incorrectas sobre este contenido, lo que indica la necesidad de llevar a cabo una capacitación personalizada para que comprendan cómo detectar infracciones en contextos como el de Pakistán. Esto es especialmente importante en contextos electorales, donde las tensiones pueden escalar y donde tomar las medidas adecuadas es esencial para evitar restricciones innecesarias sobre el discurso y evitar daños en la vida real. Al evaluar si las iniciativas de integridad de las elecciones en Pakistán fueron exitosas, Meta debe analizar por qué tantos revisores no tomaron las medidas correctas sobre esta publicación y cómo puede garantizar iniciativas de integridad de las elecciones más efectivas en países con riesgos similares en el futuro.

Si bien las acusaciones de blasfemia pueden generar riesgos importantes para los políticos en países donde se penaliza la blasfemia, aún así puede haber debates importantes sobre blasfemia, en particular en el contexto de una elección. Meta debe tomar precauciones para evitar una sobreaplicación de la política contra contenido que no acuse a las personas de blasfemia, sino que se relacione con debates políticos. La eliminación desproporcionada de contenido sería particularmente preocupante en contextos donde el discurso político ya esté sujeto a restricciones gubernamentales excesivas que no cumplen la ley internacional de derechos humanos. No todo el contenido que usa el término "kufr" será una acusación de blasfemia, como se puede observar con la variedad de videos similares compartidos de los mismos eventos como sucede en este caso. Por lo tanto, el Consejo le recuerda a Meta que sus responsabilidades en materia de derechos humanos requieren que se respete la expresión política cuando el contenido se comparte para objetar acusaciones de blasfemia o participar en debates sobre blasfemia sin poner en riesgo a las personas. Es importante que las capacitaciones de los moderadores se centren en la importancia de la libertad de expresión en este contexto y les permitan escalar decisiones a equipos más especializados cuando podría necesitarse más contexto para tomar la decisión correcta.

6. La decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Meta de eliminar el contenido.

7. Recomendaciones

Política de contenido

1. A fin de garantizar la seguridad de los blancos de acusaciones de blasfemia, Meta debe actualizar su política de organización de actos dañinos y promoción de la delincuencia para aclarar que los usuarios no deben publicar acusaciones de blasfemia contra personas que se puedan identificar en lugares donde la blasfemia es un delito o donde hay riesgos de seguridad significativos contra los acusados de blasfemia.

El Consejo considerará implementada esta recomendación cuando Meta actualice su norma comunitaria sobre organización de actos dañinos y promoción de la delincuencia pública para reflejar este cambio.

Aplicación de políticas

2. Para garantizar una adecuada aplicación de la política de organización de actos dañinos y promoción de la delincuencia contra las acusaciones de blasfemia en ubicaciones donde dichas acusaciones implican un riesgo de daño inminente para la persona acusada, Meta debe capacitar a los revisores a gran escala que cubren dichas ubicaciones y brindarles pautas más específicas para identificar y considerar con eficacia matices y contextos en publicaciones que contienen acusaciones de blasfemia.

El Consejo considerará implementada esta recomendación cuando Meta aporte documentación interna actualizada que demuestre que la capacitación de los revisores a gran escala detecta mejor este tipo de contenido.

* Nota de procedimiento:

  • La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
  • En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4 y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
  • En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, un grupo de investigaciones digitales que brinda asesoría en materia de riesgos y servicios de inteligencia sobre amenazas para mitigar los riesgos online, también colaboró en la investigación. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas