Confirmado
Video sobre acoso sexual en la India
El Consejo mantuvo la decisión de Meta de restaurar una publicación de Instagram que contiene un video en el que se muestra a un grupo de hombres agrediendo sexualmente a una mujer.
El Consejo mantuvo la decisión de Meta de restaurar una publicación de Instagram que contiene un video en el que se muestra a un grupo de hombres agrediendo sexualmente a una mujer. El Consejo determinó que la "concesión de interés periodístico" de Meta no es adecuada para resolver esta clase de casos a escala y que la empresa debe incorporar una excepción a su política de explotación sexual de adultos.
Información sobre el caso
En marzo de 2022, una cuenta de Instagram que se describe a sí misma como una plataforma para expresar puntos de vista de la comunidad dalit publicó un video en el que se muestra a un grupo de hombres agrediendo sexualmente a una mujer en la India. Anteriormente, se conocía a los miembros de la comunidad dalit como "intocables", y han sido víctimas de la opresión bajo el sistema de castas. En el video, no se ve el rostro de la mujer ni escenas de desnudos. El texto que acompaña el video indica que una "mujer tribal" fue agredida sexualmente en público, y que el video se viralizó. El término "tribal" se utiliza para referirse a las personas indígenas de la India, también denominadas adivasi.
Luego de que un usuario reportara la publicación, Meta la eliminó por infringir la política de explotación sexual de adultos, que prohíbe contenido que representa o promueve violencia sexual, agresión sexual o explotación sexual, o que incluye amenazas en este sentido.
Un empleado de Meta marcó la eliminación del contenido a través de un canal de reporte interno tras enterarse de esta situación en Instagram. Luego, los equipos internos de Meta revisaron el contenido y aplicaron una "concesión de interés periodístico". Esta concesión permite que un determinado contenido que infringe las normas permanezca en las plataformas de Meta si se lo considera de interés periodístico y de interés público. Meta restauró el contenido, colocó una pantalla de advertencia encima del video que impide que cualquier persona menor de 18 años pueda verlo, y luego remitió el caso al Consejo.
Conclusiones principales
El Consejo sostiene que restaurar el contenido en la plataforma, con la pantalla de advertencia, es coherente con los valores y las responsabilidades en materia de derechos humanos de Meta.
El Consejo reconoció que el contenido que muestra el contacto sexual sin consentimiento puede dar lugar a un riesgo de daño significativo, tanto en términos de víctimas individuales como en un sentido más amplio, por ejemplo, envalentonando a los agresores y aumentando la aceptación de la violencia.
En la India, las comunidades dalit y adivasi, en especial las mujeres, son víctimas de una fuerte discriminación, y los delitos contra ellas han aumentado. Los medios sociales desempeñan un papel fundamental a la hora de documentar este tipo de violencia y discriminación, y, en este caso, el contenido pareciera haberse publicado para generar conciencia. Por lo tanto, la publicación tiene un considerable valor de interés público y goza de un alto grado de protección en virtud de las normas internacionales en materia de derechos humanos.
Dado que el video no incluye contenido explícito ni escenas de desnudos, y que la mayoría del Consejo considera que no es posible identificar a la víctima, se resuelve por mayoría que los beneficios de permitir que el video continúe en la plataforma, colocando encima una pantalla de advertencia, superan el riesgo de daño. Debido a que no es posible identificar a la víctima, el riesgo de daño se reduce considerablemente. La pantalla de advertencia, que impide que las personas menores de 18 años vean el video, ayuda a preservar la dignidad de la víctima, y protege a los niños y a las víctimas de acoso sexual de la exposición a contenido perturbador o traumatizante.
El Consejo coincide en que el contenido infringe la política de explotación sexual de adultos de Meta y que la concesión de interés periodístico podría aplicarse. Sin embargo, haciéndose eco de las preocupaciones que se plantearon en torno al tratamiento del caso sobre el video gráfico de Sudán por parte del Consejo, este determina que la concesión de interés periodístico no es adecuada para abordar esta clase de casos a escala.
La concesión de interés periodístico se utiliza con muy poca frecuencia. En el año que terminó el 1 de junio de 2022, Meta la aplicó únicamente 68 veces a nivel mundial, una cifra que se hizo pública a raíz de una recomendación del Consejo. Solo una pequeña parte de dichas concesiones se aplicaron en relación con la norma comunitaria sobre explotación sexual de adultos. Los equipos internos de Meta son los únicos que pueden aplicar la concesión de interés periodístico. Sin embargo, este caso pone de manifiesto que el proceso para remitir contenido relevante a esos equipos no es confiable. Un empleado de Meta marcó la eliminación del contenido a través de un canal de reporte interno tras enterarse de esta situación en Instagram.
La concesión de interés periodístico es ambigua, deja un amplio margen de discrecionalidad a quien debe aplicarla y no se puede garantizar su aplicación de manera coherente a escala. Tampoco prevé un criterio claro para evaluar el daño potencial generado por el contenido que infringe la política de explotación sexual de adultos. El Consejo determina que las responsabilidades en materia de derechos humanos de Meta hacen que resulte necesario proporcionar normas más claras y procesos de aplicación de políticas más efectivos para esta clase de casos. Se requiere una excepción a la política que pueda aplicarse a escala, diseñada específicamente para la política de explotación sexual de adultos. Debe proporcionar pautas más claras que permitan diferenciar las publicaciones compartidas para generar conciencia de aquellas con la intención de perpetuar la violencia o la discriminación, y ayudar a Meta a mantener un equilibrio entre derechos contrapuestos a escala.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido sostuvo la decisión de Meta de restaurar la publicación con una pantalla de advertencia.
Asimismo, el Consejo le recomendó a Meta:
- Incluir una excepción a la norma comunitaria de explotación sexual de adultos en lo relativo a escenas que muestren contacto sexual sin consentimiento. Los equipos internos de Meta serían los únicos que aplicarían esta excepción, y se permitiría la publicación de contenido en el que no se pueda identificar a la víctima, y que, a criterio de Meta, se comparta con el objeto de generar conciencia, sin fines sensacionalistas ni escenas de desnudos.
- Actualizar sus pautas internas para revisores a escala respecto de cuándo deben remitir contenido revisado en virtud de la norma comunitaria de explotación sexual de adultos que podría cumplir con los requisitos para que se aplique la excepción a la política mencionada.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1.Resumen de la decisión
El Consejo por mayoría mantuvo la decisión de Meta de restaurar el contenido en la plataforma y colocarle encima una pantalla de advertencia. Sin embargo, el Consejo considera que, aunque la concesión de interés periodístico se podría aplicar en este caso, no proporciona una norma clara ni un proceso eficaz que permita resolver esta clase de casos a escala. En línea con sus valores y sus responsabilidades en materia de derechos humanos, Meta debe incorporar una excepción sumamente clara a la política de explotación sexual de adultos que pueda aplicarse de una manera más eficaz y sistemática que la concesión de interés periodístico. La excepción debe estar diseñada para proteger el contenido dirigido a generar conciencia sobre temas de interés público y ayudar a Meta a mantener un equilibrio entre los riesgos de daños específicos que podrían surgir en relación con contenido que infringe la política de explotación sexual de adultos. El Consejo por mayoría considera que, en lugar de basarse en la concesión de interés periodístico, resulta preferible aplicar la excepción recomendada a la política de explotación sexual de adultos, la cual, en este caso, permitiría el contenido. Una minoría considera que esta excepción no resulta aplicable al contenido en cuestión.
2. Descripción del caso y contexto
En marzo de 2022, una cuenta de Instagram que se describe a sí misma como una plataforma para expresar puntos de vista de la comunidad dalit publicó un video en el que se muestra a un grupo de hombres agrediendo sexualmente a una mujer en la India. La comunidad dalit, anteriormente denominados los "intocables", son personas socialmente segregadas y económicamente marginadas en la India producto del sistema de castas del país (un sistema de estratificación social basado en jerarquías). En el video, la mujer está completamente vestida y no se le ve el rostro. El texto que acompaña el video indica en inglés que una "mujer tribal" fue acosada y agredida sexualmente por un grupo de hombres en público, y que el video ya se había viralizado. El término "tribal" se refiere a las personas indígenas de la India, a quienes también se las denomina adivasi. La cuenta que publicó el video tiene aproximadamente 30.000 seguidores, que se encuentran en su mayoría en la India. Las mujeres de las comunidades dalit y adivasi son frecuentemente blanco de ataques en el país (ver la sección 8.3.).
Otro usuario de Instagram reportó el contenido por referirse a servicios sexuales, y este se sometió a revisión manual. Los revisores determinaron que el contenido infringía la política de explotación sexual de adultos de Meta. En virtud de esta política, Meta suele eliminar contenido que representa o promueve violencia sexual, agresión sexual o explotación sexual, o que incluye amenazas en este sentido. Luego de la eliminación del contenido, Meta aplicó una falta estándar (un tipo de penalización que se aplica a todas las clases de infracciones), una falta grave (un tipo de penalización que se aplica a las infracciones sumamente graves, incluidas las relativas a la política de agresión sexual de adultos) y un límite de las funciones de 30 días en la cuenta del creador de contenido. Este límite le impidió al usuario iniciar videos en vivo.
El día en que se eliminó el contenido original, un miembro del equipo de operaciones internacionales de Meta vio una publicación en su cuenta personal de Instagram en la que se analizaba la eliminación del contenido y remitió la publicación original. Cuando alguien remite contenido, lo revisan especialistas en políticas y seguridad de Meta. Tras remitir el contenido, Meta aplicó una concesión de interés periodístico, revirtió las faltas, restauró el contenido y le colocó una pantalla de advertencia al video para alertar a los usuarios de que podía incluir contenido gráfico o violento. Con la pantalla de advertencia, los usuarios menores de 18 años no pueden ver el contenido y los demás usuarios deben hacer clic en ella para ver el video. La concesión de interés periodístico permite que se publique contenido en las plataformas de Meta que puede infringir sus políticas si este tiene fines informativos y su visibilidad es de interés público. Su aplicación está a cargo de equipos especializados de Meta, y no de revisores que analizan contenido a escala.
Meta remitió este caso al Consejo y manifestó que demuestra el desafío que implica encontrar el equilibrio adecuado entre permitir contenido que condene la explotación sexual y el daño de permitir que representaciones visuales de acoso sexual permanezcan en sus plataformas.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene autoridad para revisar las decisiones que Meta envía a revisión (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1.1, de los estatutos).
El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, y Artículo 4 del acta constitutiva).
4.Fuentes de autoridad
El Consejo asesor de contenido consideró las siguientes autoridades y normas:
I. Decisiones del Consejo asesor de contenido
Entre las decisiones previas del Consejo asesor de contenido más relevantes, se encuentran las siguientes:
- Decisión del caso sobre el video gráfico de Sudán (2022-002-FB-MR): En este caso, en el que se analizó la publicación de contenido gráfico dirigido a generar conciencia sobre abusos contra los derechos humanos, el Consejo concluyó que la concesión de interés periodístico no es un medio eficaz para permitir este tipo de contenido en Facebook a escala. Se recomienda que Meta incorpore una excepción a la norma comunitaria para garantizar la aplicación de esta excepción a escala. Asimismo, el Consejo sostuvo que la falta de claridad sobre cuándo y cómo se aplica la concesión de interés periodístico podría generar que esta política se aplique de modo arbitrario. El Consejo explicó que las pantallas de advertencia pueden ser una solución proporcionada, dado que no representan una carga indebida para quienes quieren ver el contenido y sirve para informar a otros sobre la naturaleza del contenido y les permite decidir verlo o no. La pantalla de advertencia también protege de manera adecuada la dignidad de la persona que se muestra y a su familia.
- Decisión del caso sobre las manifestaciones en Colombia (2021-010-FB-UA): En este caso, el Consejo recomendó a Meta desarrollar y publicar criterios claros para que los revisores de contenido remitan el contenido de interés público para una revisión adicional. En su opinión de asesoramiento normativo respecto del uso compartido de información residencial privada, el Consejo reiteró esta recomendación.
- Decisión del caso sobre la bebida ayahuasca (2021-013-IG-UA): En este caso, el Consejo resolvió que el contenido debía mantenerse publicado, aunque la política aplicable lo prohibiera. Permitir el contenido era coherente con los valores y las responsabilidades en materia de derechos humanos de Meta, y el Consejo recomendó que Meta modificara sus políticas para adecuarlas a sus valores y responsabilidades en materia de derechos humanos.
- Decisión del caso sobre el dibujo animado de Knin (2022-001-FB-UA): En este caso, el Consejo sostuvo que, para ayudar a los usuarios a entender la manera en que se trata su contenido, Meta debe proporcionar información más detallada sobre el proceso para remitir una determinada cuestión.
II. Políticas de contenido de Meta
Normas comunitarias de Instagram
Las Normas comunitarias de Instagram establecen, bajo la sección "Cumple la ley", que Instagram no muestra ningún tipo de tolerancia con aquellas personas que comparten contenido sexual relacionado con menores o que amenazan con publicar imágenes íntimas de otros usuarios. La expresión "imágenes íntimas" incluye un enlace a las Normas comunitarias de Facebook sobre explotación sexual de adultos en el Centro de transparencia de Meta. Las Normas comunitarias no se refieren expresamente a las representaciones de imágenes de índole sexual sin consentimiento.
Normas comunitarias de Facebook
En las bases de la política sobre explotación sexual de adultos, Meta reconoce que Facebook es un lugar importante para debatir y poner el foco en la violencia y la explotación sexual. Por lo tanto, permite a las víctimas compartir sus experiencias, pero elimina contenido que muestre o promueva violencia, agresiones o explotación sexuales, o que constituya amenazas de este tipo. Para proteger a las víctimas y los sobrevivientes, Metaelimina fotos que muestren incidentes de violencia sexual e imágenes íntimas compartidas sin el consentimiento de la persona retratada.
En la sección "No publiques" de esta norma comunitaria, se establece que se eliminará de la plataforma todo contenido que involucre contacto sexual sin consentimiento, como las representaciones (como fotos o videos reales, excepto en un contexto artístico del mundo real). Adicionalmente, esta política establece que Meta puede restringir la visibilidad de determinados videos ficticios […] que muestren contacto sexual no consentido a mayores de 18 años e incluir una etiqueta de advertencia.
En el Centro de transparencia, Meta explica que, para determinar si se aplica una falta, se tiene en cuenta la gravedad del contenido, el contexto en el que se compartió y el momento en que se publicó. El objetivo es que el sistema de faltas sea justo y proporcionado.
Concesión de interés periodístico
Al definir la concesión de interés periodístico en el Centro de transparencia, Meta explica que, en virtud de esta concesión, permite contenido que puede infringir las Normas comunitarias de Facebook o las Normas comunitarias de Instagram si este tiene fines informativos y su visibilidad es de interés público. No obstante, Meta solo aplica la concesión después de realizar una revisión exhaustiva que pondera el interés público frente al riesgo de daño y, para tomar una decisión, tiene en cuenta las normas internacionales en materia de derechos humanos, como se refleja en nuestra Política corporativa de derechos humanos. La política establece que la concesión de interés periodístico puede aplicarse a contenido proveniente de todos los orígenes posibles, como medios de comunicación, políticos u otras personas y que, si bien la identidad del orador puede ser un factor influyente en la prueba de equilibrio, no damos por sentado que el discurso de una persona sea inherentemente de interés periodístico. Cuando se aplica la concesión de interés periodístico y se restaura un determinado contenido, pero este puede ser delicado o perturbador, es posible que se incluya una pantalla de advertencia.
Al ponderar el interés público frente al riesgo de daño, Meta tiene en cuenta los siguientes factores: si el contenido representa una amenaza inminente para la salud o la seguridad públicas; si el contenido permite que se expresen perspectivas que están en debate en la actualidad en el marco de un proceso político; circunstancias específicas del país en cuestión (por ejemplo, si está en proceso de elecciones o en guerra); la naturaleza del discurso, incluido el hecho de si se relaciona con cuestiones de gobernanza o política; y la estructura política del país en cuestión, incluido el hecho de si existe la libertad de prensa.
III. Valores de Meta
Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook. El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Meta limita la "expresión" en favor de cuatro valores, de los cuales los que tienen importancia en este caso son la "seguridad", la "privacidad" y la "dignidad".
"Seguridad": Nos comprometemos a hacer de Facebook un lugar seguro. El contenido que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitido en Facebook.
"Privacidad": Nos comprometemos a proteger la información y la privacidad de las personas. Gracias a la privacidad, las personas tienen la libertad de ser quienes son, de elegir cómo y cuándo compartir contenido en Facebook, y de conectarse más fácilmente.
"Dignidad": Creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
IV. Normas internacionales sobre derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta respecto de los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:
- Derecho a la libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018).
- Derecho a la vida: Artículo 6 del ICCPR.
- Derecho a la privacidad: Artículo 17 del ICCPR.
- Derecho a la no discriminación: Artículo 2, párrafo 1, del ICCPR; Artículo 1 de la Convención sobre la Eliminación de todas las Formas de Discriminación contra la Mujer (CEDAW); Recomendación general nº. 35 sobre violencia de género contra la mujer, Comité de Naciones Unidas para la Eliminación de la Discriminación contra la Mujer; Recomendación general n.º 35 sobre el combate del lenguaje que incita al odio racial, Comité para la Eliminación de la Discriminación Racial (CERD).
- Derecho a la salud física y mental: Artículo 12 del Pacto Internacional de Derechos Económicos, Sociales y Culturales (ICESCR).
- Derechos del niño: Artículo 3, Convención sobre los Derechos del Niño ( CRC) para la defensa de los derechos del niño; Artículos 17 y 19 de la Convención sobre los Derechos del Niño, sobre el derecho de los niños a ser protegidos frente a toda forma de violencia física o mental; observación general n.º 25, Comité de los Derechos del Niño (2021).
5. Respuestas del usuario
Tras la remisión de Meta y la decisión del Consejo de aceptar el caso, se envió un mensaje al usuario para notificarle acerca de la revisión del Consejo y para proporcionarle la oportunidad de presentar una declaración ante el Consejo. El usuario no presentó ninguna declaración.
6. Respuestas de Meta
En las bases del caso, Meta explicó que la descripción y el fondo del usuario que publicó el contenido indicaban su intención de condenar y generar conciencia sobre la violencia cometida contra las comunidades marginadas. Sin embargo, no existe ninguna excepción relevante en este sentido en la política de explotación sexual de adultos.
Respecto de su decisión de aplicar la concesión de interés periodístico, Meta explicó que el contenido tenía un valor alto en términos de interés público debido a que lo compartió una organización de noticias conocida por destacar las historias de poblaciones marginadas y subrepresentadas. Meta manifestó que pareciera que el contenido se compartió con la intención de condenar el comportamiento observado en el video y de generar conciencia sobre la violencia de género contra las mujeres tribales. Las voces de las comunidades adivasi y de otros sectores marginados, sostuvo Meta, han sido históricamente reprimidas en la India, y el hecho de permitirles tener un mayor alcance y visibilidad las beneficiaría. Meta también sostuvo que el riesgo de daño era limitado, dado que la representación no incluía desnudos evidentes ni actividad sexual explícita, ni tenía fines sensacionalistas. Sostuvo que se trataba de un caso excepcional, en el sentido de que no se ve el rostro de la víctima ni se puede determinar su identidad con facilidad.
Al responder las preguntas formuladas por el Consejo, Meta explicó que el hecho de que un usuario se autodefina como una organización de noticias es un factor que se tiene en cuenta, pero no es determinante a la hora de decidir si se lo trata efectivamente como una organización de noticias. Los expertos en la materia y los especialistas del mercado regional son quienes deciden qué usuarios cumplen con los requisitos para que se los considere una organización de noticias, en función de diferentes factores, entre los que se incluyen su conocimiento del mercado y las clasificaciones previas de las organizaciones. Meta sostuvo que su decisión y su política son coherentes con sus valores y sus responsabilidades en materia de derechos humanos.
En este caso, el Consejo le hizo 15 preguntas a Meta. Meta respondió 14 preguntas completas y dejó una sin responder. El Consejo le pidió a Meta que le compartiera su Informe de evaluación sobre el impacto de los derechos humanos en la India, pero Meta se negó, argumentando riesgos de seguridad. Meta no pudo dar una explicación satisfactoria de por qué compartir el Informe de evaluación sobre el impacto de los derechos humanos con el Consejo implicaría riesgos de seguridad.
7. Comentarios del público
El Consejo asesor de contenido tuvo en cuenta 11 comentarios del público relacionados con este caso. Uno de los comentarios provino de Asia-Pacífico y Oceanía, cuatro de Asia Central y Asia del Sur, tres de Europa y tres de los Estados Unidos y Canadá.
Los comentarios enviados abordaron los siguientes temas: la marginación de la comunidad adivasi en la India; las relaciones de poder en el sistema de castas; las posibles representaciones de violencia para alentar a los perpetradores y contribuir a la violencia; la diferencia entre la violencia no sexual y la violencia sexual y la importancia de las evaluaciones contextuales con respecto a esto último; el riesgo de que las víctimas de acoso sexual sean excluidas por sus propias comunidades; la interseccionalidad; los riesgos de trauma para los sobrevivientes de agresiones sexuales; los efectos dañinos de los mensajes de odio en los medios sociales de la India; la importancia de los medios sociales como herramienta para aumentar la concientización de la violencia contra los grupos marginados; y la importancia de que Meta mantenga el contenido eliminado en caché de alta seguridad al que tengan acceso las autoridades policiales.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8.Análisis del Consejo asesor de contenido
El Consejo analizó la pregunta de si este contenido debería restaurarse desde tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
El Consejo considera que, aunque la concesión de interés periodístico se podría aplicar en este caso, no proporciona una norma clara ni un proceso eficaz para evaluar este tipo de contenido a escala. Por lo tanto, el Consejo recomienda que, además de la concesión de interés periodístico, como excepción general a cualquier política, Meta incluya una excepción a la política de explotación sexual de adultos, que proporcione un proceso claro y eficaz para moderar el contenido a escala.
Gran parte del Consejo cree que el contenido en este caso debería permitirse en virtud de dicha excepción, mientras que una minoría cree que ninguna excepción aplicará a este contenido específico y que deberá eliminarse de la plataforma.
I.Reglas de contenido y aplicación de políticas
El Consejo coincide con la evaluación de Meta de que el contenido en este caso viola la prohibición de la norma de explotación sexual de adultos sobre representaciones de contacto sexual no consensuado.
Una mayoría del Consejo coincide con la esencia del razonamiento de Meta de reestablecer el contenido y cree que la concesión de interés periodístico podría aplicarse a este caso debido al fuerte valor de interés público del contenido. Sin embargo, el Consejo cree que la concesión de interés periodístico no proporciona una norma o un proceso adecuado para evaluar contenido, como lo es la publicación en este caso a escala, ya que no garantiza una aplicación eficaz y coherente.
El Consejo coincide con la evaluación de Meta de que existe un sólido valor de interés público por mantener este contenido en la plataforma, ya que aumenta el reconocimiento de violencia contra una comunidad marginada. El Consejo también concuerda en que dejar contenido en la plataforma que describa contacto sexual no consensuado, incluida la agresión, puede conllevar riesgos de daño significativos (consultar la sección 8.3 a continuación). El Consejo también coincide con Meta en que en casos en donde sea posible identificar a la víctima del contacto sexual no consensuado, el daño potencial es demasiado grande y el contenido debería en general eliminarse, y más aún, si es publicado sin el consentimiento de la víctima.
En este caso, sin embargo, el Consejo no llegó a un acuerdo sobre la posibilidad de identificar a la víctima. Una mayoría en el Consejo cree que no es posible identificar a la víctima. La cara de la víctima no es visible en el video y el video está grabado desde lejos y, en general, es de mala calidad. La descripción no brinda ninguna información sobre la identidad de la víctima. Una minoría considera que el contenido debería eliminarse de la plataforma sobre la base de que existe alguna posibilidad de que la víctima pudiera ser identificada. Los espectadores del video que tienen conocimiento local del área o del incidente podrían identificar a la víctima, aun si su cara no es visible. La probabilidad de esto, según una minoría, es especialmente alta, ya que el incidente fue informado ampliamente por los medios locales de comunicación. La mayoría reconoce las inquietudes de la minoría, pero no cree que el reconocimiento local de un incidente necesariamente signifique, por sí mismo, que sea posible "identificar" a una víctima.
El Consejo recomienda que Meta revise sus políticas y procesos teniendo en cuenta sus valores y responsabilidades con los derechos humanos, como se analiza en las secciones 8.2 y 8.3 a continuación, e introduzca una excepción claramente definida en la norma de explotación sexual de adultos que se pueda aplicar de una manera más coherente y eficaz que la concesión de interés periodístico.
II.Transparencia
En línea con las recomendaciones del Consejo de las decisiones sobre las manifestaciones en Colombia y el video gráfico de Sudán, Meta brindó más información en su Centro de transparencia sobre los factores que considera que determinan si la concesión de interés periodístico deberá aplicarse a un contenido determinado. Meta, sin embargo, no desarrolló ni difundió criterios claros para que los revisores de contenido remitan el contenido de interés público para una nueva revisión cuando posiblemente infrinja las Normas comunitarias, pero que también cumpla los requisitos para la concesión de interés periodístico, como lo recomendó el Consejo en su decisión sobre las manifestaciones en Colombia y en su opinión de asesoramiento normativo respecto del uso compartido de información residencial privada. El Consejo insiste con su inquietud de que Meta debería brindar información sobre el proceso de escalamiento dentro del contexto de la concesión de interés periodístico.
8.2 Cumplimiento de los valores de Meta
En este caso, como en muchos otros, los valores de Meta de "expresión", "privacidad", "seguridad" y "dignidad" pueden apuntar en direcciones opuestas.
Generar mayor concientización de los abusos contra la comunidad adivasi responde al valor de "expresión" y también puede ayudar a proteger la seguridad y la dignidad de la comunidad adivasi. Además, la publicidad en torno a la agresión sexual puede molestarle a la víctima o normalizar la conducta, generando impactos negativos sobre la privacidad, dignidad y seguridad de la víctima o dentro de la misma comunidad.
Como el video en este caso no fue explícito y la mayoría en el Consejo consideró que no era posible identificar a la víctima, la mayoría cree que dejar el video en la plataforma es coherente con los valores de Meta, considerados en su conjunto. Una minoría en el Consejo, sin embargo, sostiene que, aunque la probabilidad de que sea posible identificar a la víctima fuera baja, el riesgo real de identificación persiste. En su opinión, las inquietudes sobre la privacidad, dignidad y seguridad de la víctima deben prevalecer y el video debería ser eliminado.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
La mayoría en el Consejo afirma que mantener el contenido en la plataforma es coherente con las responsabilidades de Meta con los derechos humanos. Meta se comprometió a respetar los derechos humanos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP). En su Política corporativa de derechos humanos, se dispone que esto incluye respetar el Pacto Internacional de Derechos Civiles y Políticos (ICCPR).
Libertad de expresión (Artículo 19 del ICCPR)
El alcance del derecho a la libertad de expresión es amplio. En el párrafo 2 del Artículo 19 del ICCPR, se concede mayor protección a la libertad de expresión en cuanto a temas políticos (observación general n.º 34, párrafos 20 y 49). En la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD), también se brinda protección contra la discriminación en el ejercicio del derecho a la libertad de expresión (Artículo 5). El Comité para la Eliminación de la Discriminación Racial hizo hincapié en la importancia que tiene el derecho a asistir a los grupos vulnerables a la hora de reajustar el equilibrio de poder entre los componentes de la sociedad y para ofrecer opiniones alternativas y argumentos contrarios en los debates (recomendación general n.º 35, párrafo 29, del Comité de la ICERD). El contenido en este caso parece haber sido compartido para generar mayor concientización de la violencia contra las mujeres adivasi en la India y, en línea con las normas provistas en la observación general n.º 34, cuenta con un alto nivel de protección.
En virtud del Artículo 19, párrafo 3, del ICCPR, las restricciones a la expresión deberán (i) ser estipuladas por ley, (ii) perseguir un objetivo legítimo y (iii) ser necesarias y proporcionadas. En el ICCPR no se crean obligaciones vinculantes para Meta como sí se hace para los estados, pero esta prueba de tres partes fue propuesta por el informe del Relator Especial sobre la libertad de expresión de la ONU como un marco para guiar las prácticas de moderación de contenido en las plataformas ( A/HRC/38/35).
I. Legalidad (claridad y accesibilidad de las reglas)
Las reglas que restrinjan la expresión deberán ser claras y accesibles para que aquellos afectados las conozcan y puedan cumplirlas (observación general n.º 34, párrafos 24 y 25). Al aplicarlo a Meta, los usuarios de sus plataformas y los revisores que aplican las políticas deben poder comprender qué está permitido y qué está prohibido. En este caso, el Consejo concluye que Meta no llega a cumplir con esa responsabilidad.
El Consejo considera que el texto de la política de contenido de interés periodístico es ambiguo y otorga significativa discrecionalidad a quienes deben aplicarla. Como observó el Consejo en el caso sobre el video gráfico de Sudán (2022-002-FB-MR) , las normas ambiguas invitan a la aplicación arbitraria y fracasan a la hora de garantizar el equilibrio adecuado entre los derechos afectados cuando se modera el contenido.
El Consejo también llamó repetidas veces la atención a la falta de claridad sobre qué políticas deben aplicar los usuarios de Instagram a sus contenidos, en especial, cuando también se aplican las políticas de Facebook (consultar, por ejemplo, las decisiones del Consejo en los casos sobre los síntomas de cáncer de seno y desnudos [2020-004-IG-UA] y la bebida ayahuasca [2021-013-IG-UA]). El Consejo reitera esta inquietud aquí.
Asimismo, el Consejo reitera que es sumamente necesario contar con más información respecto de las normas, las pautas internas y los procesos que determinan cuándo se debe escalar contenido (consultar, por ejemplo, la decisión del Consejo en los casos sobre manifestaciones en Colombia, el video gráfico de Sudán y el dibujo animado de Knin). Para que los usuarios comprendan cómo se aplica y si corresponde aplicar la concesión de interés periodístico al contenido, Meta debe brindar información más detallada sobre el proceso de escalamiento.
II.Fin legítimo
En virtud del Artículo 19, párrafo 3, del ICCPR, la libertad de expresión puede estar limitada por el objetivo de proteger el derecho de los demás. La política de explotación sexual de adultos tiene como objetivo evitar el abuso, la revictimización, la estigmatización social, el doxing y otras formas de acoso. Esta política busca proteger el derecho a la vida (Artículo 6 del ICCPR), el derecho a la privacidad (Artículo 17 del ICCPR) y el derecho a la salud física y mental (Artículo 12 del ICESCR). También persigue el objetivo de prevenir la discriminación y la violencia de género (Artículo 2, párrafo 1, del ICCPR, Artículo 1 de la CEDAW).
Al aplicar la pantalla de advertencia, Meta tiene como fin legítimo mitigar los daños mencionados arriba y proteger a otros usuarios. La advertencia que aparece en pantalla busca evitar que las víctimas de acoso sexual sean expuestas a contenido gráfico potencialmente traumatizante y perturbador (Artículo 12 del ICESCR). La restricción de edad también tiene como fin legítimo proteger a los niños de contenido dañino (Artículos 3, 17 y 19 de la CRC).
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión deben ser adecuadas para cumplir su función de protección, deben ser el instrumento menos invasivo entre aquellos que permitan cumplir dicha función y deben ser proporcionales al interés que se pretende proteger (observación general n.º 34, párrafo 34).
En este caso, la mayoría entiende que la eliminación del contenido no sería necesario ni proporcionado, aunque la aplicación de una pantalla de advertencia y de la restricción por edad cumple con esta prueba. Una minoría cree que esa eliminación no sería necesaria ni proporcionada. El Consejo determina que las responsabilidades con los derechos humanos de Meta hacen que resulte necesario proporcionar normas más claras y procesos de aplicación de políticas más eficaces para permitir contenido en la plataforma en casos como este. Por ello recomienda que Meta incluya en la norma de explotación sexual de adultos una excepción claramente definida, que sería una manera mejor de lograr un equilibrio entre derechos contrapuestos a escala. Como excepción general que rara vez se aplica, la excepción relacionada con el interés periodístico seguirá estando disponible, y le permite a Meta evaluar si el interés público es superior al riesgo de daño, incluso en casos donde es posible identificar a la víctima.
Decisión de conservar el contenido
El Consejo reconoce que contenido como este puede causar daños considerables. Esto incluye daños a la víctima, quien, si es identificada, podría sufrir revictimización, estigmatización social, doxing y otras formas de abuso o acoso (consultar PC-10802 [Digital Rights Foundation]). La gravedad de los posibles daños es mayor cuando se identifica a la víctima. Cuando no es posible identificar a la víctima, el riesgo de daño se reduce de manera significativa. En este caso, la mayoría considera que la probabilidad de que se identifique a la víctima es baja. Incluso si no es posible identificar públicamente a la víctima, esta puede sufrir daños al interactuar con el contenido en la plataforma y por los comentarios recibidos o cuando se vuelve a compartir ese contenido. La mayoría considera que la aplicación de la pantalla de advertencia al contenido aborda esa inquietud.
El Consejo también consideró riesgos más generales. Los medios sociales en la India fueron criticados por difundir lenguaje que incita al odio basado en las castas (consultar el informe sobre lenguaje que incita al odio basado en las castas de la International Dalit Solidarity Network, marzo de 2021). El contenido online puede reflejar y fortalecer las estructuras de poder existentes, alentar a los agresores e incitar a la violencia contra las poblaciones vulnerables. Las descripciones de violencia contra mujeres pueden generar actitudes de mayor aceptación hacia esa violencia. Los comentarios del público destacaron que el acoso sexual es una forma especialmente cruel de acoso (consultar, por ejemplo, PC-10808 [SAFEnet], PC-10806 [IT for change], PC-10802 [Digital Rights Foundation], PC-10805 [Media Matters for Democracy]).
La mayoría compensó esos riesgos con el hecho de que es importante para las nuevas organizaciones y para los activistas poder confiar en los medios sociales y así generar mayor concientización de la violencia contra las comunidades marginadas (consultar los comentarios del público PC-10806 [IT for change], PC-10802 [Digital Rights Foundation], PC-10808 [SAFEnet]), en especial en un contexto donde la libertad de los medios se ve amenazada (consultar el informe de Human Rights Watch). Las personas de la comunidad dalit y adivasi en la India, en especial las mujeres que combinan casta y género (consultar PC-10806 [IT for Change]), sufren una gran discriminación, y han aumentado los delitos contra ellas. Las organizaciones de la sociedad civil denuncian niveles en ascenso de discriminación étnica-religiosa contra las minorías no hindúes y de castas que deteriora la igualdad de protecciones ante la ley (consultar el informe de Human Rights Watch). Cuando el Gobierno persigue a las organizaciones de noticias independientes y los registros públicos no representan con suficiente precisión los crímenes contra las personas y las comunidades adivasi y dalit, los medios sociales se han convertido en una vía importante para documentar la discriminación y la violencia (consultar el informe de Human Rights Watch y los comentarios del público citados arriba).
El Consejo finalmente no se pone de acuerdo con la cuestión de si, en este caso en particular, existe un riesgo razonable de identificar a la víctima. La mayoría cree que este riesgo es mínimo y, por lo tanto, el interés por mantener el contenido en la plataforma supera los potenciales daños si se aplica una pantalla de advertencia. La minoría considera que el riesgo restante exige eliminar el contenido de la plataforma.
Pantalla de advertencia y restricción por edad
El Consejo considera que aplicar una pantalla de advertencia es una "restricción menor" en comparación con una eliminación. En este caso, la mayoría cree que aplicar una pantalla de advertencia sería la forma menos invasiva de mitigar posibles daños infligidos por el contenido, al mismo tiempo que se protege la libertad de expresión. Como señaló el Consejo en el caso sobre el video gráfico de Sudán, la pantalla de advertencia no representa una carga indebida para quienes quieren ver el contenido y sirve para informar a otros sobre la naturaleza del contenido y les permite decidir si verlo o no. Además, la pantalla de advertencia también protege de manera adecuada la dignidad de la persona que se muestra y a su familia. La minoría considera que una pantalla de advertencia no es suficiente para mitigar los posibles daños y que la gravedad de esos daños exige la eliminación del contenido.
La pantalla de advertencia también activa la restricción por edad que busca proteger a los menores. En la observación general n.º 25 sobre los Derechos de los niños en relación con el entorno digital, se establece que las partes deben tomar todas las medidas apropiadas para proteger a los niños de los riesgos que pongan en peligro su derecho a la vida, supervivencia y desarrollo. Los riesgos relacionados con el contenido incluyen, entre otras cosas, contenido violento y sexual... (párrafo 14). También se establece que se debe proteger a los niños de todas las formas de violencia en el entorno digital (párrafos 54 y 103). La mayoría en el Consejo coincide con el razonamiento de Meta en que una restricción por edad concilia el objetivo de proteger a los menores con el objetivo de permitir que se vea contenido que es de interés público.
Diseño de procesos de políticas y aplicación de políticas
Mientras que la mayoría concuerda con la decisión final de Meta de permitir el contenido en la plataforma, el Consejo cree que la concesión de interés periodístico es un mecanismo ineficaz para ser aplicado a escala. El Consejo encontró de forma unánime que permitir las descripciones de violencia sexual contra grupos marginales en la plataforma debe sustentarse en políticas claras y estar acompañado de una aplicación de políticas con los matices adecuados. Esto debe distinguir publicaciones como esta, que se comparten para generar mayor concientización, de aquellas publicaciones que se comparten para perpetuar la violencia o la discriminación contra las personas y las comunidades. Deberá incluir criterios claros para evaluar los riesgos de daños que presenta dicho contenido y así ayudar a Meta a lograr un equilibrio entre derechos contrapuestos a escala.
La concesión de interés periodístico es un mecanismo ineficaz para moderar el contenido a escala (consultar la decisión del Consejo en el caso sobre el video gráfico de Sudán). Los hechos indican que se utiliza pocas veces. Según Meta la concesión de interés periodístico se aplicó solo 68 veces en todas las políticas a nivel global entre el 1 de junio de 2021 y el 1 de junio de 2022. Solo una pequeña parte de dichas concesiones se aplicaron en relación con la norma comunitaria sobre explotación sexual de adultos. Este caso demuestra que el proceso de escalamiento interno para aplicar la concesión de interés periodístico no es confiable: el contenido no fue escalado por ninguno de los revisores manuales que revisan inicialmente el contenido a escala, sino por un miembro del equipo de operaciones internacionales. Una vez que se enteraron de la eliminación del contenido de Instagram, marcaron el tema a través de un canal de reporte interno. Gran parte del contenido que forma parte del proceso de moderación de Meta es revisado por revisores a escala en lugar de equipos internos especializados de Meta. Se puede escalar el contenido para que los equipos internos especializados realicen una revisión adicional cuando los revisores a escala consideran que se puede aplicar la concesión de interés periodístico; sin embargo, el proceso de escalamiento solo es eficaz cuando los revisores manuales a escala cuentan con pautas claras que determinen cuándo es conveniente escalar contenido. La concesión de interés periodístico es una excepción general que se puede aplicar a contenido que infringe cualquiera de las políticas de Meta. Por lo tanto, no incluye los criterios para evaluar o compensar los daños que genera el contenido que infringe especialmente la política de explotación sexual de adultos.
Una forma más eficaz de proteger la libertad de expresión y permitir que las personas aumenten el reconocimiento del acoso sexual de grupos marginales, y al mismo tiempo proteger los derechos de la víctima y de las comunidades marginales, sería incluir una excepción a la norma de explotación sexual de adultos que se aplique en la etapa de escalamiento. Además, se les debe indicar a los revisores a escala que escalen el contenido cuando se aplique potencialmente la excepción, en lugar de confiar en la concesión de interés periodístico que se aplica pocas veces (por motivos similares, consultar la decisión del Consejo en el caso sobre el video gráfico de Sudán). Por lo tanto, el Consejo recomienda que se introduzca una excepción a la política de explotación sexual de adultos para aquellos casos de descripciones de contacto sexual no consensuado. Esto permitirá que el contenido que infringe la política permanezca en las plataformas de Meta, donde, según un análisis contextual, Meta evaluará que el contenido se comparte para generar mayor concientización, no es posible la identificación de la víctima, no tiene desnudos y no se comparte en un contexto sensacionalista, suponiendo de ese modo riesgos mínimos de daño para la víctima. Esta excepción se aplicará únicamente en el nivel de los escalamientos; es decir, por los equipos de especialistas internos de Meta. Meta debe también impartir pautas claras a los revisores a escala sobre cuándo remitir contenido que potencialmente se encuadre en esta excepción. Esta excepción no impide la aplicación de la concesión de interés periodístico.
Incluir una excepción a la política de explotación sexual de adultos y actualizar las pautas para los revisores a escala garantizaría que la evaluación del proceso de escalamiento sea parte de un procedimiento estándar que los moderadores a escala puedan activar en cada caso relevante. Los revisores a escala pueden eliminar el contenido que describa contacto sexual no consensuado, pero escalarán el contenido al que corresponda potencialmente aplicar la excepción. Basándose en la experiencia a nivel regional, los expertos en políticas y seguridad pueden decidir si la excepción corresponde. De lo contrario, pueden decidir qué faltas aplicar, y de ser así, cuáles, en línea con los objetivos de Meta para la aplicación de faltas de manera proporcionada y justa. Limitar la aplicación de la excepción a los equipos especializados promueve la coherencia, así como también la adecuada consideración de los potenciales daños.
No discriminación
Meta es responsable de respetar la igualdad y la no discriminación en sus plataformas (Artículos 2 y 26 del ICCPR). En su recomendación general n.º 35, el Comité para la Eliminación de la Discriminación Racial resaltó el aporte del lenguaje a la creación de un clima de odio y discriminación racial (párrafo 5) y el posible lenguaje de odio que lleva a violaciones masivas de los derechos humanos (párrafo 3).
El Consejo reconoce que es difícil decidir entre permitir contenido en la plataforma que genere mayor concientización de la violencia contra los grupos marginados o eliminar el contenido que pueda potencialmente causar un daño a la privacidad y seguridad de una persona que pertenece a esos grupos. El Consejo cree que un potencial daño individual significativo podría ser mayor que los beneficios de incrementar la concientización del acoso en Instagram. Sin embargo, en este caso, la mayoría cree que, como no es posible identificar a la víctima y el riesgo de daño individual es bajo, el contenido debería permanecer en la plataforma con una pantalla de advertencia. Una minoría considera que el riesgo no es lo suficientemente bajo y, por consiguiente, el contenido debería eliminarse.
9. Decisión del Consejo asesor de contenido
El Consejo sostiene la decisión de Meta de dejar el contenido en la plataforma con una pantalla de advertencia.
10. Declaraciones de asesoramiento normativo
Política
1. Meta debe incluir una excepción a la norma comunitaria sobre explotación sexual de adultos para las representaciones de contacto sexual no consensuado, en el cual, según un análisis contextual, Meta considere que el contenido se comparte para generar mayor concientización, no es posible la identificación de la víctima, dicho contenido no tiene desnudos y no se comparte en un contexto sensacionalista, suponiendo de ese modo, riesgos mínimos de daño para la víctima. Esta excepción deberá aplicarse solo en etapa de remisión. El Consejo considerará que se implementó esta recomendación cuando se haya modificado el texto de la norma comunitaria sobre explotación sexual de adultos.
Aplicación de políticas
2. Meta debe actualizar sus pautas internas para revisores a escala respecto de cuándo deben escalar un determinado contenido revisado en virtud de la norma comunitaria de explotación sexual de adultos, incluidas las pautas para remitir contenido que describa contacto sexual no consensuado, con la excepción a la política mencionada anteriormente. El Consejo considerará esta recomendación como implementada cuando Meta le comparta las pautas actualizadas para revisores a escala.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asistencia de parte de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
Volver a Decisiones de casos y opiniones consultivas sobre políticas