Anulado
Imagen de violencia de género
El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Facebook que se burlaba de una víctima de violencia de género
Para leer esta decisión en kurdo (sorani), haz clic aquí.
بۆ خوێندنەوەی ئەم بڕیارە بە زمانی کوردیی سۆرانی، کرتە لێرە بکە.
Resumen del caso
El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Facebook que se burlaba de una víctima de violencia de género. Si bien Meta reconoció que esta publicación infringió sus reglas sobre bullying y acoso, el Consejo identificó una brecha en las reglas existentes de Meta que parece permitir contenido que normaliza la violencia de género al exaltarla, justificarla, celebrarla o burlarse de ella. Por ejemplo, en casos donde la víctima no se puede identificar o donde la foto muestra a un personaje ficticio. El Consejo le recomendó a Meta iniciar un proceso de desarrollo de políticas para abordar esta brecha.
Información sobre el caso
En mayo de 2021, un usuario de Facebook en Iraq publicó una foto con un texto en árabe. En la foto, se veía una mujer con marcas visibles de un ataque físico, como moretones en la cara y el cuerpo. El texto empezaba advirtiendo a las mujeres acerca de cometer errores al escribirles a sus esposos. Relataba que la mujer de la foto le había escrito una carta a su esposo, que él malinterpretó, de acuerdo con el texto, debido a un error tipográfico de ella. Según la publicación, el esposo pensó que la mujer le pedía que le llevara un "burro", mientras que, en realidad, le estaba pidiendo un "velo". En árabe, las palabras "burro" y "velo" son similares ("حمار" y "خمار"). La publicación implicaba que, debido al malentendido causado por el error tipográfico presente en la carta, el esposo la golpeó físicamente. El texto luego indicaba que la mujer había obtenido lo que merecía como consecuencia de su error. Había varios emojis con risas y sonrisas en toda la publicación.
La mujer que aparecía en la foto era una activista de Siria cuya imagen se había compartido en medios sociales en el pasado. El texto no la nombraba, pero su cara podía verse claramente. La publicación también incluía un hashtag que se usaba en conversaciones en Siria para apoyar a las mujeres.
En febrero de 2023, un usuario de Facebook reportó el contenido tres veces por infringir la norma comunitaria sobre violencia e incitación de Meta. Si el contenido no se revisa en un plazo de 48 horas, el reporte se cierra automáticamente, como sucedió en este caso. El contenido permaneció en la plataforma durante casi dos años, y nunca lo revisó un moderador.
El usuario que reportó el contenido apeló la decisión de Meta al Consejo asesor de contenido. Como consecuencia de que el Consejo seleccionara este caso, Meta determinó que el contenido infringía la política sobre bullying y acoso, y eliminó la publicación.
Conclusiones principales
El Consejo determinó que la publicación infringía la política sobre bullying y acoso de Meta porque se burlaba de la lesión física grave que tenía la mujer de la foto. Por lo tanto, debería eliminarse.
Sin embargo, esta publicación no hubiera infringido las reglas de Meta sobre bullying y acoso si la mujer de la foto no se hubiera podido identificar o si el mismo texto hubiera acompañado una foto de un personaje ficticio. Esto indica al Consejo que existe una brecha en las políticas existentes que parece permitir contenido que normaliza la violencia de género. De acuerdo con Meta, un reciente proceso de desarrollo de políticas sobre la exaltación de actos de violencia se centró especialmente en identificar cualquier brecha en la aplicación de políticas existente a la hora de tratar la exaltación de violencia de género conforme a varias políticas. Como parte de ese proceso, Meta consideró la política en torno al problema de burlarse de la violencia de género o bromear acerca de ella. Meta informó al Consejo que la empresa determinó que la política sobre bullying y acoso generalmente abarca este contenido. Sin embargo, como se observó en los ejemplos anteriores, el Consejo determinó que las políticas existentes y su aplicación no necesariamente abarcan todo el contenido pertinente. Este caso también genera preocupación sobre cómo Meta aplica sus reglas sobre bullying y acoso. Ningún moderador revisó el contenido de este caso, que incluía una foto de una activista siria que había sido atacada físicamente, y que un usuario de Facebook reportó varias veces. Esto podría indicar que Meta no prioriza este tipo de infracción para su revisión.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.
El Consejo le recomendó a Meta:
- Iniciar un proceso de desarrollo de políticas para establecer una política que aborde el contenido que normaliza la violencia de género al exaltarla, justificarla, celebrarla o burlarse de ella.
- Aclarar que, en la norma comunitaria sobre bullying y acoso, el término "enfermedad" incluye "lesión física grave".
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión original de Meta de conservar una publicación de Facebook que se burlaba de una víctima de violencia de género. Meta reconoció que su decisión original fue incorrecta y que el contenido infringía su política sobre bullying y acoso. El Consejo le recomendó a Meta iniciar un proceso de desarrollo de políticas para establecer una política que aborde el contenido que normaliza la violencia de género al exaltarla, justificarla, celebrarla o burlarse de ella. El Consejo entiende que Meta está llevando a cabo un proceso de desarrollo de políticas en el que, entre otros asuntos, está considerando cómo afrontar la exaltación de la violencia de género. Esta recomendación apoya la adopción de un enfoque más integral para limitar los daños provocados por la normalización de la violencia de género.
2. Descripción y contexto del caso
En mayo de 2021, un usuario de Facebook en Iraq publicó una foto con un texto en árabe. En la foto, se veía una mujer con marcas visibles de un ataque físico, como moretones en la cara y el cuerpo. El texto empezaba advirtiendo a las mujeres acerca de cometer errores al escribirles a sus esposos. Relataba que la mujer de la foto le había escrito una carta a su esposo, que él malinterpretó, de acuerdo con el texto, debido a un error tipográfico que ella cometió al redactarla. Según la publicación, el esposo pensó que la mujer le pedía que le llevara un "burro", mientras que, en realidad, le estaba pidiendo un "velo". En árabe, las palabras "burro" y "velo" son similares ("حمار" y "خمار"). Luego, el texto se burlaba de la situación y concluía que la mujer había obtenido lo que merecía como consecuencia de su error. Había varios emojis con risas y sonrisas en toda la publicación.
De acuerdo con varias fuentes, la mujer que aparecía en la foto era una activista siria a quien el régimen de Bashar Al-Assad había encarcelado y, más tarde, personas que se creía que estaban afiliadas al régimen habían golpeado. Su imagen se había compartido en los medios sociales antes. El texto no la nombraba, pero su cara podía verse claramente. La publicación también incluía un hashtag que, según expertos a los que el Consejo consultó, páginas y grupos usaban principalmente en conversaciones sirias para apoyar a las mujeres. La publicación obtuvo cerca de 20.000 visualizaciones y menos de 1.000 reacciones.
En febrero de 2023, un usuario de Facebook reportó el contenido tres veces por infringir la norma comunitaria sobre violencia e incitación. Los reportes se cerraron sin someterse a revisión manual, y el contenido permaneció en la plataforma. Meta le indicó al Consejo que considera varios indicadores para determinar cómo priorizar el contenido para revisión manual, entre ellos, la viralidad del contenido y la gravedad que la empresa le asigna al tipo de infracción. Si el contenido no se revisa en un plazo de 48 horas, el reporte se cierra automáticamente. En este caso, el contenido estuvo en la plataforma durante casi dos años antes de que lo reportaran por primera vez. Luego de que se lo reportara, no lo evaluó un revisor en el plazo establecido, por lo que el reporte se cerró de forma automática.
El usuario que reportó el contenido apeló la decisión de Meta al Consejo asesor de contenido. Como consecuencia de que el Consejo seleccionara este caso, Meta determinó que el contenido infringía la política sobre bullying y acoso, y eliminó la publicación.
El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó en este caso. Un usuario de Iraq publicó este contenido. De acuerdo con la Organización Mundial de la Salud, se estima que unos 1,32 millones de personas de Iraq se encuentran en riesgo de sufrir distintas formas de violencia de género. La mayoría son mujeres y chicas adolescentes. A pesar de las reiteradas solicitudes por parte de grupos de mujeres de aprobar una ley en Iraq para combatir la violencia doméstica, un proyecto legislativo sigue estancado, y el código penal actual permite que los esposos castiguen a sus esposas como ejercicio de un derecho legal y estipula una atenuación de la condena cuando un asesinato se vincula a un "homicidio de honor".
La activista que aparece en la foto es de Siria. De acuerdo con las Naciones Unidas, "más de una década de conflicto en Siria tuvo un impacto significativo condicionado por el sexo en mujeres y niñas". Alrededor de 7,3 millones de sirios, casi exclusivamente mujeres y niñas, requieren servicios relacionados con la violencia de género. Un marco legal nacional inadecuado y prácticas discriminatorias obstaculizan la protección de las mujeres y perjudican la efectiva responsabilización por la violencia ejercida contra ellas (informe de la ONU sobre Siria, páginas 5-9). Según informes de la ONU, existe una impunidad penal generalizada en cuanto a la violencia de género y la estigmatización de las víctimas y las sobrevivientes de violencia de género, que genera exclusión y más restricciones en la participación en la vida pública. El régimen apuntó contra las mujeres vinculadas a la oposición y las sometió a tortura y abusos sexuales.
De acuerdo con un estudio llevado a cabo por la ONU Mujeres, casi la mitad (49%) de las mujeres que usan internet en ocho naciones de la Liga de los Estados Árabes informaron que sienten inseguridad por el acoso en internet. En el mismo estudio, se determinó que "el 33% de las mujeres que sufrieron violencia en internet informaron que parte o la totalidad de sus experiencias de violencia en internet trascendió a la vida real". Según se definió, la violencia en internet incluye la recepción de imágenes o símbolos indeseados con contenido sexual; llamadas telefónicas molestas o comunicaciones inapropiadas o inoportunas; e insultos o mensajes ofensivos. De acuerdo con un informe del Secretario General de la ONU, la violencia en internet "impide la participación significativa en pie de igualdad de las mujeres en la vida pública a través de la humillación, la vergüenza, el miedo y el silenciamiento. Este es el 'efecto paralizador', mediante el que se disuade a las mujeres de participar activamente en la vida pública" (A/77/302, párrafo 22).
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene la autoridad para revisar la decisión de Meta tras la apelación de una persona que previamente reportó contenido que se conservó en la plataforma (artículo 2, sección 1, del acta constitutiva; artículo 3, sección 1, de los estatutos).
El Consejo puede mantener o revertir la decisión de Meta (artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (artículo 4 del acta constitutiva). Las decisiones del Consejo pueden incluir recomendaciones no vinculantes a las que Meta debe responder (artículo 3, sección 4, y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
Cuando selecciona casos como este, en los que Meta posteriormente reconoce que cometió una equivocación, el Consejo revisa la decisión original para entender mejor el proceso de moderación de contenido y hacer recomendaciones a fin de reducir errores y tratar a los usuarios de Facebook e Instagram de manera más justa.
4.
El análisis del Consejo en este caso se basó en las siguientes normas y precedentes:
I. Decisiones del Consejo asesor de contenido
Entre las decisiones previas del Consejo asesor de contenido más relevantes, se encuentran las siguientes:
- Dibujo animado de Knin, 2022-001-FB-UA.
- Insultos de Sudáfrica, 2021-011-FB-UA.
- Manifestaciones en Rusia a favor de Navalny, 2021-004-FB-UA.
- Representación de Zwarte Piet, 2021-002-FB-UA.
- Armenios en Azerbaiyán, 2020-003-FB-UA.
II. Políticas de contenido de Meta
La norma comunitaria sobre bullying y acoso procura evitar que se usen amenazas y diferentes formas de contacto malintencionado en las plataformas de Meta para dirigirse a las personas. Según las bases de la política de Meta, tal comportamiento "impide que las personas se sientan seguras y respetadas en Facebook". La norma comunitaria se divide en niveles, y se proporciona más protección a las personas no públicas y a las figuras públicas de alcance limitado que a las figuras públicas.
En el momento en que Meta revisó el contenido y el Consejo comenzó su revisión, el Nivel 4 de la norma comunitaria sobre bullying y acoso prohibía dirigirse a personas no públicas o figuras públicas de alcance limitado mediante "contenido que exalte, celebre o se burle de su muerte o lesiones físicas graves". Según la definición que se proporciona en la norma comunitaria, se conoce como figura pública de alcance limitado a las "personas cuya fama se limita al activismo que realizan o su labor periodística o que se hicieron conocidas de forma involuntaria". Meta hizo pública esta definición en respuesta a una recomendación que el Consejo realizó en el caso Manifestaciones en Rusia a favor de Navalny, 2021-004-FB-UA. En las pautas internas que Meta proporciona a los moderadores de contenido, se define "burlar" como "un intento de poner en ridículo o degradar a alguien o algo, o reírse de alguien o algo".
El 29 de junio, Meta modificó la norma comunitaria. Conforme al Nivel 1 de la política actual, se otorga protección a todos contra la "celebración o burla de su muerte o enfermedad".
El análisis del Consejo se basó en el compromiso que Meta asumió con la "expresión", a la cual la empresa describe como "fundamental", y sus valores de "seguridad" y "dignidad".
III. Responsabilidades de Meta con los derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP.
El análisis del Consejo sobre las responsabilidades de Meta en cuanto a los derechos humanos en este caso se basó en las siguientes normas internacionales:
- Derecho a la libertad de opinión y expresión: artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/74/486 (2019); y la Declaración conjunta sobre libertad de expresión y justicia de género, informes de Relatores Especiales sobre la libertad de opinión y de expresión de las Naciones Unidas (ONU), la Organización para la Seguridad y la Cooperación en Europa (OSCE), la Organización de los Estados Americanos (OEA) y la Comisión Africana de Derechos Humanos y de los Pueblos (ACHPR) (2022).
- Derecho a la no discriminación: artículo 2, párrafo 1, del ICCPR; artículos 1 y 7 (no discriminación en la participación en la vida política y pública del país) y artículos 4(1) y 5(a) de la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (CEDAW); y artículo 8 de la Declaración sobre los Defensores de los Derechos Humanos (derecho a tener la oportunidad efectiva, sobre una base no discriminatoria, de participar en la gestión de los asuntos públicos); resolución 35/18, Consejo de Derechos Humanos (2017); informe del Relator Especial sobre la situación de los defensores de los derechos humanos: A/HRC/40/60 (2019); informe de la Relatora Especial sobre la violencia contra la mujer, sus causas y consecuencias: A/HRC/38/47 (2018).
5. Respuestas del usuario
Después de que el usuario reportara el contenido a Facebook y apelara la decisión ante el Consejo asesor de contenido, se envió un mensaje tanto al usuario que creó el contenido como al usuario que lo reportó para notificarles acerca de la revisión del Consejo y para brindarles la oportunidad de presentar una declaración ante el Consejo. Ninguno de los dos presentó una declaración.
6. Respuestas de Meta
En el fundamento de su decisión, Meta explicó que el contenido debería haberse eliminado de Facebook por infringir la política sobre bullying y acoso.
El equipo regional de Meta identificó a la mujer de la foto como una reconocida activista siria a quien se había encarcelado con motivo de su activismo. De acuerdo con Meta, la foto de la publicación mostraba a la activista tras haber sido golpeada por personas afiliadas al régimen de Bashar Al-Assad.
Sobre la base de la política en vigencia en ese momento, Meta afirmó que considera que el contenido se burlaba de las lesiones físicas graves sufridas por la mujer representada y, por lo tanto, infringe la política. Meta determinó que la mujer de la foto era una figura pública de alcance limitado, ya que su fama se limitaba a su activismo. Según el análisis de Meta, el contenido ponía en ridículo sus lesiones e implicaba que "se las ocasionó a sí misma debido al 'karma'". De acuerdo con Meta, en el contenido también se "inventó" una historia acerca de haber escrito una carta con errores, lo que insinuaba que carecía de inteligencia, cuando, en realidad, las lesiones que había sufrido eran consecuencia de un ataque violento.
Tras la modificación de la política, Meta le indicó al Consejo que el contenido sigue siendo infractor y que la modificación no afecta la protección sustancial que la política proporciona a la mujer representada. Según la empresa, "el objetivo de la modificación de la política sobre bullying y acoso fue simplificar la política". La modificación no alteró las protecciones otorgadas a las figuras públicas de alcance limitado, como la mujer identificada en el contenido del caso. La parte relevante conforme a la que [Meta] eliminó este contenido inicialmente estaba en el Nivel 4 de la política, pero, a raíz de la modificación, ahora se encuentra en el Nivel 1".
El Consejo le hizo 11 preguntas a Meta por escrito. Las preguntas se relacionaban con las políticas de Meta que abordan el contenido que representa violencia de género, cómo Meta aplica la política sobre bullying y acoso, e investigaciones sobre representaciones de violencia de género en los medios sociales y daños en la vida real. Meta respondió diez preguntas, pero no respondió una acerca de los datos regionales correspondientes a la aplicación de la política sobre bullying y acoso.
7. Comentarios del público
El Consejo asesor de contenido recibió 19 comentarios del público en relación con este caso. Tres de ellos procedían de Oriente Medio y África septentrional; dos, de Asia central y meridional; dos, de Asia-Pacífico y Oceanía; tres, de Europa; ocho, de los Estados Unidos y Canadá; y uno, de Latinoamérica y el Caribe.
Los comentarios enviados se referían a los siguientes temas: ciberacoso y ataques a mujeres activistas y figuras públicas; graves consecuencias de la dimensión digital de la violencia de género en la seguridad, la salud física y psicológica, y la dignidad de las mujeres; y dificultad a la hora de informar a los moderadores de contenido (quienes quizá no comprendan el dialecto regional relevante) acerca de la violencia online ejercida contra las mujeres.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo examinó si este contenido debía eliminarse a la luz de las políticas de contenido, las responsabilidades con los derechos humanos y los valores de Meta. El Consejo también evaluó lo que este caso implica en cuanto al enfoque más amplio de Meta respecto de la gestión de contenido y proporcionó recomendaciones sobre cómo las políticas y los procesos de aplicación de políticas de Meta podrían respetar de mejor modo las responsabilidades que la empresa asumió con los derechos humanos.
El Consejo seleccionó esta apelación porque brinda la posibilidad de explorar de qué modo las políticas de Meta y su aplicación luchan contra el contenido que ataca a las defensoras de los derechos humanos y el contenido que se burla de la violencia de género, temas en los que el Consejo está haciendo hincapié a través de su prioridad de género estratégica.
8.1 Cumplimiento de las políticas de contenido de Meta
I. Reglas de contenido
El Consejo determinó que la publicación infringía la política sobre bullying y acoso de Meta, tanto en el momento como luego de la modificación de la política, y debía eliminarse. El texto de la publicación interpretado junto con la imagen infringe la política de Meta porque se burla de la lesión física grave o enfermedad de la mujer representada.
En las pautas internas que Meta proporciona a los moderadores de contenido, se define "burlar" como "un intento de poner en ridículo o degradar a alguien o algo, o reírse de alguien o algo". En la apariencia de una broma, el contenido implica que la mujer de la foto se merecía el ataque físico por haber cometido un error tipográfico en la solicitud que envió a su esposo.
De acuerdo con Meta, en la definición de "enfermedad" de las pautas internas que se proporcionan a los moderadores de contenido, se incluye "lesión grave". Antes de la modificación del 29 de junio, la política pública prohibía burlarse de "lesiones físicas graves" de una persona no pública o una figura pública de alcance limitado, mientras que, en las pautas internas proporcionadas a los moderadores, se prohibía burlarse de su "enfermedad". El Consejo indagó a Meta acerca de la discrepancia entre los términos usados en la política pública y las pautas internas. Meta reconoció esta discrepancia y cambió la política pública a fin de usar el mismo término que se usa en sus pautas internas.
El Consejo determinó que la publicación tiene muchas interpretaciones verosímiles. La mujer podría considerarse defensora de los derechos humanos, víctima de abuso o ambas. Las distintas interpretaciones se analizan más adelante. Independientemente de la interpretación, el género de la persona de la foto y la naturaleza sexista de la burla, la política se infringe en este caso en la medida en que se puede identificar a la persona de la foto.
II. Aplicación de políticas
Al Consejo le preocupan los desafíos potenciales implicados en la aplicación de esta norma comunitaria. En primer lugar, ningún moderador revisó el contenido de este caso, que incluía una foto de una activista siria que había sido atacada físicamente, y que un usuario de Facebook había reportado varias veces. Esto podría indicar que no se prioriza este tipo de infracción para su revisión. En segundo lugar, al Consejo le preocupa que la aplicación de la política, en especial, cuando exige que se analice una imagen junto con texto, es compleja para el contenido en árabe. Como el Consejo explicó anteriormente, Meta se basa en una combinación de moderadores y herramientas de aprendizaje automático (conocidas como clasificadores) para aplicar sus Normas comunitarias (consulta el caso Cinturón de abalorios, 2021-012-FB-UA). En este caso, Meta le informó al Consejo que la empresa cuenta con un clasificador que detecta instancias de bullying y acoso en "idioma árabe general".
El Consejo indicó que, en el informe de diligencia debida respecto de los derechos humanos publicado por BSR (que Meta encargó en respuesta a una recomendación del Consejo en un caso anterior), se señalaron problemas en la aplicación de políticas en árabe por parte de Meta. Observó que los problemas de la empresa en la aplicación de las políticas podrían deberse a una respuesta inadecuada ante los diferentes dialectos del árabe. Al Consejo le preocupa, según las conclusiones del informe independiente de diligencia debida respecto de los derechos humanos y la falla en la aplicación de la política en este caso, que pudiera haber dificultades en los procesos proactivos y reactivos que se usan en la aplicación efectiva de esta política en la región. La falta de transparencia en cuanto a la auditoría de los clasificadores encargados de aplicar esta política también le preocupa al Consejo.
8.2 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo determinó que la decisión inicial de Meta de conservar la publicación no es coherente con sus responsabilidades en materia de derechos humanos como empresa.
Libertad de expresión (artículo 19 del ICCPR)
El artículo 19, párrafo 2, del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) estipula que "toda persona tiene derecho a la libertad de expresión; este derecho comprende la libertad de buscar, recibir y difundir informaciones e ideas de toda índole, sin consideración de fronteras, ya sea oralmente, por escrito o en forma impresa o artística, o por cualquier otro procedimiento de su elección". El artículo 19 contiene disposiciones para una amplia protección de la expresión, incluidas las expresiones que las personas pueden considerar ofensivas (observación general n.º 34, párrafo 11).
Si bien el derecho a la libertad de expresión es fundamental, no es categórico. Se puede restringir, pero al hacerlo se deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). El Consejo reconoció que, si bien el ICCPR no genera las mismas obligaciones para Meta que para los Estados, la empresa asumió el compromiso de respetar los derechos humanos como se establece en los UNGP (A/74/486, párrafos 47-48). Las políticas de Meta prohíben ciertas expresiones discriminatorias y de odio, sin un requisito de que cada parte del contenido incite a actos discriminatorios o violentos inminentes de forma individual. El Relator Especial sobre la libertad de expresión señaló que, en los medios sociales, "la magnitud y la complejidad de la lucha contra las expresiones de odio plantea problemas a largo plazo" (A/HRC/38/35, párrafo 28). El Consejo, sobre la base de las pautas del Relator Especial, previamente explicó que tales prohibiciones generarían preocupación si las impusiera un Gobierno, en particular, si se aplicaran a través de sanciones penales o civiles. Como el Consejo indicó en las decisiones que tomó en los casos Dibujos animados de Knin, Representación de Zwarte Piet e Insultos de Sudáfrica, Meta puede regular tales expresiones y demostrar la necesidad y proporcionalidad de sus medidas debido al daño ocasionado por la acumulación de contenido.
I. Legalidad (claridad y accesibilidad de las reglas)
Cada vez que se aplique una restricción a la libertad de expresión, se debe ofrecer información de fácil acceso y suficientemente clara (en cuanto al alcance, el significado y las consecuencias) que sirva a los usuarios y revisores de contenido como guía sobre lo que se permite en la plataforma y lo que no. La falta de claridad o precisión puede dar lugar a una aplicación de las reglas incoherente y arbitraria (observación general n.º 34, párrafo 25; A/HRC/38/35, párrafo 46).
El Consejo señaló que, el 29 de junio, Meta implementó cambios en la norma comunitaria para unificar la terminología que se usa en la norma comunitaria pública sobre bullying y acoso, y en las pautas internas que se proporcionan a los moderadores de contenido. Antes de este cambio, la norma comunitaria prohibía el contenido que se burlaba de "lesiones físicas graves", mientras que las pautas internas prohibían burlarse de una "enfermedad". De acuerdo con Meta, "enfermedad" es el término más amplio. El Consejo aprecia este cambio, ya que el uso de terminología diferente puede ocasionar confusión e incoherencias en la aplicación de la política. Sin embargo, al Consejo le preocupa que a los usuarios podría no resultarles claro que "enfermedad" incluye "lesiones físicas graves" y recomienda que Meta se los aclare.
II. Fin legítimo
Las restricciones estatales de la libertad de expresión deben tener un fin legítimo, que puede incluir la protección de los derechos de otras personas. El Comité de Derechos Humanos interpretó que el término "derechos" incluye derechos humanos según se reconocen en el ICCPR y, de forma más general, en la legislación internacional de derechos humanos (observación general n.º 34, párrafo 28).
El Consejo determinó que la política sobre bullying y acoso de Meta procura el fin legítimo de respetar los derechos de los demás, incluido el derecho a la igualdad y la no discriminación, y a la libertad de expresión. Entre otros fines, estas políticas buscan el fin legítimo de prevenir los daños ocasionados por el bullying y el acoso, y la discriminación basada en el sexo o el género, así como de respetar la libertad de expresión y el acceso a la plataforma de Meta de las personas que son objeto de estas expresiones. Estos fines se vinculan, ya que, según la Declaración Conjunta sobre libertad de expresión y justicia de género, "la violencia en línea contra las mujeres tiene especial importancia para la libertad de expresión" y "las plataformas de medios sociales tienen la obligación de garantizar que los espacios en línea sean seguros para todas las mujeres y estén libres de discriminación, violencia, odio y desinformación".
III. Necesidad y proporcionalidad
El principio de necesidad y proporcionalidad dispone que las restricciones que se apliquen a la libertad de expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).
Cuando se aplica a la empresa, el Consejo determinó que la política de Meta, conforme a la cual se debería haber eliminado este contenido, constituye una respuesta necesaria y proporcionada para proteger a los usuarios de ser objeto de ataques que involucran bullying y acoso en internet. La política respeta la igualdad de derecho a la libertad de expresión de las defensoras de los derechos humanos, a quienes se suele obligar a abandonar la plataforma a través de tales acosos. La Relatora Especial de la ONU sobre la violencia contra la mujer informó que "las defensoras de los derechos humanos, las periodistas y las mujeres que participan en actividades políticas son objeto de ataques directos, y amenazadas, acosadas y hasta asesinadas por su labor. Reciben amenazas en línea, generalmente de carácter misógino, a menudo de índole sexual y específicamente relacionadas con el género. La naturaleza violenta de estas amenazas a menudo conduce [a las mujeres] a suspender, desactivar o suprimir sus cuentas en línea en forma permanente, o abandonar la profesión por completo" (A/HRC/38/47, párrafo 29).
El Relator Especial sobre la situación de los defensores de los derechos humanos identificó prácticas similares y daños específicamente relacionados con las mujeres: "Las defensoras de los derechos humanos son frecuentemente objeto de acoso, violencia y ataques en Internet, que incluyen amenazas de violencia sexual, agresiones verbales, comentarios sobre su sexualidad, "doxing" […] y descrédito social. Ese tipo de abusos se producen en comentarios que se hacen en artículos de prensa, blogs, sitios web y medios sociales. El terror y las calumnias de los que son objeto las mujeres en Internet también pueden dar lugar a agresiones físicas (A/HRC/40/60 [2019], párrafo 45). De acuerdo con un estudio llevado a cabo por la ONU Mujeres, el 70% de las activistas y defensoras de los derechos humanos de los Estados Árabes informaron que sienten inseguridad por el acoso en internet. En este sentido, las mujeres que participan en la vida pública a través de su activismo o al postularse a cargos públicos son objeto de ataques en internet de forma desproporcionada, lo que puede provocar una autocensura e, incluso, el abandono de la vida pública.
El Consejo determinó que esta publicación se burlaba de la mujer de la foto al usar una broma sexista para menospreciarla e insinuar que se merecía el ataque físico recibido. Este tipo de acoso en internet es generalizado y provoca el silenciamiento de las mujeres y su exclusión de la vida pública. También puede ocurrir junto con ataques físicos. Por lo tanto, la eliminación de este contenido es necesaria, ya que medidas menos restrictivas no evitarían que se difundiera su imagen con una broma para menospreciarla.
El Consejo también observó que esta publicación se dirige a mujeres y niñas de forma más general. Normaliza la violencia de género al insinuar que atacar físicamente a las mujeres es divertido y que los hombres tienen la facultad de usar la violencia. El empleo del hashtag también indica que la intención del usuario es llegar a un grupo más amplio de mujeres que la persona de la foto. La Relatora Especial sobre la violencia contra la mujer traza la conexión entre convertir a las mujeres en objeto de ataques en la vida pública y las intimidaciones dirigidas a las mujeres de forma más general: "Además de los efectos en las personas, una grave consecuencia de la violencia de género en línea y facilitada por las TIC [tecnologías de la información y la comunicación] es una sociedad en que las mujeres ya no se sienten seguras en línea o fuera de línea, debido a la impunidad generalizada de los autores de la violencia de género" (A/HRC/38/47, párrafo 29; A/HRC/RES/35/18, párrafo 4, que insta a los Estados a luchar contra los estereotipos basados en el género que son una de las causas principales de la violencia contra la mujer y la discriminación).
Al Consejo le preocupa que las políticas actuales de Meta no afronten adecuadamente el contenido que normaliza la violencia de género al exaltarla o insinuar su merecimiento. El contenido analizado en este caso se abordó conforme a la política sobre bullying y acoso, pero esta política no siempre es adecuada para limitar el daño que causa el material que, al hacer referencia a la violencia de género de forma más general, exacerba la discriminación y la exclusión de las mujeres de la esfera pública tanto en internet como en la vida real. La misma publicación no hubiera infringido la política sobre bullying y acoso si la mujer de la foto no hubiera podido identificarse ni si el mismo texto hubiera acompañado una foto de un personaje ficticio. De acuerdo con Meta, este contenido no infringe la política sobre lenguaje que incita al odio porque no está "dirigido a una persona o un grupo de personas basado en características protegidas". Esto indica al Consejo que existe una brecha en las políticas existentes que parece permitir que contenido discriminatorio, incluido el contenido que normaliza la violencia de género, permanezca en la plataforma y pueda compartirse.
De acuerdo con Meta, un reciente proceso de desarrollo de políticas sobre la exaltación de actos de violencia se centró especialmente en identificar cualquier brecha en la aplicación de políticas existente a la hora de tratar la exaltación de violencia de género conforme a varias políticas. Como parte de ese proceso, Meta consideró la política en torno al problema de burlarse de la violencia de género o bromear acerca de ella. Meta informó al Consejo que la empresa determinó que la política sobre bullying y acoso generalmente abarca este contenido. Sin embargo, como se observó en los ejemplos anteriores, el Consejo determinó que las políticas existentes y su aplicación no necesariamente abarcan todo el contenido pertinente.
De acuerdo con la Relatora Especial sobre la violencia contra la mujer, "la violencia contra la mujer es una forma de discriminación contra la mujer y una violación de los derechos humanos amparados en la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (A/HRC/38/47, párrafo 22). La violencia en internet contra la mujer incluye "todo acto de violencia por razón de género contra la mujer cometido, con la asistencia, en parte o en su totalidad, del uso de las TIC, o agravado por este, […] dirigida contra una mujer porque es mujer o que la afecta en forma desproporcionada" (A/HRC/38/47, párrafo 23). El Comité para la Eliminación de la Discriminación contra la Mujer (organismo de la ONU conformado por expertos independientes que supervisan la implementación de la Convención), en la observación general n.º 35, instó a los Estados a adoptar medidas preventivas, como alentar a las empresas de medios sociales a consolidar los mecanismos autorregulados para "abordar la violencia por razón de género contra la mujer que se produce a través de sus servicios y plataformas" (CEDAW/C/GC/35, párrafo 30[d]).
El contenido que normaliza la violencia de género al exaltarla o insinuar que es lógica o merecida valida la violencia y procura intimidar a las mujeres, incluidas aquellas que procuran participar en la vida pública (consulta el comentario del público enviado por Digital Rights Foundation, PC-11226). El mensaje que se transmite mediante la acumulación de este contenido es que la violencia es aceptable y puede usarse para castigar las transgresiones de las normas de género. Si bien no hay suficientes estudios académicos que demuestren la causalidad, en variosestudios se observó una correlación entre la violencia de género y la mayor ocurrencia de dicha violencia.
En varios casos previos, el Consejo reconoció de qué modo cierto contenido que podría resultar discriminatorio (Representación de Zwarte Piet, 2021-002-FB-UA) u ofensivo (Dibujos animados de Knin, 2022-001-FB-UA, Insultos de Sudáfrica, 2021-011-FB-UA) puede eliminarse debido al efecto acumulativo, sin tener que demostrar que cada parte del contenido puede causar daño físico directo e inminente. El Consejo también destacó que la acumulación de contenido dañino genera un entorno donde es más probable que se lleven a cabo actos de discriminación y violencia (Representación de Zwarte Piet, 2021-002-FB-UA).
La Relatora Especial de la ONU sobre la violencia contra la mujer hizo hincapié en la importancia del rol que cumplen los medios sociales a la hora de luchar contra la violencia de género, así como en la necesidad de perfilar las políticas y prácticas relacionadas con las tecnologías de la información y la comunicación reconociendo el "entorno más amplio de discriminación y violencia por razón de género, generalizado, estructural y sistémico contra las mujeres y las niñas, que determina su acceso a Internet y otras TIC y su uso de estas" (A/HRC/38/47, párrafo 14). Los estereotipos basados en el género promueven la violencia y la respuesta inadecuada a esta, lo que perpetúa aún más tal discriminación. En varios casos, el Comité para la Eliminación de la Discriminación contra la Mujer observó que cuando las autoridades estatales toman medidas respecto de los estereotipos de género al decidir, el Estado no logra prevenir efectivamente la violencia de género ni hacerle frente (consulta Belousova c. Kazajstán, R.P.B. c. Filipinas; Jallow c. Bulgaria (párrafo 8.6); y L.R. c. República de Moldavia).
En el contexto de un entorno más amplio de discriminación y violencia basadas en el género, Meta tiene la responsabilidad de no exacerbar las amenazas de daño físico ni la supresión del discurso de las mujeres y su participación en la sociedad. El contenido como la publicación de este caso normaliza la violencia de género al denigrar a las mujeres y trivializar, justificar o alentar las agresiones públicas y el maltrato doméstico. Tanto el efecto acumulativo del contenido que normaliza la violencia de género para animar o defender el uso de la violencia como el daño a los derechos de las mujeres y la perpetuación de un entorno de impunidad contribuyen a un mayor riesgo de violencia en la vida real, autocensura y supresión de la participación de las mujeres en la vida pública. En consecuencia, el Consejo le recomendó a Meta iniciar un proceso de desarrollo de políticas para establecer una política que aborde el contenido que normaliza la violencia de género al exaltarla, justificarla, celebrarla o burlarse de ella.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Meta de conservar el contenido.
10. Recomendaciones
A. Política de contenido
1. Para brindar claridad a los usuarios, Meta debería explicar que el término "enfermedad", como se usa en la norma comunitaria sobre bullying y acoso, incluye "lesión física grave". Si bien en las pautas internas se explica a los moderadores de contenido que "enfermedad" incluye "lesión física grave", esta explicación no se proporciona a los usuarios de Meta.
El Consejo considerará que se implementó esta recomendación cuando se haya modificado el texto público de la norma comunitaria para incluir esta aclaración.
2. El Consejo le recomendó a Meta iniciar un proceso de desarrollo de políticas para establecer una política que aborde el contenido que normaliza la violencia de género al exaltarla, justificarla, celebrarla o burlarse de ella. El Consejo entiende que Meta está llevando a cabo un proceso de desarrollo de políticas en el que, entre otros asuntos, está considerando cómo afrontar la exaltación de la violencia de género. Esta recomendación apoya la adopción de un enfoque más integral para limitar los daños provocados por la normalización de la violencia de género.
El Consejo considerará que se implementó esta recomendación cuando Meta haya publicado las conclusiones de este proceso de desarrollo de políticas y modificado sus Normas comunitarias.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Al Consejo lo asistió un instituto de investigación independiente con sede en la Universidad de Gotemburgo, que se apoya en un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asesoramiento de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, una organización que participa en investigaciones de código abierto sobre tendencias en los medios sociales, también proporcionó análisis. Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas