Anulado
El meme de "los dos botones"
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar un comentario en virtud de la norma comunitaria sobre lenguaje que incita al odio.
Ten en cuenta que esta decisión está disponible en turco (por medio de la pestaña "Idioma" en el menú que figura en la parte superior de esta pantalla) y en armenio (por medio de este enlace).
Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.
Resumen del caso
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar un comentario en virtud de la norma comunitaria sobre lenguaje que incita al odio. Una mayoría del Consejo determinó que entró dentro de la excepción que hace Facebook con respecto al contenido que repudia los actos de odio o busca concientizar sobre este asunto.
Información sobre el caso
El 24 de diciembre de 2020, un usuario de Facebook en los Estados Unidos publicó un comentario que contenía una adaptación del meme de la "lucha diaria" o los "dos botones". Este mostraba el personaje de dibujo animado en pantalla dividida del meme original de los "dos botones", pero el rostro del personaje se sustituyó por una bandera turca. El personaje de dibujo animado tenía la mano derecha sobre la cabeza y parecía estar sudando. Encima del personaje, en la otra mitad de la pantalla dividida, había dos botones rojos con las afirmaciones correspondientes en inglés: "The Armenian Genocide is a lie" (El genocidio armenio es una mentira) y "The Armenians were terrorists that deserved it" (Los armenios eran terroristas que se lo merecían).
Si bien un moderador de contenido consideró que el meme infringía la norma comunitaria sobre lenguaje que incita al odio de Facebook, otro indicó que infringía la norma comunitaria sobre contenido cruel e insensible. Facebook eliminó el comentario en virtud de la norma comunitaria sobre contenido cruel e insensible e informó al usuario al respecto.
Sin embargo, luego de que el usuario presentara una apelación, Facebook determinó que el contenido debería haberse eliminado en función de la norma comunitaria sobre lenguaje que incita al odio. La empresa no indicó al usuario que sostuvo su decisión de conformidad con una norma comunitaria diferente.
Conclusiones principales
Facebook manifestó que eliminó el comentario debido a que la frase "Los armenios eran terroristas que se lo merecían" hace referencia a que los armenios, por su nacionalidad y origen étnico, son criminales. Según Facebook, esto infringió su norma comunitaria sobre lenguaje que incita al odio.
Asimismo, Facebook expresó que el meme no estaba contemplado en una excepción que permite a los usuarios compartir contenido ofensivo a modo de repudio o para generar conciencia. La empresa afirmó que podría considerarse de forma razonable que el personaje de dibujo animado repudia o respalda las dos afirmaciones que aparecen en el meme.
No obstante, para la mayoría del Consejo, el contenido está dentro de esta excepción. El meme de los "dos botones" contrasta dos opciones diferentes, pero no como muestra de apoyo, sino para destacar potenciales contradicciones. Como tal, se determinó que el usuario compartió el meme para generar conciencia y repudiar los esfuerzos del Gobierno turco por negar el genocidio armenio y, al mismo tiempo, justificar estas mismas atrocidades históricas. La mayoría mencionó un comentario público que sugiere que el meme "no se burla de las víctimas del genocidio, sino del negacionismo frecuente en la Turquía contemporánea que, simultáneamente, afirma que el genocidio no ocurrió y que las víctimas lo merecían". Para esta mayoría, el contenido podría contemplarse dentro de la excepción de Facebook relacionada con la sátira, que no se incluye en las Normas comunitarias.
Sin embargo, la minoría del Consejo determinó que no quedaba lo suficientemente claro si el usuario compartió el contenido para criticar al Gobierno turco. Como el contenido incluía una generalización dañina sobre los armenios, la minoría del Consejo determinó que infringía la norma comunitaria sobre lenguaje que incita al odio.
En este caso, el Consejo afirmó que Facebook informó al usuario que había infringido la norma comunitaria sobre contenido cruel e insensible, cuando en realidad la empresa basó la medida aplicada en la norma comunitaria sobre lenguaje que incita al odio. El Consejo también manifestó preocupación sobre si los moderadores de Facebook contaron con el tiempo y los recursos suficientes para revisar el contenido que incluía la sátira.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure el comentario.
En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:
- Informe a los usuarios sobre la norma comunitaria que aplica la empresa. Si Facebook determina que el contenido de un usuario infringe una norma comunitaria diferente a la que se le indicó originalmente, debería brindarle al usuario otra oportunidad para presentar una apelación.
- Incluya una excepción de sátira, que actualmente no está disponible para los usuarios, en el contenido público de su norma comunitaria sobre lenguaje que incita al odio.
- Adopte procedimientos que permitan moderar de manera adecuada el contenido satírico y, al mismo tiempo, tengan en cuenta el contexto relevante. Esto incluye ofrecer a los moderadores de contenido acceso a los equipos de operaciones locales de Facebook y proporcionarles tiempo suficiente para que consulten con ellos y realicen una evaluación.
- Permita a los usuarios indicar en su apelación si el contenido se incluye dentro de alguna de las excepciones a la política sobre lenguaje que incita al odio, entre ellas, las de contenido satírico y si el usuario comparte contenido ofensivo a modo de repudio o para generar conciencia.
- Se asegure de que las apelaciones basadas en excepciones a las políticas tengan prioridad en la revisión manual.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar contenido conforme a la norma comunitaria sobre lenguaje que incita al odio. Una mayoría del Consejo determinó que el dibujo animado, en forma de meme satírico, entró dentro de la excepción a la norma comunitaria sobre lenguaje que incita al odio, ya que se trata de contenido que condena el odio o genera conciencia al respecto.
2. Descripción del caso
El 24 de diciembre de 2020, un usuario de Facebook en los Estados Unidos publicó un comentario que contenía una adaptación del meme de la "lucha diaria" o los "dos botones". Un meme es un elemento multimedia que suele ser humorístico y se difunde rápidamente en internet. Este mostraba el mismo personaje de dibujo animado en pantalla dividida del meme original, pero el rostro del personaje se sustituyó por una bandera turca. El personaje de dibujo animado tenía la mano derecha sobre la cabeza y parecía estar sudando. Encima del personaje, en la otra mitad de la pantalla dividida, había dos botones rojos con las afirmaciones correspondientes en inglés: "The Armenian Genocide is a lie" (El genocidio armenio es una mentira) y "The Armenians were terrorists that deserved it" (Los armenios eran terroristas que se lo merecían). Antes del meme aparecía el emoji de "cara pensante".
El comentario se compartió en una página de Facebook pública que se describe como foro de debate sobre cuestiones religiosas desde una perspectiva secular. Era una respuesta a una publicación que contenía la imagen de una persona con un niqab y texto superpuesto en inglés que decía: "Not all prisoners are behind bars" (No todos los prisioneros están tras las rejas). En el momento en que se eliminó el comentario, la publicación original a la que respondía tenía 260 visualizaciones, 423 reacciones y 149 comentarios. Un usuario de Facebook en Sri Lanka reportó el comentario por infringir la norma comunitaria sobre lenguaje que incita al odio.
Facebook eliminó el meme el 24 de diciembre de 2020. En un lapso de tiempo breve, dos moderadores de contenido revisaron el comentario en función de las políticas de la empresa y arribaron a conclusiones diferentes. Para el primero, el meme infringía la política sobre lenguaje que incita al odio de Facebook, pero para el segundo infringía la de contenido cruel e insensible. El contenido se eliminó y se registró en los sistemas de Facebook en función de la segunda revisión. Sobre este fundamento, Facebook notificó al usuario que su comentario "infringía la norma comunitaria sobre contenido cruel e insensible".
Luego de que el usuario presentara la apelación, Facebook sostuvo su decisión, pero determinó que el contenido debería haberse eliminado en virtud de la política sobre lenguaje que incita al odio. Para Facebook, la declaración "Los armenios eran terroristas que se lo merecían" específicamente infringía la regla que prohíbe contenido que afirma que todos los miembros que comparten una característica protegida son criminales, incluidos terroristas. Ninguna otra parte del contenido, como la afirmación que indica que el genocidio armenio fue una mentira, fue considerada infractora. Facebook no informó al usuario que sostuvo su decisión de eliminar el contenido basándose en una norma comunitaria diferente.
El usuario presentó la apelación ante el Consejo asesor de contenido el 24 de diciembre de 2020.
Por último, en su decisión, el Consejo hizo referencia a las atrocidades que se cometieron contra el pueblo armenio desde 1915 en adelante como genocidio, ya que este es el término usado con más frecuencia para describir la masacre y las deportaciones masivas que sufrieron los armenios, que también se menciona en el contenido que se sometió a revisión. El Consejo no tiene la autoridad para calificar legalmente dichas atrocidades, y dicha calificación no es el asunto primordial de esta decisión.
3. Autoridad y alcance
El Consejo tiene la facultad para revisar la decisión de Facebook tras una apelación del usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). El Consejo puede sostener o revertir esa decisión (Artículo 3, sección 5, del acta constitutiva). Las decisiones del Consejo son vinculantes y pueden incluir declaraciones de asesoramiento normativo con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4, del acta constitutiva). El Consejo es un mecanismo de reclamo independiente que aborda disputas de un modo transparente y basado en principios.
4. Normas pertinentes
El Consejo asesor de contenido consideró las siguientes normas en su decisión:
I. Normas comunitarias de Facebook
Las Normas comunitarias de Facebook definen el lenguaje que incita al odio como un ataque directo a personas según lo que llamamos características protegidas, por ejemplo, raza, etnia, nacionalidad, religión, orientación sexual, casta, sexo, género, identidad de género y discapacidad o enfermedad grave. En función del "nivel 1", el contenido prohibido (que no se puede publicar) incluye aquel que se dirige a una persona o un grupo de personas sobre la base de una característica protegida con:
- "lenguaje o imágenes deshumanizantes en forma de comparaciones, generalizaciones o afirmaciones basadas en comportamientos no aptas (ya sea por escrito o en forma visual) en relación con [...] delincuencia (incluidos, entre otros, 'ladrones', 'asaltantes de banco' o afirmaciones que indican que 'todos los [característica protegida o parcialmente protegida] son criminales')";
- "lenguaje que pretende ser una burla del concepto de los crímenes de odio, de eventos de este tipo o de sus víctimas, incluso si no aparece una persona real en una imagen";
- "lenguaje que niega o distorsiona información sobre el Holocausto".
No obstante, Facebook permite compartir "contenido que incluye lenguaje que incita al odio emitido por otra persona con la intención de reprobarlo o concientizar a los demás". Según el fundamento normativo de la norma sobre lenguaje que incita al odio, se puede usar "lenguaje que podría infringir nuestras normas, pero de un modo autorreferencial o de motivación. Nuestras políticas están diseñadas para dar espacio a estos tipos de lenguaje, pero exigimos que la intención quede clara. Si no es el caso, el contenido podría eliminarse".
Asimismo, el Consejo mencionó la norma comunitaria de Facebook sobre contenido cruel e insensible, que prohíbe el contenido que señala a "víctimas de daños físicos o emocionales", incluidos los "intentos de burlarse de las víctimas [...], muchos de los cuales adoptan la forma de memes o GIF". Esta política prohíbe el contenido (que no se puede publicar) que "incluya comentarios sádicos y cualquier representación visual o escrita de la muerte prematura de personas reales".
II. Valores de Facebook
Los valores de Facebook se detallan en la introducción a las Normas comunitarias. El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Facebook limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:
Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.
"Dignidad" : creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
II. Normas de derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Facebook anunció su Política corporativa de derechos humanos, en la que se compromete a respetar los derechos de conformidad con los UNGP. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:
- Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y protección del derecho a la libertad de opinión y de expresión: A/HRC/35/22/Anexo 3 (2017), A/HRC/41/35/Anexo 2 (2019), A/HRC/38/35 (2018), A/74/486 (2019) y A/HRC/44/49/Anexo 2 (2020); el Plan de Acción de Rabat, OHCHR (2013).
- Derecho a la no discriminación: Artículo 2, párrafo 1, del ICCPR; Artículos 1 y 2 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (CERD).
- Derecho a estar informado en el contexto de acceso a la justicia: Artículo 14, párrafo 3(a), del ICCPR; observación general n.º 32 del Comité de Derechos Humanos (2007).
5. Declaración del usuario
En la apelación que presentó ante el Consejo, el usuario indicó que los "acontecimientos históricos no deberían censurarse". Manifestó que su comentario no tenía intención de ofender, sino de destacar "la ironía de un evento histórico particular". El usuario expresó que "tal vez Facebook malinterpretó esto como un ataque" y que, incluso si el contenido invoca "la religión y la guerra", no es un "tema candente". Asimismo, el usuario consideró que Facebook y sus políticas son excesivamente restrictivos, y planteó que "el humor, como muchos otros aspectos, es subjetivo, y lo que resulta ofensivo para una persona puede ser divertido para otra".
6. Explicación de la decisión de Facebook
Facebook explicó que eliminó el comentario como ataque de nivel 1 de conformidad con la norma comunitaria sobre lenguaje que incita al odio, específicamente por infringir su política que prohíbe el contenido que afirma que todos los miembros que comparten una característica protegida son criminales, incluidos terroristas. Según Facebook, si bien la primera afirmación en el meme "El genocidio armenio es una mentira" es una generalización negativa, no atacó de forma directa a los armenios y, por lo tanto, no infringió las Normas comunitarias de la empresa. Facebook determinó que la segunda afirmación "Los armenios eran terroristas que se lo merecían" es un ataque directo a los armenios, dado que afirma que, por su nacionalidad y origen étnico, son criminales. Esto infringió la política sobre lenguaje que incita al odio de la empresa.
En el fundamento de su decisión, Facebook evaluó si se debería emplear en este caso la excepción que se aplica a contenido que comparte lenguaje que incita al odio a modo de repudio o para concientizar a los demás. Facebook argumentó que el meme no está contemplado en esta excepción, ya que el usuario no dejó en claro si intentaba repudiar el lenguaje que incita al odio. Específicamente, Facebook explicó al Consejo que se podría considerar de forma razonable que el dibujo animado que suda en el meme reprueba o avala las afirmaciones. Asimismo, Facebook explicó que su política sobre lenguaje que incita al odio anteriormente incluía una excepción para el contenido humorístico. La empresa aclaró que eliminó esta excepción en respuesta a un informe de auditoría sobre derechos civiles (junio de 2020) y como parte del desarrollo de políticas. En la respuesta que presentó al Consejo, Facebook afirmó que "elaborar una definición de lo que se percibe como gracioso no era operativo para su aplicación de políticas a gran escala". Sin embargo, en el informe de auditoría sobre derechos civiles, la empresa declaró mantener una excepción acotada para la sátira, que Facebook define como contenido que "incluye el uso de ironía, exageración, burla o absurdo con la intención de exponer o criticar personas, comportamientos u opiniones, en especial en el contexto de temas políticos, religiosos y sociales, con el fin de llamar la atención y expresarse sobre temas sociales más generales". Esta excepción no se incluye en sus Normas comunitarias. Al parecer, es independiente de la excepción que se aplica a contenido que incluye lenguaje que incita al odio a modo de repudio o para concientizar al respecto.
Asimismo, Facebook aclaró que el contenido no infringía la política sobre contenido cruel e insensible, que prohíbe los "intentos explícitos por burlarse de las víctimas", incluido a través de memes, ya que no mostraba ni nombraba a una víctima real.
Facebook también alegó que la eliminación del contenido fue coherente con sus valores de "dignidad" y "seguridad", que en este caso tuvieron más peso que el valor de "expresión". Según Facebook, el contenido que se refiere a los miembros del pueblo armenio como terroristas "es un insulto a su dignidad, se puede percibir como deshumanizante o humillante e, incluso, puede generar riesgos de persecución y violencia en el mundo real".
Facebook declaró que su decisión fue coherente con las normas internacionales de derechos humanos. Facebook manifestó que (a) se puede "acceder fácilmente" a la política en las Normas comunitarias; (b) la decisión de eliminar el contenido fue legítima para proteger "los derechos de otros contra el daño y la discriminación"; y (c) la decisión fue "necesaria y proporcionada para limitar el daño contra los armenios". A fin de garantizar que la limitación a la libertad de expresión fuera proporcionada, Facebook manifestó que su política sobre lenguaje que incita al odio se aplica a "un conjunto estrecho de generalizaciones".
7. Comentarios de terceros
El Consejo asesor de contenido recibió 23 comentarios del público relacionados con este caso. Cuatro de ellos procedían de Europa; uno, de Oriente Medio y África septentrional; y 18, de Canadá y los Estados Unidos.
El Consejo recibió comentarios de partes directamente vinculadas con los temas de interés de este caso, entre ellas, de un descendiente de víctimas del genocidio armenio, de organizaciones que estudian la naturaleza, y las causas y consecuencias del genocidio, así como de un exmoderador de contenido.
Los comentarios abarcaban los siguientes temas: el significado y el uso del meme de la "lucha diaria" o los "dos botones", según la adaptación que hizo el usuario en este caso; si el contenido tenía como fin constituir una crítica política al Gobierno turco y su negación del genocidio armenio; si el contenido se burlaba de las víctimas del genocidio armenio; y cómo las normas comunitarias sobre lenguaje que incita al odio y sobre contenido cruel e insensible se relacionan con este caso.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo analizó la pregunta de si este contenido debería restaurarse tomando como base tres perspectivas: las Normas comunitarias de Facebook, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1. Cumplimiento de las Normas comunitarias
El Consejo analizó las dos afirmaciones según las disposiciones de las Normas comunitarias de Facebook, antes de evaluar el efecto que supone yuxtaponerlas en su versión del meme de la "lucha diaria" o los "dos botones".
8.1.1 Análisis de la afirmación "El genocidio armenio es una mentira"
El Consejo expresó que Facebook no consideró que esta afirmación infringiera su norma comunitaria sobre lenguaje que incita al odio. Para aplicar la norma comunitaria sobre lenguaje que incita al odio, Facebook identifica (i) un "ataque directo" y (ii) una "característica protegida" sobre la que se basa el ataque. En el fundamento de la política, figura "lenguaje deshumanizante" como ejemplo de ataque. La etnia y el origen nacional se incluyen entre la lista de características protegidas.
En la sección de "contenido que no se puede publicar" de la política sobre lenguaje que incita al odio, Facebook prohíbe "burlarse del concepto de crímenes de odio, de eventos de este tipo o de sus víctimas, incluso si no aparece una persona real en una imagen". Sin embargo, una mayoría del Consejo afirmó que la intención del usuario no era burlarse de las víctimas de los eventos que se mencionan en la afirmación, sino usar el meme en forma de sátira como crítica de la afirmación en cuestión. Para la minoría, no quedo demasiado clara la intención del usuario. Este podría compartir el contenido para apoyar la afirmación, no para refutarla.
En este caso, Facebook notificó al usuario que su contenido infringía la norma sobre contenido cruel e insensible. En virtud de esta política, Facebook prohíbe los "intentos de burlarse de las víctimas [de daños físicos y emocionales graves]", lo que incluye contenido que "contiene comentarios sádicos y toda representación visual escrita de la muerte prematura de personas reales". El Consejo mencionó, pero no tuvo en cuenta, la explicación de Facebook que indica que esta política no se aplica a este caso porque el meme no representa ni nombra a las víctimas de los acontecimientos mencionados en la afirmación.
En la sección de "contenido que no se puede publicar" de la política sobre lenguaje que incita al odio, Facebook también prohíbe el lenguaje que "niega o distorsiona la información sobre el Holocausto". El Consejo hizo referencia a la explicación que brindó la empresa, que indica que esta política no se aplica al genocidio armenio o a otros genocidios, y que se basa en su "consulta con expertos externos, el surgimiento bien documentado de antisemitismo en todo el mundo y el alarmante nivel de ignorancia respecto del Holocausto".
8.1.2 Análisis de la afirmación "Los armenios eran terroristas que se lo merecían"
El Consejo expresó que Facebook consideró que esta afirmación infringía su norma comunitaria sobre lenguaje que incita al odio. En la sección de "contenido que no se puede publicar" de la política sobre lenguaje que incita al odio, se prohíbe "el lenguaje o las imágenes deshumanizantes en forma de comparaciones, generalizaciones o afirmaciones basadas en comportamientos no aptas (de forma escrita o visual)". La política incluye el lenguaje que presenta a los miembros del grupo atacado como "criminales". El Consejo considera que el término "terroristas" se encuentra dentro de esta categoría.
8.1.3 Análisis de las afirmaciones combinadas en el meme
Para el Consejo, el contenido debe evaluarse de manera integral, lo que incluye analizar el efecto que causa yuxtaponer estas afirmaciones en el conocido meme. La finalidad común del meme de la "lucha diaria" o los "dos botones" es contrastar dos opciones diferentes para destacar posibles contradicciones u otras connotaciones, no expresar apoyo por las opciones presentadas.
Para la mayoría, la excepción a la política sobre lenguaje que incita al odio es fundamental. Esta excepción permite "compartir contenido que incluye lenguaje que incita al odio emitido por otra persona con la intención de reprobarlo o concientizar a los demás". Asimismo, enfatiza que "nuestras políticas están diseñadas para dar espacio a estos tipos de lenguaje, pero exigimos que la intención quede clara. Si no es el caso, el contenido podría eliminarse". La mayoría indicó que el contenido también podría contemplarse en la excepción de sátira de la empresa, que no se encuentra disponible públicamente.
Tras evaluar el contenido de forma integral, la mayoría determinó que no quedó clara la intención del usuario. Este compartió el meme como sátira para generar conciencia y repudiar los esfuerzos del Gobierno turco por negar el genocidio armenio y, al mismo tiempo, justificar las mismas atrocidades históricas. La intención del usuario no era burlarse de las víctimas de estos acontecimientos, así como tampoco afirmar que estas víctimas eran criminales o que las atrocidades fueron justificadas. La mayoría tuvo en cuenta la postura del Gobierno turco respecto del genocidio que sufrieron los armenios de 1915 en adelante (Ministerio de Relaciones Exteriores, República de Turquía), así como la historia entre Turquía y Armenia. En este contexto, determinó que la sustitución del rostro sudoroso del personaje de dibujo animado por la bandera de Turquía y el vínculo directo del contenido con el genocidio armenio implican que el usuario compartió el meme a modo de crítica a la postura del Gobierno turco respecto de este asunto. El emoji de "cara pensante", que se emplea habitualmente como sarcasmo, junto al meme, respalda esta conclusión. La mayoría mencionó el comentario público "PC-10007" (disponible en la sección 7 que figura anteriormente), que sugiere que "el meme, según su descripción, no se burla de las víctimas del genocidio, sino del negacionismo frecuente en la Turquía contemporánea que, simultáneamente, afirma que el genocidio no ocurrió y que las víctimas lo merecían". Por lo tanto, sería una equivocación eliminar este comentario para proteger a la comunidad armenia cuando la publicación constituye una crítica al Gobierno turco a favor de los armenios.
Como tal, la mayoría determinó que, en su totalidad, el contenido estaba contemplado en la excepción a la política en la norma comunitaria de Facebook sobre lenguaje que incita al odio. Para la minoría, en ausencia de un contexto específico, la intención del usuario no fue lo suficientemente clara para concluir que el contenido se compartió como una sátira a modo de crítica al Gobierno turco. Asimismo, la minoría determinó que el usuario no pudo articular de forma adecuada lo que se intentaba expresar con el presunto humor. Dado que el contenido incluía una generalización dañina sobre los armenios, la minoría determinó que infringía la norma comunitaria sobre lenguaje que incita al odio.
8.2 Cumplimiento de los valores de Facebook
Una mayoría del Consejo consideró que el restablecimiento del contenido es coherente con los valores de Facebook. El Consejo reconoció la sensibilidad de la comunidad armenia respecto de estas afirmaciones, que tienen que ver con las masivas atrocidades que sufrió desde 1915 en adelante, así como su larga lucha para que se reconozca el genocidio y se haga justicia. Sin embargo, la mayoría no encontró evidencia que sustente que el meme en este caso suponía un riesgo para los valores de "dignidad" y "seguridad" que justificaría su primacía por sobre el de "expresión". Asimismo, la mayoría mencionó la amplia referencia de Facebook a la "seguridad", sin una explicación que indique cómo se aplicó este valor en este caso.
La minoría determinó que, si bien la sátira debería ser una categoría protegida, como lo manifestó acertadamente la mayoría, las afirmaciones en el comentario dañan el respeto propio de las personas cuyos ancestros padecieron el genocidio. La minoría consideró también que las afirmaciones no son solo una falta de respeto para el honor de las víctimas de la masacre, sino también dañinas, ya que podrían aumentar el riesgo de discriminación y violencia contra los armenios. Esto es un motivo justificado para desplazar el valor de "expresión" en pro de los valores de "seguridad" y "dignidad".
8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos
Libertad de expresión (Artículo 19 del ICCPR)
El Artículo 19, párrafo 2, del ICCPR proporciona una amplia protección a "todo tipo" de expresión, incluido el "discurso político" escrito y no verbal, así como la "expresión cultural y artística". El Comité de Derechos Humanos de la ONU dejó en claro que la protección definida en el Artículo 19 abarca la expresión que puede considerarse "profundamente ofensiva" (observación general n.° 34, párrafos 11 y 12).
En este caso, el Consejo determinó que el dibujo animado, en forma de meme satírico, demuestra una postura sobre un tema político: el posicionamiento del Gobierno turco respecto del genocidio armenio. El Consejo dispuso que los dibujos animados que manifiestan posturas políticas y los memes que se burlan de figuras públicas pueden considerarse formas de expresión artística protegidas por la legislación internacional de derechos humanos (informe A/HRC/44/49/Anexo 2 del Relator Especial de la ONU sobre la libertad de expresión, párrafo 5). El Consejo, además, hizo hincapié en que el ICCPR concede un alto valor a la libertad de expresión respecto de figuras públicas en el ámbito político e instituciones públicas (observación general n.º 34, párrafo 38).
Asimismo, el Consejo manifestó que las leyes que imponen prohibiciones generales a las expresiones que incluyen opiniones o interpretaciones de acontecimientos históricos erróneas, a menudo justificadas por medio de referencias a lenguaje que incita al odio, no son compatibles con el Artículo 19 del ICCPR, a menos que dichas expresiones equivalgan a incitación a la hostilidad, la discriminación o la violencia, de conformidad con el Artículo 20 del ICCPR (observación general n.º 34, párrafo 29; informe A/74/486 del Relator Especial de la ONU sobre la libertad de expresión, párrafo 22).
Si bien el derecho a la libertad de expresión es fundamental, no es categórico. Se puede restringir, pero al hacerlo se deberían cumplir los requisitos de legalidad, fin legítimo, necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). Facebook debería intentar alinear sus políticas de moderación de contenido relativas al lenguaje que incita al odio con estos principios (informe A/74/486 del relator especial de la ONU sobre la libertad de expresión, párrafo 58[b]).
I. Legalidad
Toda regla que limite la libertad de expresión debe ser clara, precisa y de acceso público (observación general n.º 34, párrafo 25). Las personas deben contar con suficiente información para saber en qué casos es posible que se apliquen restricciones a su discurso y de qué forma, a fin de poder ajustar su comportamiento según la situación. Las Normas comunitarias de Facebook permiten el contenido que incluye lenguaje que incita al odio manifestado por otra persona a modo de repudio o para generar conciencia, pero solicita a los usuarios indicar con claridad su intención. El Consejo indicó también que Facebook eliminó una excepción de humor de su política sobre lenguaje que incita al odio tras una auditoría sobre derechos civiles que concluyó en julio de 2020. Si bien se quitó esta excepción, la empresa mantuvo una más acotada para la sátira que, actualmente, no se comunica a los usuarios en su norma comunitaria sobre lenguaje que incita al odio.
El Consejo afirmó que Facebook informó erróneamente al usuario que había infringido la norma comunitaria sobre contenido cruel e insensible, cuando en realidad Facebook basó la medida aplicada en la política sobre lenguaje que incita al odio. El Consejo determinó que a los usuarios no les queda suficientemente claro que la norma comunitaria sobre contenido cruel e insensible se aplica solo al contenido que representa o nombra a las víctimas de daño.
Asimismo, el Consejo indicó que, si los usuarios toman conocimiento de los motivos por los que se aplicaron políticas en su contra, respetarían las reglas de Facebook. Esto se relaciona con el asunto de legalidad, ya que la falta de información relevante para los usuarios cuyo contenido se elimina genera un entorno de normas reservadas, incoherente con los estándares de claridad, especificidad y previsibilidad, que podría interferir con la capacidad de una persona de oponerse a las medidas tomadas respecto del contenido o de hacer un seguimiento de quejas relativas (informe A/HCR/38/35 del Relator Especial de la ONU sobre la libertad de expresión, párrafo 58). El enfoque de Facebook respecto del aviso al usuario en este caso no pasó la prueba de legalidad.
II. Fin legítimo
Cualquier restricción que se aplique a la libertad de expresión debe tener un fin legítimo. El Consejo estuvo de acuerdo en que la restricción perseguía el fin legítimo de proteger los derechos de otras personas (observación general n.º 34, párrafo 28). Entre estos derechos, están los de igualdad y no discriminación, incluso sobre la base del origen étnico o nacional (Artículo 2, párrafo 1, del ICCPR; Artículos 1 y 2 del ICERD).
Asimismo, el Consejo ratificó la conclusión alcanzada en la decisión del caso 2021-002-FB-UA que indica que restringir la expresión únicamente para evitar la ofensa no es un fin legítimo (informe A/74/486 del Relator Especial de la ONU sobre la libertad de expresión, párrafo 24), ya que la legislación internacional de derechos humanos concede mucho valor a la libertad de expresión (observación general n.º 34, párrafo 38).
III. Necesidad y proporcionalidad
Toda restricción que se aplique a la libertad de expresión debe ser adecuada a fin de cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34).
El Consejo evaluó si era necesario eliminar el contenido para proteger los derechos de los armenios a la igualdad y la no discriminación. Asimismo, el Consejo expresó que la libertad de expresión en este momento enfrenta restricciones contundentes en Turquía, con efectos desproporcionados en las minorías étnicas que residen en el país, incluidos los armenios. En un informe sobre su misión en Turquía en 2016, el Relator Especial de la ONU sobre la libertad de expresión determinó que hay censura en todos los espacios fundamentales para la vida democrática: los medios de comunicación, las instituciones educativas, el poder judicial y la corte, la burocracia gubernamental y la amplia extensión online de la era digital (informe A/HRC/35/22/Anexo 3, párrafo 7). En el informe de seguimiento publicado en 2019, el Relator Especial de la ONU mencionó que la situación no había mejorado (informe A/HRC/41/35/Anexo 2, párrafo 26).
Las autoridades turcas tomaron medidas respecto de las expresiones que denuncian las atrocidades cometidas por el Imperio turco otomano contra los armenios de 1915 en adelante. En una carta de denuncia conjunta, diversos procedimientos especiales de la ONU mencionaron que el Artículo 301 del Código penal turco parece constituir un esfuerzo intencional por obstruir el acceso a la verdad sobre lo que parece ser una política de violencia contra la comunidad de armenios turcos y por socavar el derecho de las víctimas de obtener justicia y resarcimiento. El Consejo mencionó también el asesinato en 2007 de Hrant Dink, un periodista de origen armenio que publicó varios artículos sobre la identidad de los ciudadanos turcos de ascendencia armenia. En uno de estos artículos, Dink debatía la falta de reconocimiento del genocidio y cómo esto afecta la identidad de la comunidad armenia. Anteriormente, los tribunales turcos habían considerado culpable a Dink de socavar la "identidad turca" por medio de sus escritos. En 2010, el Tribunal Europeo de Derechos Humanos concluyó que el veredicto de Dink y el hecho de que las autoridades turcas no hubieran tomado las medidas adecuadas para proteger su vida constituyeron una violación a su libertad de expresión (consulta el caso Dink versus Turquía, del Tribunal Europeo de Derechos Humanos, párrafo 139).
Una mayoría del Consejo concluyó que Facebook cometió el error de intervenir en la libertad de expresión del usuario. Al eliminar el contenido, no se protegen los derechos de los armenios a la igualdad y la no discriminación. El usuario no apoyaba las afirmaciones opuestas del meme, sino que se las atribuía al Gobierno turco. Su intención era mostrar repudio y concientizar sobre la postura contradictoria y egoísta del Gobierno. La mayoría determinó que la sátira, como es el caso de este meme, no tendría un efecto tan potente si las personas declararan explícitamente su intención. El hecho de que el meme de la "lucha diaria" o los "dos botones" suele tener un propósito humorístico, incluso aunque la temática que aborda sea grave, también contribuyó a la decisión de la mayoría.
La mayoría notó que el contenido se había compartido en inglés en una página de Facebook con seguidores de varios países. Si bien algunos usuarios de Facebook podrían malinterpretar el meme, la mayoría concluyó en que no aumenta el riesgo de discriminación y violencia contra los armenios, en especial porque el contenido se dirige a un público internacional. Para esta mayoría, exponer este tema importante ante un público internacional es una cuestión de interés público.
Asimismo, el Consejo determinó que eliminar información sin justificación no puede ser una medida proporcionada. Se necesita una razón de peso para que resulte proporcionado tomar esta medida con contenido que informa al público sobre un asunto de interés público. En este aspecto, la preocupación del Consejo era la capacidad de los moderadores de contenido de Facebook para revisar este meme y elementos de contenido similares que incluyen sátira. Los contratistas deben seguir los procedimientos correspondientes y contar con el tiempo, los recursos y el apoyo para evaluar el contenido satírico y el contexto relevante de forma adecuada.
Pese a apoyar la opinión de la mayoría en cuanto a proteger la sátira en la plataforma, la minoría no consideró que el contenido fuera satírico. Para la minoría, el usuario podría estar respaldando las afirmaciones del meme y, por ello, discriminando a los armenios. Por lo tanto, la minoría sostuvo que, en este caso, se cumplieron los requisitos de necesidad y proporcionalidad. En la decisión del caso 2021-002-FB-UA, el Consejo hizo referencia a la postura de Facebook por la que se eliminaría el contenido que muestre a una persona con la cara pintada de negro, a menos que el usuario indicara con claridad su intención de repudiar la práctica o generar conciencia al respecto. Según la minoría, sucede algo similar con la sátira, ya que si la naturaleza satírica del contenido no es tan aparente, como en este caso, el usuario debería indicar explícitamente su intención. La minoría concluyó en que, aunque la sátira recurre a la ambigüedad, no debería ser ambigua en lo que respecta al blanco del ataque, es decir, el Gobierno turco o la comunidad armenia.
Derecho a estar informado (Artículo 14, párrafo 3[a], del ICCPR)
El Consejo sostuvo que, en cuanto al aviso incorrecto que recibió el usuario respecto de la regla de contenido específica que infringía, interviene el derecho a estar informado en el contexto del acceso a la justicia (Artículo 14, párrafo 3[a], del ICCPR). Al limitar el derecho a la libertad de expresión de un usuario, Facebook debe respetar el debido proceso y dotar al usuario con información precisa sobre el fundamento de su decisión, lo que incluye modificar el aviso si el motivo cambió (observación general n.º 32, párrafo 31). Facebook no cumplió con esa responsabilidad en este caso.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure.
10. Declaraciones de asesoramiento normativo
Se numeran las siguientes recomendaciones, y el Consejo solicita que Facebook proporcione una respuesta individual a cada una de ellas, según el documento preliminar.
Proporcionar a los usuarios un aviso claro y preciso
Para que las políticas y su aplicación resulten más claras para los usuarios, Facebook debería:
1. Hacer arreglos técnicos que garanticen que el aviso que reciben los usuarios haga referencia a la norma comunitaria que aplica la empresa. Si Facebook determina que (i) el contenido no infringe la norma comunitaria que se indicó al usuario y (ii) que el contenido infringe una norma comunitaria diferente, el usuario debe recibir una notificación pertinente y otra oportunidad de apelación. Deben contar siempre con la información correcta antes de acudir al Consejo.
2. Incluir una excepción de sátira, que actualmente no se les comunica a los usuarios, en el contenido público de su norma comunitaria sobre lenguaje que incita al odio.
Contar con las herramientas adecuadas para abordar problemas relativos a la sátira
Para aplicar las políticas de contenido con mayor precisión en beneficio de los usuarios, Facebook debería:
3. Asegurarse de ejercer procedimientos adecuados para evaluar el contenido satírico y el contexto relevante según corresponde. Esto incluye proporcionar a los moderadores de contenido: (i) acceso a equipos de operaciones locales de Facebook para recopilar información general y cultural relevante y (ii) tiempo suficiente para consultar con estos equipos y realizar la evaluación. Facebook debería garantizar que sus políticas para los moderadores de contenido sirvan como incentivo para realizar otras investigaciones o escalamientos en los casos en que el moderador no está seguro de que un meme constituya o no una sátira.
Permitir que los usuarios indiquen que su contenido se incluye dentro de excepciones a las políticas
Para realizar una revisión más precisa en la etapa de apelación, Facebook debería:
4. Permitir a los usuarios indicar en su apelación si el contenido se incluye dentro de alguna de las excepciones a la política sobre lenguaje que incita al odio, entre ellas, las de contenido satírico y si el usuario comparte contenido ofensivo a modo de repudio o para generar conciencia.
5. Asegurarse de que las apelaciones basadas en excepciones a las políticas tengan prioridad en la revisión manual.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.
Volver a Decisiones de casos y opiniones consultivas sobre políticas