Confirmado

Armenios en Azerbaiyán

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar una publicación en la que se incluía un insulto degradante que infringía la norma comunitaria de Facebook sobre lenguaje que incita el odio.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Cultura, Discriminación, Religión
Estándar comunitario
Lenguaje que incita al odio

Regiones/Países

Ubicación
Armenia, Azerbaiyán

Plataforma

Plataforma
Facebook

Esta decisión también está disponible en armenio, azerí y ruso.

Որոշման ամբողջական տարբերակը հայերենով կարդալու համար սեղմեք այստեղ.

Qərarın tam mətnini oxumaq üçün bura klikləyin.

Чтобы прочесть полное решение на русском языке, нажмите здесь.

Resumen del caso

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar una publicación en la que se incluía un insulto degradante que infringía las Normas comunitarias de Facebook sobre lenguaje que incita el odio.

Información sobre el caso

En noviembre de 2020, un usuario publicó contenido que incluía fotos históricas descritas como imágenes que mostraban iglesias en Bakú, capital de Azerbaiyán. El texto en ruso que acompañaba las fotos afirmaba que los armenios habían creado Bakú y que esta herencia, incluidas las iglesias, se había destruido. El usuario describía a los azerbaiyanos con el término "тазики" ("taziki") y afirmaba que eran nómadas sin historia alguna, a diferencia de los armenios.

El usuario incluyó hashtags en la publicación con los que pedía que se pusiera fin a las agresiones y los actos de vandalismo azerbaiyanos. Mediante otro hashtag, exigía que se reconociera la denominación armenia "Artsaj" para designar la región de Nagorno Karabaj, situada en el centro del conflicto entre Armenia y Azerbaiyán. Este contenido tuvo más de 45.000 visualizaciones y se publicó durante el reciente conflicto armado entre los dos países.

Conclusiones principales

Facebook declaró que, en la publicación, se usaba un término ofensivo para describir a un grupo de personas en función de una característica protegida (la nacionalidad), por lo que procedió a eliminar la publicación por infringir sus Normas comunitarias sobre lenguaje que incita al odio.

En la publicación se usaba el término "тазики" ("taziki") para describir a los azerbaiyanos. Aunque este término puede traducirse de forma literal como "palangana", también se puede entender como un juego de palabras basado en el sustantivo ruso "азики" ("aziki"), un término despectivo para los azerbaiyanos que se incluye en la lista interna de insultos de Facebook. Se encargó un análisis lingüístico independiente en nombre del Consejo en el que se confirmó la interpretación de Facebook del término "тазики" como un insulto deshumanizador que atacaba la nacionalidad.

El contexto en el que se empleó el término dejaba claro que se usó con la intención de deshumanizar al objetivo. Teniendo esto en cuenta, el Consejo consideró que la publicación infringía las Normas comunitarias de Facebook.

El Consejo también determinó que la decisión de Facebook de eliminar el contenido cumplía con los valores de la empresa. Si bien la "expresión" es uno de los valores más importantes de Facebook, también lo son la "seguridad" y la "dignidad".

Entre septiembre y noviembre de 2020, la lucha por tomar control de la disputada región de Nagorno Karabaj acabó con las vidas de miles de personas. Este contenido se publicó poco antes de que se acordara un cese del fuego.

Ante la naturaleza deshumanizadora de dicho insulto y el riesgo de que este tipo de lenguaje culminara en violencia física, se permitió en este caso que Facebook diera prioridad a la "seguridad" y la "dignidad" de las personas por sobre la "expresión" del usuario.

La mayoría de los miembros del Consejo determinaron que la eliminación de esta publicación era coherente con las normas internacionales de derechos humanos sobre las restricciones a la libertad de expresión.

Según el Consejo, es evidente para los usuarios que el uso del término "тазики" para describir a los azerbaiyanos se calificaría como una etiqueta que deshumaniza a un grupo de determinada nacionalidad, y que Facebook tenía un fin legítimo al eliminar la publicación.

La mayoría de los miembros del Consejo también consideraron la acción de Facebook como una medida proporcionada y necesaria para proteger los derechos de otras personas. Los insultos deshumanizadores pueden generar un entorno de discriminación y violencia que puede acabar por silenciar a otros usuarios. Durante un conflicto armado, los derechos a la igualdad, la seguridad y, posiblemente, la vida corren un riesgo especialmente alto.

Si bien la mayoría de los miembros del Consejo consideraban que la respuesta de Facebook era proporcionada teniendo en cuenta estos riesgos, una minoría opinaba que no lo era y que no cumplía los estándares internacionales. Una minoría pensaba que Facebook debería haberse planteado otras medidas para ejercer el cumplimiento de las normas antes de recurrir a la eliminación del contenido.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar el contenido.

En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Garantice que siempre se notifique a los usuarios los motivos por los que se aplican las Normas comunitarias en su contra, incluida la regla específica que aplica Facebook. En este caso en concreto, se informó al usuario que la publicación infringía las Normas comunitarias de Facebook sobre lenguaje que incita al odio, pero no se le comunicó que era debido al insulto con el que se atacaba a las personas de determinada nacionalidad. Dada la falta de transparencia de Facebook en este caso, la decisión quedó expuesta a la interpretación errónea de que la empresa había eliminado el contenido porque no estaba de acuerdo con la opinión del usuario.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido ratificó la decisión de Facebook de eliminar la publicación de un usuario sobre la supuesta destrucción de iglesias en Azerbaiyán por infringir las Normas comunitarias sobre lenguaje que incita al odio.

Un análisis independiente encargado por el Consejo confirmó la interpretación de Facebook de que la publicación incluía un insulto degradante para las personas de nacionalidad azerbaiyana, lo que infringe las Normas comunitarias. Pese a que la publicación incluía discurso político, se permitió que Facebook eliminara el contenido en pro de la seguridad y la dignidad de los usuarios, en especial en el contexto de un conflicto armado en curso entre Armenia y Azerbaiyán.

La eliminación de la publicación también era coherente con las normas internacionales sobre derechos humanos, que permiten restringir en cierta medida la libertad de expresión según cada caso particular con el objetivo de proteger los derechos de otras personas.

El Consejo también recomendó a Facebook ofrecer más detalles sobre los motivos por los que elimina publicaciones, a fin de proporcionar mayor claridad e informar mejor a los usuarios.

2. Descripción del caso

En noviembre de 2020, un usuario publicó contenido que incluía fotos históricas descritas como imágenes que mostraban iglesias en Bakú, capital de Azerbaiyán. El texto en ruso que acompañaba las fotos afirmaba que los armenios habían creado Bakú y que esta herencia, incluidas las iglesias, se había destruido. El usuario describía a los azerbaiyanos con el término "т.а.з.и.к.и" ("taziki") y afirmaba que eran nómadas sin historia alguna, a diferencia de los armenios. La palabra "tazik", que significa "palangana" en ruso, parece haberse usado en la publicación como un juego de palabras basado en el sustantivo "azik", un término despectivo dirigido a los azerbaiyanos.

El usuario incluyó hashtags en la publicación con los que pedía que se pusiera fin a las agresiones y los actos de vandalismo azerbaiyanos. Mediante otro hashtag, exigía que se reconociera la denominación armenia "Artsaj" para designar la región de Nagorno Karabaj, situada en el centro del conflicto entre Armenia y Azerbaiyán. Este contenido tuvo más de 45.000 visualizaciones y se publicó durante el reciente conflicto armado entre los dos países. Facebook eliminó la publicación por infringir su norma comunitaria sobre lenguaje que incita al odio. El usuario envió una solicitud al Consejo asesor de contenido para que revisara este caso.

3. Autoridad y alcance

El Consejo tiene autoridad para revisar la decisión de Facebook en virtud del Artículo 2 (Autoridad para realizar la revisión) del acta constitutiva y puede sostener o revertir una decisión basándose en el Artículo 3, sección 5 (Procedimientos de revisión: resolución) del acta constitutiva. Facebook no presentó los motivos para excluir el contenido de conformidad con el Artículo 2, sección 1.2.1 (Contenido no disponible para revisión) de los estatutos del Consejo, ni tampoco indicó que considera el caso no elegible en virtud del Artículo 2, sección 1.2.2 (Obligaciones legales) de dichos estatutos.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook:

Las Normas comunitarias de Facebook sobre lenguaje que incita al odio definen este lenguaje como un ataque directo a personas según lo que llamamos características protegidas, por ejemplo, raza, etnia, nacionalidad, religión, orientación sexual, casta, sexo, género, identidad de género y discapacidad o enfermedad grave. El contenido prohibido incluye aquel que "describe o señala negativamente a personas mediante insultos, donde el término 'insulto' se define como palabras usadas comúnmente como etiquetas ofensivas".

Según el argumento de la política de Facebook, no se admite el lenguaje que incita al odio en Facebook ya que "crea un entorno de intimidación y exclusión, y, en algunos casos, puede incitar a la violencia en la vida real".

II. Valores de Facebook:

Los valores de Facebook relevantes para este caso se detallan en la introducción a las Normas comunitarias. El primer valor es la "expresión", que se describe como "fundamental".

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook limita la "expresión" en favor de otros cuatro valores. El Consejo considera que dos de estos valores son relevantes para esta decisión en particular:

Seguridad:Nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

Dignidad: Creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.

III. Normas pertinentes de derechos humanos que el Consejo considera:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. El grupo de trabajo de la ONU sobre derechos humanos y empresas transnacionales, encargado de supervisar la implementación de dichos principios, abordó su capacidad de aplicación en situaciones de conflicto (A/75/212, 2020). En virtud de estos principios, se tuvieron en cuenta las siguientes normas internacionales de derechos humanos en la revisión de este caso:

  • Derecho a la libertad de expresión: Artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); tal como se interpreta en la observación general n.º 34 del Comité de Derechos Humanos (2011) (observación general n.º 34); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/69/335 (2014); A/HRC/38/35 (2018); A/73/348 (2018), A/74/486 (2019) y A/HRC/44/49 (2020); y el Plan de Acción de Rabat, OHCHR, (2012).
  • Derecho a la no discriminación: Artículos 2 y 26 del ICCPR; Artículos 1, 4 y 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD); según la interpretación del Comité para la Eliminación de la Discriminación Racial, observación general n.º 35 (2013) (GR35).
  • Derecho a la vida: Artículo 6 del ICCPR, tal como se interpreta en la observación general n.º 36 del Comité de Derechos Humanos (2018) (GC36).
  • Derecho a la seguridad personal: Artículo 9, párrafo 1, del ICCPR, tal como se interpreta en la observación general n.º 35, párrafo 9, del Comité de Derechos Humanos (2014).

5. Declaración del usuario

En la declaración que presentó al Consejo, el usuario afirmaba que su publicación no incluía lenguaje que incitara al odio, sino que tenía como fin demostrar la destrucción de la herencia cultural y religiosa de Bakú. También declaró que la publicación se había eliminado únicamente porque los usuarios azerbaiyanos que "odian Armenia y a los armenios" se dedican a reportar el contenido que publican usuarios armenios.

6. Explicación de la decisión de Facebook

Facebook declaró que la publicación incluía un término ofensivo para describir a una persona o un grupo de personas en función de una característica protegida (la nacionalidad), por lo que procedió a eliminarla por infringir sus Normas comunitarias sobre lenguaje que incita al odio. Facebook afirmó que había eliminado el contenido por describir a los azerbaiyanos con el término "тазики" ("taziki"). La traducción literal del ruso es "palangana", pero también puede interpretarse como un juego de palabras basado en el sustantivo "азики" ("aziki"). Facebook explicó al Consejo que esta palabra se incluye en su lista interna de términos ofensivos, que se elaboró tras consultar con expertos regionales y organizaciones de sociedad civil. Luego de evaluar todo el contenido y el contexto en el que se publicó, Facebook determinó que el usuario había incluido dicho término ofensivo para insultar a los azerbaiyanos.

7. Comentarios de terceros

El Consejo asesor de contenido tuvo en cuenta 35 comentarios relacionados con este caso. Dos de los comentarios recibidos procedían de Asia central y meridional, seis de Europa y 24 de los EE. UU. y Canadá.

Los comentarios abarcaban los siguientes temas: el uso de insultos y lenguaje despectivo que infringen las Normas comunitarias; la exactitud de los hechos que se afirmaban en la publicación; la posibilidad de que la publicación constituyera un debate político o histórico legítimo; y la importancia de evaluar el contexto y la situación de fondo, incluido el conflicto de Nagorno Karabaj.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

La publicación del usuario infringió las Normas comunitarias de Facebook sobre lenguaje que incita al odio. En dichas normas, se prohíbe explícitamente el uso de insultos basados en la etnia o la nacionalidad. El Consejo encargó un análisis lingüístico independiente que ratifica la interpretación de Facebook del término mencionado como insulto. En el informe lingüístico, se confirma que la publicación implica una conexión entre "тазики" (que puede traducirse como "palangana") y "азики", un término despectivo que suele usarse para describir a los azerbaiyanos.

Hay casos en que las palabras tienen un significado claramente despectivo en determinado contexto, pero adquieren un tono más positivo, o incluso motivador, en otro. Las Normas comunitarias de Facebook sobre lenguaje que incita al odio tienen en cuenta que, en algunos casos, "las palabras o los términos que, de otra manera, infringirían [las] normas se usan de forma autorreferencial o motivadora". Sin embargo, el contexto en el que se usó el término "тазики" en esta publicación deja claro que, al asociar a los azerbaiyanos a palanganas, había una intención evidente de deshumanizar al objetivo.

8.2. Cumplimiento de los valores de Facebook

El Consejo consideró que la eliminación del contenido cumplía con los valores de "seguridad" y "dignidad" de Facebook, que en este caso en concreto desplazaban al valor de "expresión".

Entre los valores que defiende Facebook, se da prioridad a la "expresión", ya que los usuarios de la plataforma deben poder expresarse libremente. Ahora bien, entre dichos valores, también se incluyen la "seguridad" y la "dignidad". Es posible que se restrinja determinado lenguaje que en otras circunstancias no se limitaría si, al permitir ese contenido y otras publicaciones similares en la plataforma, Facebook sería un lugar menos seguro y, además, se perjudicaría la igualdad y la dignidad de las personas. La prohibición de Facebook de usar insultos que hagan referencia a la nacionalidad tiene como objetivo evitar que los usuarios publiquen contenido con la intención de silenciar, excluir, acosar o degradar a otros. Si se permite su publicación, la acumulación de este tipo de contenido puede llegar a generar un entorno donde es más probable que se lleven a cabo actos de discriminación y violencia.

En este caso, se permitió que Facebook tratara el uso del insulto mencionado como una interferencia grave con los valores de "seguridad" y "dignidad". Armenia y Azerbaiyán, países vecinos del sudeste del Cáucaso, están en conflicto desde hace mucho tiempo. Hace poco, entre septiembre y noviembre de 2020, la lucha por tomar el control de la disputada región de Nagorno Karabaj acabó con las vidas de miles de personas. El contenido mencionado se publicó en Facebook poco antes de que se acordara un cese del fuego. Este contexto es especialmente relevante para el Consejo. Pese a que el lenguaje mordaz pueda formar parte de las interacciones humanas, en especial en situaciones de conflicto, Facebook debe tomar en serio el riesgo que plantea la proliferación de insultos deshumanizadores que pueden acabar en actos de violencia.

8.3. Cumplimiento de las normas de derechos humanos

  1. Libertad de expresión (Artículo 19 del ICCPR)

Facebook reconoció sus responsabilidades en cuanto a respetar los derechos humanos conforme a los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU. Además, la empresa indicó que recurre a autoridades, como el ICCPR y el Plan de Acción de Rabat, a la hora de tomar decisiones relacionadas con el contenido, incluido en situaciones de conflicto armado.

El Consejo coincide con el Relator Especial de la ONU sobre libertad de expresión en que si bien las empresas no tienen las obligaciones de los Gobiernos, su impacto es tal que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de sus usuarios (A/74/486, párrafo 41). La tarea principal de este Consejo es aclarar la naturaleza de esas cuestiones y determinar si las respuestas de Facebook entran dentro de los márgenes de lo que exigen los Principios Rectores de la ONU.

El punto de partida del Consejo es que el alcance del derecho a la libertad de expresión es muy amplio. De hecho, el Artículo 19, párrafo 2, del ICCPR concede una mayor protección a la libertad de expresión en cuanto a temas políticos y debates sobre afirmaciones históricas, incluso cuando atañen a lugares religiosos y la herencia cultural de las personas. Esta protección se mantiene incluso cuando dichas afirmaciones puedan ser inexactas o refutadas o cuando puedan resultar ofensivas. El Artículo 19, párrafo 3, del ICCPR exige aplicar restricciones a la libertad de expresión para superar la prueba de tres partes centrada en la legalidad, la legitimidad, y la necesidad y proporcionalidad.

La mayoría de los miembros del Consejo cree que la eliminación de esta publicación de la plataforma por parte de Facebook supera la prueba mencionada.

a. Legalidad

Para satisfacer el requisito de legalidad, cualquier regla que establezca una restricción en cuanto a la libertad de expresión debe ser clara y accesible. Las personas deben contar con suficiente información para saber en qué casos es posible que se apliquen restricciones a su discurso y de qué forma, a fin de poder ajustar su comportamiento según la situación. Este requisito sirve como medida de protección para evitar casos de censura arbitraria (observación general n.º 34, párrafo 25).

En las Normas comunitarias de Facebook sobre lenguaje que incita al odio, se especifica que se prohíben los "insultos", definidos como "palabras inherentemente ofensivas que se usan como etiquetas insultantes" en relación con diversas "características protegidas", como la etnia y la nacionalidad.

En este caso en particular, el Consejo consideraba que se cumplía el requisito de legalidad. Es posible que haya situaciones en las que un insulto tenga diversos significados o se pueda usar de formas que no se consideren un "ataque". En situaciones no demasiado claras, los conceptos "inherentemente ofensivo" o "insultante" tal vez sean demasiado subjetivos y generen dudas en cuanto a la legalidad (A/74/486, párrafo 46). Sin embargo, la aplicación de la regla en este caso concreto no despierta esas dudas. La elección de palabras del usuario entra claramente dentro de la prohibición sobre lenguaje deshumanizador, y el Consejo considera que los usuarios recibieron una explicación clara y pueden acceder fácilmente a ella. Al asociar una identidad nacional a un objeto inanimado que suele ensuciarse, el uso del término "т.а.з.и.к.и" califica claramente como "etiqueta insultante".

Aunque los conocimientos subjetivos del usuario acerca de las reglas no son determinantes en lo que respecta a la legalidad, el Consejo señala que el usuario intentó ocultar el insulto de las herramientas de detección automática de Facebook separando con punto las letras que lo conforman. Este indicio confirma que el usuario era consciente de que estaba usando lenguaje que Facebook prohíbe.

b. Legitimidad

Cualquier restricción que se aplique a la libertad de expresión debe tener un fin legítimo. Estos fines se detallan en el ICCPR e incluyen el objetivo de proteger los derechos de los demás (comentario general n.º 34, párrafo 28). La prohibición de Facebook en cuanto a los insultos tiene como finalidad proteger los derechos de las personas a la igualdad y la no discriminación (Artículo 2, párrafo 1, del ICCPR), permitir que ejerzan su libertad de expresión en la plataforma sin temor a que las acosen o amenacen (Artículo 19 del ICCPR), proteger el derecho a la seguridad de las personas frente a lesiones intencionadas y previsibles (Artículo 9 del ICCPR; observación general n.º 35, párrafo 9), y defender el derecho a la vida (Artículo 6 del ICCPR).

c. Necesidad y proporcionalidad

Según el requisito de necesidad y proporcionalidad, Facebook debe demostrar que las restricciones que aplica a la libertad de expresión son necesarias para abordar la amenaza (en este caso en particular, la amenaza a los derechos de otras personas) y no son demasiado generales (observación general n.º 34, párrafo 34). El Consejo señala que la legislación internacional sobre derechos humanos permite prohibiciones relacionadas con insultos, burlas o calumnias a personas o grupos, o la justificación del odio, el desprecio o la discriminación si dichas expresiones constituyen claramente una incitación al odio o a la discriminación sobre la base de la raza, el color de piel, la ascendencia, la nacionalidad o la etnia (A/74/486, párrafo 17; GR35, párrafo 13).

Las Normas comunitarias de Facebook sobre lenguaje que incita al odio prohíben determinadas expresiones discriminatorias, incluidos insultos, sin la necesidad de que la expresión en cuestión incite a actos violentos o discriminatorios. Si bien estas prohibiciones suscitarían inquietudes si las impusiera un Gobierno en un nivel más amplio (A/74/486, párrafo 48), en particular si se ejercieran por medio de sanciones penales o civiles, el Relator Especial indica que las entidades que participan en la moderación de contenido, como Facebook, pueden regular este tipo de lenguaje:

La magnitud y la complejidad de la lucha contra las expresiones de odio plantean desafíos a largo plazo y pueden llevar a las empresas a restringir dicha expresión, aun cuando no esté claramente vinculada a resultados adversos (ya que las actividades que fomentan el odio se relacionan con incitación según el Artículo 20[2] del ICCPR). No obstante, las empresas deben explicar en qué se basan esas restricciones y demostrar la necesidad y la proporcionalidad de las medidas que tomen respecto del contenido. (A/HRC/38/35, párrafo 28).

La mayoría de los miembros del Consejo consideraban que el insulto usado en este caso en concreto era deshumanizador e incitaba al odio. Si bien no constituía un caso de incitación, tenía potencial para provocar resultados adversos. El contexto es fundamental. El Consejo valora que Facebook haya explicado que la designación de este término como insulto se realizó tras consultas con expertos locales y organizaciones de sociedad civil que conocen su uso contextual. La mayoría de los miembros señalaron que, al leer la totalidad de la publicación, quedaba claro que la elección del insulto por parte del usuario no era casual, sino un elemento central en su argumento para demostrar que el grupo objetivo era inferior. Asimismo, la publicación en cuestión se difundió ampliamente durante el punto álgido de un conflicto armado entre el país del usuario y el país de las personas cuya nacionalidad atacaba. El uso de lenguaje deshumanizador en este contexto puede tener repercusiones online, incluida la creación de un entorno discriminatorio que perjudica la libertad de expresión de otras personas. Sobre todo en situaciones de conflicto armado, la acumulación y difusión de expresiones deshumanizadoras e incitadoras de odio en una plataforma suponen un alto riesgo, ya que pueden generar acciones en el mundo real que afecten los derechos a la seguridad y, potencialmente, a la vida. En este caso en concreto, la mayoría de los miembros del Consejo estaban de acuerdo en permitir a Facebook eliminar el insulto, dada la presencia de estos riesgos y la responsabilidad de la empresa de no contribuir a aumentarlos en pro de los derechos humanos.

Además, el Consejo consideró que la eliminación de la publicación fue una medida proporcionada. Si Facebook hubiera recurrido a intervenciones de menor envergadura, como etiquetas, pantallas de advertencia u otras medidas para reducir la difusión del contenido, no se habría proporcionado el mismo nivel de protección. Por otro lado, Facebook no tomó medidas más severas que también tenía a su disposición, como la suspensión de la cuenta del usuario, a pesar de que, al parecer, este volvió a publicar contenido ofensivo en repetidas ocasiones. Esto demuestra que, pese a la eliminación de este contenido específico, el usuario podía seguir participando libremente en conversaciones sobre los mismos temas, siempre que lo hiciera dentro de los límites que establecen las Normas comunitarias.

Una minoría de los miembros del Consejo consideró que la medida tomada por Facebook fue desproporcionada, ya que los riesgos que sugería la mayoría eran demasiado remotos e imprevisibles. En opinión de esta minoría, Facebook debería haber considerado medidas alternativas menos invasivas para hacer cumplir las normas, como agregar una pantalla de advertencia o de contenido delicado, reducir la viralidad del contenido o fomentar la publicación de mensajes en contra, entre otras técnicas. Según esta minoría, al eliminar toda la publicación debido al insulto, se limitaba la expresión sobre un tema de interés público, y no se estableció el requisito de necesidad y proporcionalidad para ese tipo de restricción.

Otra minoría dentro del Consejo consideraba que la referencia a un objeto inanimado era ofensiva, pero no deshumanizadora. Según su opinión, el insulto no habría contribuido a incitar acciones militares o de naturaleza violenta.

9. Decisión del Consejo asesor de contenido

9.1 Decisión sobre el contenido

El Consejo ratifica la decisión de Facebook de eliminar la publicación del usuario.

9.2 Declaración de asesoramiento normativo

El Consejo recomienda que Facebook:

  • Garantice que siempre se notifique a los usuarios los motivos por los que se aplican las Normas comunitarias en su contra, incluida la regla específica que aplica Facebook. De este modo, en lugar de adoptar una postura antagónica, Facebook animaría a los usuarios a expresarse de formas que no infrinjan sus Normas comunitarias. En este caso, se informó al usuario que la publicación infringía las Normas comunitarias sobre lenguaje que incita al odio, pero no se le comunicó que era debido al insulto dirigido a las personas de una nacionalidad determinada. Facebook cumplió con el principio de legalidad en esta instancia. Sin embargo, su falta de transparencia dejó su decisión expuesta a interpretaciones erróneas, por ejemplo, que la empresa había eliminado la publicación porque el usuario trataba un tema controvertido o expresaba un punto de vista con el que no estaba de acuerdo.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben estar de acuerdo por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas