Anulado

Protesta en la India en contra de Francia

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación conforme a la norma comunitaria sobre violencia e incitación.

Tipo de decisión

Estándar:

Políticas y temas

Tema
Religión, Violencia
Estándar comunitario
Violencia e incitación

Regiones/Países

Ubicación
Francia, India

Plataforma

Plataforma
Facebook

Para leer esta decisión en hindi, haz clic aquí.

पूरे फैसले को हिन्दी में पढ़ने के लिए, कृपया यहां क्लिक करें।

Resumen del caso

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación conforme a la norma comunitaria sobre violencia e incitación. Si bien la empresa consideraba que la publicación incluía una amenaza velada, la mayoría del Consejo consideró que debía restaurarse. Esta decisión solo debería implementarse tras enviar una notificación al usuario y obtener su consentimiento.

Información sobre el caso

A fines de octubre de 2020, un usuario de Facebook realizó una publicación en un grupo público descrito como un foro para musulmanes indios. La publicación incluía un meme con la imagen del programa de televisión turco "Diriliş: Ertuğrul" y mostraba a uno de los personajes del programa con armadura de cuero y sosteniendo una espada envainada. El meme incluía una superposición de texto en hindi. La traducción de Facebook del texto al inglés decía: "Si la lengua del infiel habla en contra del Profeta, se debe desenvainar la espada". La publicación también incluía hashtags que hacían referencia al presidente francés Emmanuel Macron como "el demonio" y que incitaban a boicotear los productos franceses.

En su remisión, Facebook señaló que este contenido destacaba la tensión entre lo que se considera discurso religioso y una posible amenaza de violencia, incluso si no se expresaba de forma explícita.

Conclusiones principales

Facebook eliminó la publicación conforme a la norma comunitaria sobre violencia e incitación, que indica que los usuarios no deben publicar declaraciones cifradas donde exista una "amenaza velada o implícita". Facebook identificó la frase "se debe desenvainar la espada" como una amenaza velada en contra de los "infieles", un término que, según la interpretación de la empresa, tiene un tono vengativo en contra de quienes no son musulmanes.

Teniendo en cuenta las circunstancias del caso, la mayoría del Consejo no creyó que fuera posible que esta publicación causara daños. Además, cuestionó los fundamentos de Facebook, según los cuales las amenazas de violencia en contra de los musulmanes acentuaron la sensibilidad de Facebook en relación con dichas amenazas, pero también incrementaron la sensibilidad al moderar contenido de este grupo.

Aunque una minoría consideró que la publicación representaba una amenaza que incitaba cierta respuesta violenta a la blasfemia, la mayoría estimó que las referencias al presidente Macron y el boicot de los productos franceses eran llamadas a la acción no necesariamente violentas. A pesar de que el personaje del programa de televisión sostiene una espada, la mayoría interpretó que la publicación criticaba la respuesta de Macron a la violencia incitada por motivos religiosos, en lugar de considerarla una amenaza de violencia en sí misma.

El Consejo señaló que su decisión de restaurar esta publicación no implica que respalde su contenido.

Conforme a las normas internacionales de derechos humanos, las personas tienen el derecho de buscar, recibir y difundir ideas y opiniones de todo tipo, incluidas aquellas que podrían ser controversiales o extremadamente ofensivas. Por ello, la mayoría consideró que, así como las personas tienen el derecho de criticar religiones o figuras religiosas, quienes profesan una religión también tienen el derecho de ofenderse ante dichas expresiones.

Se deben explicar claramente las restricciones de la expresión y se debe poder acceder a ellas fácilmente. En este caso, el Consejo indicó que el proceso y los criterios de Facebook para determinar amenazas veladas no se explican a los usuarios en las Normas comunitarias.

Por ello, una mayoría consideró que, para esta publicación específica, Facebook no evaluó con precisión toda la información contextual y que las normas internacionales de derechos humanos sobre la expresión justifican la decisión del Consejo de restablecer el contenido.

La decisión del Consejo asesor de contenido

El Consejo anuló la decisión de Facebook de eliminar el contenido y solicitó que se restablezca la publicación.

En su declaración de asesoramiento normativo, el Consejo recomendó lo siguiente:

  • Esta decisión solo debería implementarse tras enviar una notificación al usuario y obtener su consentimiento.
  • Facebook debe proporcionar a los usuarios información adicional sobre el alcance y el cumplimiento de las restricciones relativas a amenazas veladas. De esta forma, se permitiría que los usuarios comprendan qué contenido está permitido en esta área. Facebook debería compartir públicamente sus criterios de cumplimiento de normas. Estos deberían considerar la intención y la identidad del usuario, así como su público y el contexto más amplio.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar contenido que consideraba que incluía una amenaza velada conforme a la norma comunitaria sobre violencia e incitación. La mayoría del Consejo consideró que la restauración del contenido cumpliría las Normas comunitarias de Facebook, sus valores y las normas internacionales de derechos humanos.

2. Descripción del caso

A fines de octubre de 2020, un usuario de Facebook realizó una publicación en un grupo público descrito como un foro que tiene como objetivo proporcionar información a musulmanes indios. La publicación incluía un meme con la imagen del programa de televisión turco "Diriliş: Ertuğrul" y mostraba a uno de los personajes del programa con armadura de cuero y sosteniendo una espada envainada. El meme incluía una superposición de texto en hindi. La traducción de Facebook del texto al inglés decía: "Si la lengua del infiel habla en contra del Profeta, se debe desenvainar la espada". El texto en inglés que acompañaba la imagen de la publicación indicaba que el Profeta es la identidad, la dignidad, el honor y la vida del usuario, e incluía el acrónimo "PBUH" (que significa que la paz esté con él). La publicación también incluía hashtags que hacían referencia al presidente francés Emmanuel Macron como "el demonio" y que incitaban a boicotear los productos franceses. La publicación se vio unas 30.000 veces, recibió menos de 1.000 comentarios y se compartió menos de 1.000 veces.

A principios de noviembre de 2020, Facebook eliminó la publicación por infringir su política sobre violencia e incitación. Facebook interpretó "infiel" como un término peyorativo que hace referencia a los no creyentes en este contexto. Tras analizar la foto y el texto, Facebook llegó a la conclusión de que la publicación constituía una amenaza velada de violencia contra los "infieles", por lo que la eliminó.

Dos usuarios de Facebook habían reportado la publicación previamente (uno por lenguaje que incita al odio y el otro por violencia e incitación), pero Facebook no eliminó el contenido en esas ocasiones. Más adelante, Facebook recibió información de un socio externo que indicaba que ese contenido tenía el potencial de contribuir a la violencia. Facebook confirmó que este socio externo es un miembro de su red de socios de confianza y no está vinculado a ningún estado. Facebook describió esta red como una forma en que la empresa puede obtener contexto local adicional. Según Facebook, la red está formada por organizaciones no gubernamentales, organizaciones humanitarias, organizaciones sin fines de lucro y otras organizaciones internacionales. Después de que el socio externo marcara la publicación, Facebook recurrió a su equipo de política pública local para buscar más información contextual. El equipo coincidió con el socio externo en que existía la posibilidad de que la publicación constituyera una amenaza. Facebook remitió el caso al Consejo asesor de contenido el 19 de noviembre de 2020. Al hacerlo, Facebook indicó que consideraba que se trataba de una decisión difícil, ya que el contenido destacaba la tensión entre lo que se considera discurso religioso y una posible amenaza de violencia, incluso si no se expresaba de forma explícita.

3. Autoridad y alcance

El Consejo asesor de contenido tiene autoridad para revisar la decisión de Facebook de conformidad con el Artículo 2.1 del acta constitutiva, y puede sostenerla o anularla según el Artículo 3.5. Esta publicación se encuentra bajo el alcance de revisión del Consejo asesor de contenido: no encaja en ninguna categoría de contenido excluida (tal y como se define en el Artículo 2, sección 1.2.1, de los estatutos) y tampoco entra en conflicto con las obligaciones legales de Facebook (tal y como se define en el Artículo 2, sección 1.2.2, de los estatutos).

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Normas comunitarias de Facebook

La norma comunitaria sobre violencia e incitación indica que Facebook se esfuerza "por evitar que se produzcan daños en la vida real que puedan estar relacionados con el contenido que se muestra en Facebook" y que restringe la libertad de expresión cuando cree que "existe riesgo real de que se produzcan daños físicos o amenazas directas a la seguridad pública". En concreto, la norma indica que los usuarios no deben publicar declaraciones cifradas "en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita". Facebook también señala que necesita contexto adicional para asegurarse del cumplimiento de lo estipulado en esta sección de la norma.

II. Valores de Facebook

Los valores de Facebook relevantes para este caso se detallan en la introducción a las Normas comunitarias. El primer valor es la "expresión", que se describe como "fundamental".

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook limita la "expresión" en favor de otros cuatro valores: autenticidad, seguridad, privacidad y dignidad. El Consejo considera que el valor de "seguridad" es relevante para esta decisión:

Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

III. Normas relevantes de derechos humanos que el Consejo considera:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En virtud de estos principios, se tuvieron en cuenta las siguientes normas internacionales de derechos humanos en la revisión de este caso:

  • Derecho a la libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34 del Comité de Derechos Humanos (2011) (GC34); Plan de Acción de Rabat.
  • Derecho a la vida y a la seguridad de las personas: Artículos 6 y 9, párrafo 1, del ICCPR.

5. Declaración del usuario

Facebook notificó al usuario que había remitido el caso al Consejo asesor de contenido y le ofreció la oportunidad de compartir más contexto sobre la publicación con el Consejo. Se concedió al usuario un plazo de 15 días para enviar su declaración a partir del momento en que el caso se remitió al Consejo, pero este no recibió ninguna declaración por parte del usuario.

6. Explicación de la decisión de Facebook

En primer lugar, Facebook evaluó la publicación para detectar posibles infracciones de su política sobre lenguaje que incita al odio y decidió no eliminar el contenido. Facebook no indicó que el término "infiel" apareciera en una lista de insultos prohibidos o que la publicación infringiera de ninguna otra forma la política sobre lenguaje que incita al odio.

Luego, Facebook eliminó este contenido basándose en su norma comunitaria sobre violencia e incitación. Según esta norma, Facebook prohíbe el contenido que genera un "riesgo real de que se produzcan daños físicos o amenazas directas a la seguridad pública", lo que incluye declaraciones cifradas "en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita". Facebook explicó que, desde su punto de vista, las amenazas veladas "pueden ser tan peligrosas para los usuarios como las amenazas de violencia más explícitas". Según Facebook, las amenazas veladas se eliminan cuando se cumplen determinados criterios que no están disponibles de forma pública.

Siguiendo estos criterios, Facebook determinó que la frase "se debe desenvainar la espada" constituía una amenaza velada contra los "infieles" en general. En este caso, Facebook interpretó "infiel" como un término peyorativo que poseía un tono de represalia contra las personas no musulmanas y la referencia a la espada como una llamada a la acción amenazante. Además, consideró que se hacía una "referencia implícita a actos violentos históricos".

Facebook indicó que era de suma importancia tener en cuenta el contexto en el que se publicó el contenido. Según Facebook, el contenido se publicó en un momento en el que existían tensiones religiosas en la India debido a los juicios celebrados en Francia contra Charlie Hebdo y las elecciones en el estado indio de Bihar. Facebook notó que había ocurrido un aumento en el número de actos violentos contra los musulmanes, como el ataque contra una mezquita en la ciudad neozelandesa de Christchurch. También señaló que, ante la posibilidad de actos violentos de represalia por parte de musulmanes, aumentó el grado de sensibilidad al abordar posibles amenazas, tanto si las hacían musulmanes como si se dirigían contra ellos.

Además, Facebook indicó que su política sobre violencia e incitación no contradice lo estipulado en las normas internacionales de derechos humanos. Según Facebook, su política "se centra especialmente en defender los derechos de otras personas y preservar los aspectos de 'necesidad y proporcionalidad' necesarios para conseguir restringir la libertad de expresión de una forma que se considere aceptable".

7. Comentarios de terceros

El Consejo recibió seis comentarios públicos en relación con este caso. Los comentarios recibidos pueden desglosarse por regiones: uno de Asia-Pacífico y Oceanía, uno de Latinoamérica y el Caribe, y cuatro de los Estados Unidos y Canadá. Los comentarios abarcaban diversos temas, como los siguientes: la importancia de saber la identidad y la influencia del usuario (lo que incluye el lugar y el grupo en los que publicó el contenido); la importancia de reconocer el público objetivo; si la publicación se dirigía a particulares o figuras públicas; si el usuario tenía la intención de fomentar el estereotipo dañino de personas violentas que se asocia con los musulmanes indios; si el contenido cumplía la norma sobre amenazas veladas según las Normas comunitarias de Facebook; si la política sobre violencia e incitación se podía aplicar a este caso en concreto; o si se podía considerar que la publicación incluía un lenguaje violento según la política sobre lenguaje que incita al odio de Facebook. Además, algunos comentarios incluían opiniones sobre cómo mejorar el proceso de comentarios públicos del Consejo.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

8.1. Cumplimiento de las Normas comunitarias

La mayoría del Consejo consideró que la restauración del contenido cumpliría las Normas comunitarias de Facebook.

Facebook indicó que el contenido constituía una amenaza velada, las cuales están prohibidas según lo estipulado en la norma comunitaria sobre violencia e incitación. La norma indica que los usuarios no deben publicar declaraciones cifradas "en las que el método para infligir violencia o daños no se expresa claramente, pero existe una amenaza velada o implícita". Facebook indicó al Consejo que su fundamento se centra en el "daño físico inminente" a la hora de interpretar esta disposición de la norma.

Los miembros del Consejo consideraron unánimemente que es importante hacer frente a las amenazas veladas de violencia y expresaron su preocupación ante la posibilidad de que los usuarios utilicen este tipo de amenazas para evitar la detección de incumplimientos de las Normas comunitarias. También reconocieron los desafíos a los que se enfrenta Facebook a la hora de eliminar este tipo de amenazas a gran escala, ya que se requiere un análisis contextual.

Los miembros del Consejo tuvieron diferentes opiniones sobre la forma de definir claramente el objetivo, el tono de la publicación y el riesgo de daño físico o de violencia que implica este contenido en la India y en el resto del mundo. Una mayoría del Consejo consideró que el uso del hashtag para incitar a boicotear los productos franceses tenía como objetivo llevar a cabo una protesta no violenta y formaba parte del curso de los eventos políticos del momento. Una mayoría no consideró que, dentro de este contexto, el uso de un meme de un popular programa de televisión suponía una llamada a acciones que ocasionaran daños físicos, a pesar de que hiciera referencia a la violencia.

En cuanto a la explicación de Facebook, el Consejo señaló que Facebook hizo referencia a las tensiones que existían en esos momentos en la India para justificar su decisión. Sin embargo, los ejemplos que Facebook citó no estaban relacionados con este contexto. Por ejemplo, no se consideraron violentas las protestas que tuvieron lugar en la India como respuesta a la declaración que realizó el presidente Macron tras los asesinatos que se perpetraron en Francia debido a las caricaturas del profeta Mahoma. Facebook también citó las elecciones del 7 de noviembre de 2020 en el estado indio de Bihar. Sin embargo, según la investigación que llevó a cabo el Consejo, en esas elecciones no se produjeron actos violentos contra personas por motivos religiosos. A pesar de que el Consejo determinó unánimemente que el análisis del contexto es crucial para entender las amenazas veladas, a la mayoría no le pareció convincente el fundamento contextual de Facebook sobre la posibilidad de que se produzcan actos violentos en la India en este caso en particular.

Una minoría consideró que el proceso interno que siguió Facebook (basado en la evaluación por parte de un socio externo) fue encomiable y compartió el dictamen de la empresa de que la publicación presentaba un riesgo inaceptable al fomentar la violencia. Esta minoría reconoció que Facebook consultó con expertos regionales y lingüísticos, compartió la evaluación de la empresa de que el término "infiel" es peyorativo y no consideró que el Consejo tuviera una base sólida para revocar la decisión de Facebook.

Dicho esto, la mayoría consideró que el análisis independiente del Consejo respaldó la decisión de restaurar la publicación conforme a la norma comunitaria sobre violencia e incitación.

8.2. Cumplimiento de los valores de Facebook

La mayoría del Consejo consideró que la restitución del contenido cumpliría con los valores de la empresa. A pesar de que el valor de Facebook de la seguridad es importante, especialmente dadas las graves tensiones religiosas existentes en la India, este contenido en particular no suponía un riesgo para la seguridad que justificara dejar en un segundo plano la libertad de expresión. El Consejo también reconoció los desafíos a los que se enfrenta Facebook a la hora de buscar un equilibrio entre estos valores cuando aborda casos de amenazas veladas. Una minoría consideró que estas circunstancias justificaron dejar en segundo plano la libertad de expresión para dar prioridad a la seguridad.

8.3. Cumplimiento de las normas de derechos humanos

Una mayoría del Consejo consideró que restituir este contenido cumpliría con las normas internacionales de derechos humanos.

De acuerdo con el Artículo 19 del ICCPR, las personas tienen derecho a buscar, recibir y difundir ideas y opiniones de toda índole, incluidas aquellas que puedan considerarse controvertidas o profundamente ofensivas (observación general n.° 34, párrafo 11). El derecho a la libertad de expresión incluye la difusión de ideas que puedan considerarse blasfemas, así como la posibilidad de oponerse a este tipo de discurso. A este respecto, la libertad de expresión incluye la libertad de criticar religiones, doctrinas religiosas y personajes religiosos (observación general n.° 34, párrafo 48). La libertad de expresión en cuanto a opiniones políticas es especialmente importante y recibe una mayor protección conforme a la legislación internacional de derechos humanos (observación general n.º 34, párrafos 34 y 38), lo que incluye las llamadas a boicots y las críticas a figuras públicas.

Asimismo, el Consejo reconoce que el derecho a la libertad de expresión no es absoluto y puede someterse, excepcionalmente, a las limitaciones de la legislación internacional de derechos humanos. En este caso, tras debatir sobre los factores a los que se hace referencia en el Plan de Acción de Rabat, el Consejo no consideró que la publicación fomentara el odio religioso ni que superara el umbral de incitación a la discriminación, la hostilidad o la violencia, que es el tipo de contenido que los estados deben prohibir conforme al Artículo 20, párrafo 2, del ICCPR. El Artículo 19, párrafo 3, del ICCPR estipula que las restricciones a la libertad de expresión deben ser fácilmente comprensibles y accesibles (requisito de legalidad), tener el propósito de progresar en uno de los distintos objetivos previstos (requisito de fin legítimo) y delimitarse estrictamente y en la medida necesaria al objetivo específico (requisito de necesidad y proporcionalidad). El Consejo tuvo en cuenta estos criterios a la hora de evaluar la decisión de Facebook de eliminar el contenido.

I. Legalidad

En cuanto a la legalidad, el Consejo indicó que el proceso y los criterios que sigue Facebook para identificar amenazas veladas no se explican a los usuarios en las Normas comunitarias, por lo que no queda claro qué "contexto adicional" es necesario para asegurarse de que se cumpla la política pertinente.

II. Fin legítimo

El Consejo consideró que la restricción en la libertad de expresión en este caso contribuiría a cumplir un fin legítimo: la protección de los derechos de otras personas (el derecho a la vida y a la integridad de las personas a las que se dirigía la publicación).

III. Necesidad y proporcionalidad

Una mayoría del Consejo consideró que la eliminación de la publicación no era necesaria e hizo hincapié en la importancia de evaluar la publicación en su contexto en particular.

Consideró que, así como las personas tienen derecho a criticar la religión y las figuras religiosas, las personas creyentes también tienen derecho a expresar que se sienten ofendidas ante ese tipo de críticas. El Consejo reconoció la grave naturaleza de la discriminación y la violencia hacia los musulmanes en la India. Además, la mayoría consideró que las referencias al presidente Macron y al boicot contra productos franceses son incitaciones no violentas. A este respecto, a pesar de que se hace referencia a una espada, la mayoría interpretó que la publicación criticaba la respuesta de Macron a la violencia incitada por motivos religiosos, en lugar de amenazar realmente con actos violentos en sí.

El Consejo tuvo en cuenta diversos factores para determinar que era improbable que este contenido ocasionara daños. La amplia naturaleza del objetivo de la publicación ("infieles") y la falta de claridad en cuanto a la violencia o los daños físicos potenciales (que no parecen ser inminentes) respaldaron la conclusión de la mayoría de los miembros. También resultó significativo el hecho de que el usuario no parezca ser un agente estatal, una figura pública ni cualquier otra persona que tenga una influencia determinada sobre el comportamiento de otros. Además, no existe ninguna referencia velada a un momento o una ubicación determinados en los que se llevara a cabo una acción que conllevara una amenaza o incitación. Según la investigación que llevó a cabo el Consejo, las protestas que tuvieron lugar en la India tras las declaraciones de Macron no se consideraron violentas. A este respecto, algunos miembros del Consejo señalaron que el grupo de Facebook iba dirigido a personas de la India y con contenido parcialmente en hindi, por lo que es posible que el alcance de su repercusión se haya limitado más a una zona en la que no se observaron reacciones violentas. Por otro lado, algunos de los miembros consideraron que los ejemplos que citó Facebook están relacionados sobre todo con la violencia ejercida contra la minoría musulmana en la India (tema que los miembros del Consejo consideran muy preocupante), y no con actos violentos de represalia por parte de musulmanes. Por lo tanto, la mayoría concluyó que estos factores implicaban que sería poco probable que este contenido ocasionara daños físicos, y que estos no serían inminentes.

Una minoría consideró que la publicación era amenazante o legitimaba algún tipo de respuesta violenta ante las blasfemias. A pesar de que la espada es una referencia a actos violentos no específicos, la minoría consideró que esta posible amenaza no debería descartarse por considerarse poco realista, sobre todo si tenemos en cuenta los asesinatos que se perpetraron en las oficinas de Charlie Hebdo y las decapitaciones que ocurrieron recientemente en Francia (ambos casos relacionados con blasfemias). Los hashtags que hacen referencia a eventos acontecidos en Francia respaldan esta interpretación. En este caso, esta minoría expresó que Facebook no debería esperar a que la violencia fuese inminente para eliminar contenido que amenace o intimide a aquellas personas que ejercen su derecho a la libertad de expresión, por lo que habría ratificado la decisión de Facebook.

Sin embargo, la mayoría consideró que Facebook no evaluó con precisión toda la información contextual. El Consejo hizo hincapié en que la restauración de este contenido no implica estar de acuerdo con él y remarcó la enorme complejidad que conlleva evaluar amenazas veladas o cifradas. En el caso de este contenido en particular, las normas internacionales de derechos humanos sobre la libertad de expresión justifican la decisión del Consejo de restaurar el contenido.

9. Decisión del Consejo asesor de contenido

9.1 Decisión sobre el contenido

El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.

9.2. Declaraciones de asesoramiento normativo

Esta decisión solo debería implementarse tras enviar una notificación al usuario y obtener su consentimiento.

Para garantizar que los usuarios tengan claro qué contenido está permitido publicar, el Consejo recomienda que Facebook proporcione a los usuarios información adicional sobre el alcance y el cumplimiento de esta norma comunitaria. Los criterios de cumplimiento deberían ser públicos y coherentes con las normas de implementación internas de Facebook. En concreto, estos criterios deberían estar relacionados con la intención, la identidad del usuario y del público, y el contexto.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben estar de acuerdo por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos. La empresa Lionbridge Technologies, LLC, con especialistas en más de 350 idiomas que trabajan en 5.000 ciudades diferentes, se encargó de las competencias en materia lingüística.

Volver a Decisiones de casos y opiniones consultivas sobre políticas