Anulado
Cita nazi
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación que, según la empresa, infringía su norma comunitaria sobre personas y organizaciones peligrosas.
Resumen del caso
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación que, según la empresa, infringía sus Normas comunitarias sobre personas y organizaciones peligrosas. Para el Consejo, estas reglas no eran demasiado claras para los usuarios.
Información sobre el caso
En octubre de 2020, un usuario publicó una cita atribuida incorrectamente a Joseph Goebbels, el ministro de propaganda del Reich en la Alemania nazi. La cita, en inglés, decía que los argumentos no deben apelar al intelecto, sino a las emociones y los instintos. Afirmaba que la verdad no importa, sino que está subordinada a las tácticas y la psicología. La publicación no mostraba fotos de Joseph Goebbels ni símbolos nazis. En su declaración ante el Consejo, el usuario afirmó que su intención era comparar el sentimiento plasmado en la cita con la presidencia de Donald Trump.
El usuario había publicado el contenido hacía dos años y lo volvió a hacer en esta ocasión cuando Facebook se lo sugirió con la función "Recuerdo", que permite a los usuarios ver lo que publicaron un día determinado de un año anterior y les ofrece la posibilidad de volver a compartirlo.
Facebook eliminó la publicación porque infringía las Normas comunitarias sobre personas y organizaciones peligrosas.
Conclusiones principales
En su respuesta al Consejo, Facebook confirmó que Joseph Goebbels se encuentra en la lista de personas peligrosas de la empresa. Facebook indicó que las publicaciones que comparten citas atribuidas a personas peligrosas se tratan como una expresión de apoyo, a menos que el usuario brinde contexto adicional para mostrar explícitamente su intención.
Facebook eliminó la publicación porque el usuario no explicó con claridad si compartió la cita para condenar a Joseph Goebbels, para combatir el extremismo o el lenguaje que incita al odio o por motivos académicos o informativos.
Al revisar el caso, el Consejo determinó que la cita no apoyaba la ideología del partido nazi ni los actos de odio y violencia cometidos por el régimen. Los comentarios de amigos del usuario en la publicación apoyaban su argumento en cuanto a la comparación del régimen nazi con la presidencia de Donald Trump.
En virtud de las normas sobre derechos humanos internacionales, cualquier regla que restrinja la libertad de expresión debe ser clara, precisa y de acceso público, de modo que las personas puedan actuar en consecuencia. El Consejo no considera que las reglas de Facebook sobre personas y organizaciones peligrosas cumplan con este requisito.
El Consejo notó una brecha entre las reglas públicas que se incluyen en las Normas comunitarias de Facebook y otras reglas no públicas que aplican los moderadores de contenido de la empresa. En sus reglas de acceso público, Facebook no deja demasiado claro si, al publicar una cita atribuida a una persona peligrosa, el usuario debe aclarar que no lo hace a modo de elogio o apoyo.
La política de Facebook sobre personas y organizaciones peligrosas tampoco proporciona ejemplos claros que expliquen el significado de términos como "elogio" y "apoyo", por lo que es difícil para los usuarios entender estas Normas comunitarias.
Si bien Facebook confirmó al Consejo que Joseph Goebbels está designado como una persona peligrosa, la empresa no proporciona una lista pública de personas y organizaciones peligrosas, o ejemplos de ellas. Además, el Consejo manifestó que, en este caso, parece que al usuario no se le explicó qué Normas comunitarias infringió su contenido.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.
En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:
- Garantice que siempre se notifique a los usuarios los motivos por los que se aplican las Normas comunitarias en su contra, incluida la regla específica que aplica Facebook.
- Explique términos clave de la política sobre personas y organizaciones peligrosas y brinde ejemplos de su aplicación, incluido el significado de "elogio", "apoyo" y "representación". Las Normas comunitarias también deberían explicar mejor a los usuarios cómo dejar clara su intención al debatir sobre personas u organizaciones peligrosas.
- Proporcione una lista pública de personas y organizaciones designadas como "peligrosas" en virtud de las Normas comunitarias sobre personas y organizaciones peligrosas o, como mínimo, una lista de ejemplos.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación que, según la empresa, infringía sus Normas comunitarias sobre personas y organizaciones peligrosas. Para el Consejo, estas reglas no eran demasiado claras para los usuarios.
2. Descripción del caso
En octubre de 2020, un usuario publicó una cita atribuida incorrectamente a Joseph Goebbels, el ministro de propaganda del Reich en la Alemania nazi. La cita, en inglés, decía que no tiene sentido apelar a los intelectuales, ya que no cambiarán su postura, sino en todo caso a las personas más fuertes de la calle. La cita continuaba diciendo que los argumentos deben apelar a las emociones y los instintos. Para finalizar, afirmaba que la verdad no importa, sino que está subordinada a las tácticas y la psicología. La publicación no mostraba fotos de Goebbels ni símbolos nazis. El usuario había publicado el contenido hacía dos años y lo volvió a hacer en esta ocasión cuando Facebook se lo sugirió con la función "Recuerdo", que permite a los usuarios ver lo que publicaron un día determinado de un año anterior y les ofrece la posibilidad de volver a compartirlo. Ningún usuario reportó el contenido. Facebook eliminó la publicación porque infringía las Normas comunitarias sobre personas y organizaciones peligrosas.
La publicación solo incluía la cita, que se atribuía a Goebbels. No incluía ningún otro comentario que indicara la intención del usuario al compartir el contenido. En su declaración ante el Consejo, el usuario explicó que la cita se relacionaba con temas sociales de relevancia y que su contenido era "MUY IMPORTANTE en este momento del país, ya que tenemos un 'líder' cuya presidencia sigue un modelo fascista". Su intención era comparar el sentimiento plasmado en la cita con la presidencia de Donald Trump. Los comentarios en la publicación sugieren que los amigos del usuario entendieron de qué se trataba.
3. Autoridad y alcance
El Consejo tiene autoridad para revisar la decisión de Facebook en virtud del Artículo 2 (Autoridad para realizar la revisión) del acta constitutiva y puede sostener o revertir una decisión basándose en el Artículo 3, sección 5 (Procedimientos de revisión: resolución) del acta constitutiva. Facebook no presentó los motivos para excluir el contenido de conformidad con el Artículo 2, sección 1.2.1 (Contenido no disponible para revisión) de los estatutos del Consejo, ni tampoco indicó que considera el caso no elegible en virtud del Artículo 2, sección 1.2.2 (Obligaciones legales) de dichos estatutos.
4. Normas pertinentes
El Consejo asesor de contenido consideró las siguientes normas en su decisión:
I. Normas comunitarias de Facebook:
Las Normas comunitarias sobre personas y organizaciones peligrosas sostienen que "para evitar y prevenir daños en la vida real, no permitimos la presencia en Facebook de ninguna persona u organización que reivindique una misión violenta o cometa actos de violencia". Asimismo, afirman que en Facebook "eliminamos el contenido que apoye o elogie a grupos, líderes o personas implicadas en estas actividades".
II. Valores de Facebook:
Los valores de Facebook relevantes para este caso se detallan en la introducción a las Normas comunitarias. El primer valor es la "expresión", que se describe como "fundamental".
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Facebook limita la "expresión" en favor de otros cuatro valores. El Consejo considera que el valor de "seguridad" es relevante para esta decisión:
Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.
III. Normas pertinentes de derechos humanos que el Consejo considera:
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En virtud de estos principios, se tuvieron en cuenta las siguientes normas internacionales de derechos humanos en la revisión de este caso:
- Derecho a la libertad de expresión: Artículos 19 y 20 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); observación general n.º 34, Comité de Derechos Humanos (2011) (observación general n.º 34); informes del Relator Especial de la ONU sobre la libertad de opinión y protección del derecho a la libertad de opinión y de expresión: A/69/335 (2014); A/HRC/38/35 (2018); A/73/348 (2018) y A/HRC/44/49 (2020); Declaración conjunta sobre la libertad de expresión y las elecciones en la era digital (2020); y el Plan de Acción de Rabat.
- Derecho a la no discriminación: Artículos 2 y 26 del ICCPR; Artículos 1, 4 y 5 de la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial (ICERD); Recomendación general n.º 35, Comité para la Eliminación de la Discriminación Racial (2013) (GR35); Informe A/HRC/38/53 (2018), Relator Especial de la ONU sobre racismo.
- Derecho a la vida: Artículo 6 del ICCPR; observación general n.º 36 del Comité de Derechos Humanos (2018) (GC36).
- Derecho a la seguridad personal: Artículo 9 del ICCPR, tal como se interpreta en la observación general n.º 35, párrafo 9, del Comité de Derechos Humanos (2014).
5. Declaración del usuario
El usuario afirma que publicó el contenido hace dos años y que lo volvió a compartir luego de que se lo sugiriera la función "Recuerdo" de Facebook. Explicó que la publicación es importante, ya que la presidencia del líder de los Estados Unidos sigue un modelo fascista. Asimismo, indicó que se le bloquearon varias funciones de Facebook luego de publicar el contenido.
6. Explicación de la decisión de Facebook
Facebook indicó que trata el contenido que cita, o atribuye citas (independientemente de la exactitud), a una persona designada como peligrosa como una expresión de apoyo, a menos que el usuario brinde contexto adicional para mostrar explícitamente su intención. Afirmó que, en este caso, el usuario no proporcionó más contexto que indicara que compartía la cita para condenar a Goebbels, combatir el extremismo o el lenguaje que incita al odio, o como parte de un discurso académico o informativo. Facebook sostuvo que no habría eliminado el contenido si el usuario hubiera manifestado estos motivos en la publicación. Si bien los comentarios que otras personas hicieron en ella indicaban que la intención no era elogiar ni apoyar a Joseph Goebbels, Facebook explicó que solo revisa la publicación en sí cuando toma una decisión de moderación. El contenido no se eliminó cuando se publicó por primera vez porque ningún usuario lo había reportado y no se había detectado automáticamente.
El Consejo también destaca que, cuando Facebook informó al usuario que había eliminado su publicación, no le explicó qué Normas comunitarias infringía.
7. Comentarios de terceros
El Consejo asesor de contenido tuvo en cuenta 12 comentarios relacionados con este caso. Tres de ellos procedían de Europa y nueve, de Canadá y los Estados Unidos.
Las publicaciones abarcaban los siguientes temas: cumplimiento de las Normas comunitarias pertinentes, si esta publicación constituye un discurso político, el rol de la función "Recuerdo" de Facebook, el efecto de las sanciones en los usuarios y opiniones para mejorar el proceso de comentarios públicos.
8. Análisis del Consejo asesor de contenido
8.1. Cumplimiento de las Normas comunitarias
El Consejo determinó que la decisión de Facebook de eliminar la publicación del usuario no cumplía con las Normas comunitarias sobre personas y organizaciones peligrosas.
Facebook sostiene que para evitar y prevenir daños en la vida real, no permite la presencia en la plataforma de ninguna persona (viva o fallecida) u organización que participen en actividades de odio organizado. También prohíbe el contenido que apoye o elogie a estos grupos, a sus líderes o a personas implicadas en estas actividades. Facebook no publicó una lista de personas y organizaciones designadas como peligrosas.
En el argumento de su decisión que presentó ante el Consejo, Facebook aclaró ciertos aspectos de la política sobre personas y organizaciones peligrosas que no se detallan en las Normas comunitarias. En primer lugar, Facebook confirmó que, en 2009, designó de manera interna al partido nazi (el Partido Nacionalsocialista Obrero Alemán, activo entre 1920 y 1945) como una organización de odio. Joseph Goebbels, uno de los líderes del partido, se designó como persona peligrosa. En segundo lugar, Facebook trata todo el contenido que presuntamente cita a una persona designada como peligrosa como una expresión de apoyo o elogio, a menos que el usuario brinde contexto adicional para mostrar explícitamente su intención. En tercer lugar, Facebook determina el cumplimiento de la política únicamente en función del texto o las imágenes que incluye la publicación en sí, sin evaluar las reacciones o los comentarios que recibe.
En este caso, el contenido incluye una sola cita atribuida a Joseph Goebbels. El Consejo determinó que la cita no promovía la ideología del partido nazi ni apoyaba los actos de odio y violencia cometidos por el régimen. Los comentarios de amigos del usuario en la publicación parecían respaldar su argumento en cuanto a que la publicación buscaba establecer una comparación entre el régimen nazi y la presidencia de Donald Trump.
El Consejo descubrió una brecha entre el texto de acceso público de la política sobre personas y organizaciones peligrosas y las reglas internas adicionales que aplican los moderadores de contenido de Facebook. El texto público no indica con demasiada claridad que, al publicar una cita atribuida a una persona peligrosa, el usuario debe brindar contexto adicional en la publicación para dejar claro que no elogia ni apoya a personas u organizaciones que participan en actividades de odio organizado. Las Normas comunitarias establecen un requisito similar para las publicaciones que incluyen símbolos de personas u organizaciones designadas, pero no lo hacen en el caso del contenido que las elogia o apoya. Como lo demuestra este caso, se censuró un discurso que no supone ningún riesgo de daño. Si bien el Consejo valora la importancia de combatir la difusión de la ideología nazi y el lenguaje que incita al odio, así como la dificultad de lograrlo a gran escala, en este caso la eliminación de la publicación escapa a la intención de la política.
8.2. Cumplimiento de los valores de Facebook
El Consejo determinó que la eliminación no cumple con los valores de Facebook. Al considerar el contenido eliminado en virtud de la política sobre personas y organizaciones peligrosas, se compara el valor de "seguridad" con el valor "fundamental" de "expresión". Facebook explicó que se le puede conceder mayor importancia a la "seguridad" si el contenido puede conducir a un daño físico. En este caso, sin embargo, teniendo en cuenta el impacto mínimo que suponía la publicación del usuario para el valor de "seguridad", el Consejo estimó que la eliminación del contenido menoscababa innecesariamente el valor de "expresión".
8.3. Cumplimiento de las normas de derechos humanos
- Libertad de expresión (Artículo 19 del ICCPR)
Mediante la aplicación de las normas sobre derechos humanos internacionales relativas a la libertad de expresión, el Consejo determinó que se debe restaurar el contenido. En el debate público sobre figuras del ámbito político, se le concede un alto valor al derecho de libertad de expresión, y justamente de eso trata la publicación (Artículo 19, párrafo 2, del ICCPR; observación general n.° 34, párrafo 34).
El derecho a la libertad de expresión no es categórico. Sin embargo, toda restricción a este derecho debe cumplir con los requisitos de legalidad, fin legítimo, necesidad y proporcionalidad. Al eliminar el contenido, Facebook falló la primera y la tercera parte de esta prueba.
a. Legalidad
Cualquier regla con la que se restrinja la libertad de expresión debe ser clara, precisa y de acceso público (observación general n.º 34, párrafo 25) para que las personas puedan modificar su conducta en consecuencia. La política sobre personas y organizaciones peligrosas no satisface el estándar de legalidad. Además, carece de ejemplos claros que expliquen la aplicación de los términos "apoyo", "elogio" y "representación", por lo que es difícil para los usuarios entender las Normas comunitarias. Esto se suma a inquietudes respecto de la legalidad y puede crear una percepción de aplicación de políticas arbitraria entre los usuarios. El Consejo también alude a que, en este caso, el usuario no parece saber qué Normas comunitarias infringió cuando se eliminó su contenido.
Asimismo, Facebook no publicó una lista de personas y organizaciones designadas como peligrosas o, al menos, ejemplos de grupos o personas que se consideran como tal. Por último, la política no explica de qué manera comprueba la intención de un usuario, por lo que es difícil para los usuarios determinar cuándo y cómo se aplicará a fin de comportarse de conformidad con sus disposiciones.
b. Fin legítimo
El Artículo 19, párrafo 3, del ICCPR declara que los fines legítimos incluyen el respeto por los derechos o la reputación de otras personas, así como la protección de la seguridad nacional, el orden público, la moral o la salud públicas. El argumento de Facebook indica que el propósito de la política sobre personas y organizaciones peligrosas en relación con lo que define como "organizaciones de odio" es proteger los derechos de los demás. El Consejo está satisfecho con que las disposiciones específicas sobre "organizaciones de odio" busquen proteger a las personas de la discriminación y de ataques en la vida real o actos intencionales previsibles que resultarían en lesiones físicas o emocionales.
c. Necesidad y proporcionalidad
Toda restricción debe ser adecuada para cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34).
El contexto es fundamental para evaluar la necesidad y la proporcionalidad. El Consejo menciona que hubo un presunto aumento del apoyo y la aceptación de la ideología neonazi en el mundo, y es mayor el desafío que Facebook enfrenta en cuanto a restringir la presencia de "organizaciones de odio" en la plataforma (Informe A/HRC/38/53, 2018). El Consejo considera que, al moderar el contenido sobre organizaciones peligrosas a gran escala, tal vez sea necesario eliminar las publicaciones en las que no hay contexto suficiente. En este caso, el contenido de la cita y las respuestas que recibió de otros usuarios, la ubicación de la persona que lo publicó y el momento en que se hizo la publicación durante una campaña electoral son relevantes. El enfoque de Facebook según el cual los moderadores de contenido debieron revisar el contenido sin tener en cuenta estos indicios contextuales tuvo como consecuencia una restricción innecesaria y desproporcionada de la libertad de expresión.
d. Igualdad y no discriminación
Toda restricción a la libertad de expresión debe respetar el principio de igualdad y no discriminación (observación general n.º 34, párrafos 26 y 32). El Consejo reconoce la importancia de que Facebook luche contra la ideología nazi en la plataforma, en particular en un entorno de aumentos documentados de antisemitismo y apoyo a dichas ideas. Sin embargo, eliminar contenido cuyo fin es criticar a un político comparando su estilo de gestión con los arquitectos de la ideología nazi no fomenta la igualdad y la no discriminación.
9. Decisión del Consejo asesor de contenido
9.1 Decisión sobre el contenido
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar el contenido y solicitó que se restaure la publicación.
9.2 Declaraciones de asesoramiento normativo
El Consejo recomienda que Facebook:
- Garantice que siempre se notifique a los usuarios los motivos por los que se aplican las Normas comunitarias en su contra, incluida la regla específica que aplica Facebook (p. ej., por apoyar a una organización de odio).
- Explique términos clave usados en la política sobre personas y organizaciones peligrosas y brinde ejemplos de su aplicación, incluido el significado de "elogio", "apoyo" y "representación". Estos deben coincidir con las definiciones incluidas en las normas de implementación internas de Facebook. Las Normas comunitarias deben ofrecer pautas más claras a los usuarios sobre cómo reflejar de forma evidente su intención al debatir sobre personas u organizaciones designadas como peligrosas.
- Proporcione una lista pública de personas y organizaciones designadas como "peligrosas" en virtud de las Normas comunitarias sobre personas y organizaciones peligrosas. Como mínimo, debería presentar ejemplos con fines ilustrativos. De este modo, los usuarios entenderían mejor la política y se comportarían de conformidad con ella.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben estar de acuerdo por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
Volver a Decisiones de casos y opiniones consultivas sobre políticas