Anulado

Aislamiento de Öcalan

El Consejo asesor de contenido rechazó la decisión original de Facebook de eliminar una publicación de Instagram que alentaba a las personas a debatir la reclusión solitaria de Abdullah Öcalan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK).

Tipo de decisión

Estándar:

Políticas y temas

Tema
Comunidades marginadas, Información errónea, Libertad de expresión
Estándar comunitario
Personas y organizaciones peligrosas

Regiones/Países

Ubicación
Estados Unidos, Turquía

Plataforma

Plataforma
Instagram

Para leer toda la decisión en kurdo del norte, haz clic aquí.

Ji bo hûn ev biryar bi Kurdiya Bakur bixwînin, li vir bitikînin.

Resumen del caso

El Consejo asesor de contenido rechazó la decisión original de Facebook de eliminar una publicación de Instagram que alentaba a las personas a debatir la reclusión solitaria de Abdullah Öcalan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK). Luego de que el usuario presentara una apelación y el Consejo seleccionara el caso para someterlo a revisión, Facebook concluyó que el contenido se había eliminado por error y lo restauró. Al Consejo le preocupa el hecho de que Facebook haya extraviado la excepción de una política interna durante tres años y que esto tal vez haya llevado a la eliminación errónea de muchas otras publicaciones.

Información sobre el caso

El caso se relaciona con Abdullah Öcalan, un miembro fundador del PKK. Para alcanzar su objetivo de establecer un estado kurdo independiente, el grupo recurrió a la violencia. Tanto el PKK como Öcalan se designaron como entidades peligrosas de conformidad con la política sobre personas y organizaciones peligrosas de Facebook.

El 25 de enero de 2021, un usuario de Instagram en los Estados Unidos publicó una foto de Öcalan con la leyenda en inglés "y’all ready for this conversation" ("Ya es hora de hablar de esto"). En un pie de foto, el usuario escribió que era hora de hablar sobre la finalización del aislamiento en prisión de Öcalan en la isla de Imrali en Turquía. El usuario alentaba a los lectores a hablar sobre su encarcelamiento y la naturaleza inhumana de la reclusión solitaria.

Tras la evaluación de un moderador, la publicación se eliminó el 12 de febrero de conformidad con las reglas de Facebook sobre personas y organizaciones peligrosas por constituir una incitación a apoyar a Öcalan y al PKK. Cuando el usuario apeló esta decisión, se le explicó que la apelación no se revisaría debido a una reducción temporal en la capacidad de revisión de Facebook a causa del COVID-19. Sin embargo, un segundo moderador sí realizó una revisión del contenido y determinó que infringía la misma política. El usuario entonces presentó una apelación ante el Consejo asesor de contenido.

Una vez que el Consejo seleccionó este caso y lo asignó al panel, Facebook determinó que parte de una pauta interna relacionada con la política sobre personas y organizaciones peligrosas "por accidente no se trasladó" a un nuevo sistema de revisión en 2018. Esta pauta, elaborada en 2017 en parte como respuesta a una inquietud sobre las condiciones de encarcelamiento de Öcalan, abre el debate sobre las condiciones de reclusión de personas designadas como peligrosas.

De acuerdo con esta pauta, Facebook restauró el contenido en Instagram el 23 de abril. Facebook informó al Consejo que se encuentra trabajando en una actualización de sus políticas a fin de permitir que los usuarios debatan sobre los derechos humanos de personas designadas como peligrosas. La empresa solicitó al Consejo información y asesoramiento sobre cómo mejorar estas políticas. Si bien Facebook actualizó su norma comunitaria sobre personas y organizaciones peligrosas el 23 de junio de 2021, estos cambios no afectan de forma directa el asesoramiento que la empresa solicitó al Consejo.

Conclusiones principales

El Consejo determinó que la decisión original de Facebook de eliminar el contenido no fue coherente con las Normas comunitarias de la empresa. Como la pauta interna extraviada especifica que los usuarios pueden debatir sobre las condiciones de reclusión de personas designadas como peligrosas, la publicación se admitió en función de las reglas de Facebook.

Al Consejo le preocupa que Facebook haya pasado por alto una pauta específica sobre una excepción importante de la política durante tres años. La política de Facebook que, por defecto, ordena la eliminación de contenido que muestra "apoyo" a personas designadas, permitió que se ignorara este error durante un período prolongado y, al mismo tiempo, mantuvo ocultas del público excepciones clave. Facebook supo que esta política no se estaba aplicando solo cuando el usuario decidió apelar ante el Consejo la decisión de la empresa.

Si bien Facebook le comunicó al Consejo que está llevando a cabo un análisis para determinar cómo no logró transferir esta pauta al nuevo sistema de revisión, también manifestó que "no es técnicamente posible determinar cuántos contenidos se eliminaron cuando los revisores no contaban con la pauta de esta política". El Consejo considera que, debido al error de Facebook, es posible que se hayan eliminado por equivocación muchas otras publicaciones y que los informes de transparencia de Facebook no bastan para evaluar si este tipo de error refleja un problema del sistema. Las acciones de Facebook en este caso indican que la empresa no está respetando el derecho a interponer recursos, lo que infringe su Política corporativa de derechos humanos (sección 3).

Incluso aunque no se hubiera descubierto que se pasó por alto esta pauta, el contenido jamás debería haberse eliminado. Con su publicación, el usuario no respaldaba la violencia ni expresaba apoyo a la ideología de Öcalan ni al PKK. En lugar de ello, lo que buscaba era poner de manifiesto inquietudes relativas a los derechos humanos que tenían que ver con la reclusión solitaria prolongada de Öcalan, sobre la que otros organismos internacionales también se manifestaron. Como era poco probable que la publicación ocasionara daños, no era necesario ni proporcionado eliminarla de conformidad con normas de derechos humanos internacionales.

La decisión del Consejo asesor de contenido

El Consejo anuló la decisión original de Facebook de eliminar el contenido. El Consejo señala que Facebook ya lo restableció.

En una declaración de asesoramiento normativo, el Consejo recomienda que Facebook:

  • Restablezca de inmediato la pauta extraviada de 2017 en las normas de implementación interna y en las preguntas frecuentes (la pauta interna para moderadores de contenido).
  • Evalúe los procesos de moderación automatizados para la aplicación de la política sobre personas y organizaciones peligrosas. Si es necesario, Facebook debe actualizar sus clasificadores a fin de excluir datos de capacitación correspondientes al período anterior a que se cometieran los errores de aplicación de la política que condujeron a la omisión indebida de la pauta de 2017.
  • Publique los resultados del proceso de revisión en curso para determinar si se pasó por alto alguna otra política, como descripciones de todas las políticas extraviadas, el período durante el cual se extraviaron y las medidas tomadas para restablecerlas.
  • Se asegure de que las "bases" de la política sobre personas y organizaciones peligrosas reflejen que el respeto por los derechos humanos y la libertad de expresión puede fomentar el valor de "seguridad". Las bases de la política deberían especificar en mayor detalle los "daños en el mundo real" que la política busca evitar e interrumpir cuando se reprime el valor de "expresión".
  • Agregue a la política una explicación clara de lo que excluye el término "apoyo". Los usuarios deberían ser libres para debatir supuestos abusos de los derechos humanos de miembros de organizaciones designadas.
  • Explique en las Normas comunitarias cómo los usuarios pueden dejar clara la intención de su publicación ante Facebook.
  • Garantice la participación de partes interesadas importantes en los cambios propuestos para la política sobre personas y organizaciones peligrosas por medio del Foro de políticas de productos de Facebook, incluido a través de una solicitud pública de opiniones.
  • Se asegure de que los moderadores reciban capacitación y asesoramiento interno respecto de los cambios propuestos para la política.
  • Garantice que los usuarios reciban una notificación cuando se elimine su contenido. La notificación debería indicar si la eliminación se debe a una solicitud gubernamental o a una infracción de las Normas comunitarias, o bien al reclamo de un Gobierno que manifiesta que se infringió una ley nacional (y el alcance jurisdiccional de dicha eliminación).
  • Aclare a los usuarios de Instagram que las Normas comunitarias de Facebook se aplican a Instagram del mismo modo en que se aplican a Facebook.
  • Incluya información en sus informes de transparencia sobre la cantidad de solicitudes de eliminación de contenido presentadas por Gobiernos en función de infracciones de las Normas comunitarias (en lugar de infracciones de la legislación nacional), y el resultado de dichas solicitudes.
  • Incluya información más integral en sus informes de transparencia respecto de las tasas de errores en la aplicación de las reglas sobre "exaltación" y "apoyo" de personas y organizaciones peligrosas, desglosada por región e idioma.

Decisión del caso completa

1. Resumen de la decisión

El Consejo asesor de contenido rechazó la decisión original de Facebook de eliminar una publicación de Instagram que alentaba a las personas a debatir la reclusión solitaria de Abdullah Öcalan, una persona que Facebook designó como peligrosa. Luego de que el usuario presentara una apelación y el Consejo seleccionara el caso para someterlo a revisión, Facebook concluyó que el contenido se había eliminado por error y restauró la publicación en Instagram.

Facebook explicó que, en 2018, "accidentalmente no había trasladado" a un nuevo sistema de revisión la parte de una pauta normativa interna que permitía a los usuarios debatir las condiciones de reclusión de personas designadas como peligrosas. El Consejo considera que si Facebook fuera más transparente respecto de sus políticas, se podría haber mitigado o evitado el daño que ocasionó este error. Incluso sin tener en cuenta la pauta normativa interna extraviada, el Consejo determinó que jamás se debería haber eliminado el contenido. Simplemente se trataba de una incitación al debate sobre la necesidad de detención de Öcalan en reclusión solitaria y su eliminación no hacía aporte alguno al objetivo de la política sobre personas y organizaciones peligrosas de "prevenir e interrumpir daños en el mundo real". En cambio, restringió la libertad de expresión respecto de un asunto de derechos humanos.

2. Descripción del caso

El caso tiene que ver con contenido relacionado con Abdullah Öcalan, miembro fundador del Partido de los Trabajadores de Kurdistán (PKK). El PKK se fundó en la década de 1970 con el objetivo de establecer un estado kurdo independiente en el sureste de Turquía, Siria e Iraq. Para alcanzar su objetivo, el grupo recurre a la violencia. Los Estados Unidos, la Unión Europea, el Reino Unido y Turquía, entre otros, designaron al PKK como una organización terrorista. Öcalan se encuentra en prisión en la isla de Imrali, Turquía, desde que fue arrestado y sentenciado en 1999 por llevar a cabo actos de violencia para lograr la secesión de una parte del territorio de Turquía (Caso de Öcalan versus Turquía, Tribunal Europeo de Derechos Humanos).

El 25 de enero de 2021, un usuario de Instagram en los Estados Unidos publicó una foto de Öcalan con la leyenda en inglés "y’all ready for this conversation" ("Ya es hora de hablar de esto"). Debajo de la foto, el usuario escribió que era hora de hablar sobre la finalización del aislamiento en prisión de Öcalan en la isla de Imrali. El usuario animaba a los lectores a iniciar un debate sobre el encarcelamiento de Öcalan y la naturaleza inhumana de la reclusión solitaria, incluido por medio de huelgas de hambre, protestas, acciones legales, artículos de opinión, grupos de lectura y memes. El contenido no abogaba por la liberación de Öcalan ni mencionaba al PKK o fomentaba la violencia.

Facebook marcó automáticamente la publicación y, tras la evaluación de un moderador, se eliminó el 12 de febrero por infringir la política sobre personas y organizaciones peligrosas. Aunque el usuario apeló la decisión ante Facebook, se le explicó que esta era definitiva y no se podría revisar debido a una reducción temporal en la capacidad de revisión de Facebook a causa del COVID-19. Sin embargo, un segundo moderador revisó el contenido y también determinó que infringía la política sobre personas y organizaciones peligrosas. El usuario recibió una notificación que explicaba que, tras una segunda revisión, se seguía sosteniendo la decisión inicial. El usuario entonces presentó una apelación ante el Consejo asesor de contenido.

El Consejo seleccionó el caso para someterlo a revisión y lo asignó a un panel. Mientras Facebook preparaba el argumento de su decisión para presentar al Consejo, descubrió parte de una pauta interna de la política sobre personas y organizaciones peligrosas que admitía el debate sobre las condiciones de reclusión de personas designadas como peligrosas. Esta pauta se había elaborado en 2017, en parte como respuesta a una inquietud internacional sobre las condiciones de encarcelamiento de Öcalan. Facebook explicó que, en 2018, esta pauta "por accidente no se trasladó" a un nuevo sistema de revisión por accidente. Tampoco se había compartido con el equipo de políticas de Facebook, que establece las reglas sobre lo que se permite en la plataforma. Si bien, técnicamente, los moderadores de contenido podían acceder a la pauta en un anexo de la capacitación, la empresa reconoce que era difícil de encontrar durante los procedimientos de revisión estándar y que el revisor en este caso no tenía acceso a ella. Esta pauta es un documento estrictamente interno diseñado para asistir a los moderadores de Facebook y no se reflejaba en las Normas comunitarias públicas de Facebook o Instagram.

Facebook supo que esta política no se estaba aplicando solo cuando el usuario decidió apelar ante el Consejo la decisión de Facebook de eliminar el contenido. Si no hubiera sido por las acciones de este usuario, posiblemente no se habría detectado nunca este error. Al 29 de junio, Facebook aún debía restaurar la política interna extraviada en la pauta para moderadores de contenido. La empresa explicó al Consejo que "trabajará para garantizar que la pauta sobre este tema que proporciona a los revisores de contenido sea clara y más accesible, a fin de evitar errores futuros en la aplicación de políticas".

Facebook restauró el contenido en Instagram el 23 de abril y notificó al Consejo que "está actualmente trabajando en una actualización de sus políticas, de modo que quede claro que los usuarios pueden debatir sobre las condiciones de reclusión de terroristas designados u otras infracciones de derechos humanos, aunque sigue prohibiendo el contenido que exalta o apoya los 'hechos de violencia' de estas personas". La empresa agradeció "la información y el asesoramiento del Consejo asesor de contenido sobre cómo lograr un equilibrio adecuado entre fomentar la libertad de expresión sobre asuntos que tienen que ver con los derechos humanos y, al mismo tiempo, garantizar que su plataforma no se use para difundir contenido que exalta o apoya a terroristas o personas violentas".

3. Autoridad y alcance

El Consejo tiene la facultad para revisar la decisión de Facebook tras una apelación del usuario cuya publicación se eliminó (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1, de los estatutos). El Consejo puede sostener o revertir esa decisión (Artículo 3, sección 5, del acta constitutiva). De conformidad con la decisión del caso 2020-004-IG-UA, la determinación de Facebook de anular una decisión que un usuario apeló no excluye al caso del proceso de revisión.

Las decisiones del Consejo son vinculantes y pueden incluir declaraciones de asesoramiento normativo con recomendaciones. Estas recomendaciones no son vinculantes, pero Facebook debe responder a ellas (Artículo 3, sección 4, del acta constitutiva).

El Consejo es un mecanismo de reclamo independiente que aborda disputas de un modo transparente y basado en principios.

4. Normas pertinentes

El Consejo asesor de contenido consideró las siguientes normas en su decisión:

I. Políticas de contenido de Facebook:

Las Normas comunitarias de Instagram establecen que, en Instagram, no se aceptan actividades ni personas que apoyen o exalten el terrorismo, el crimen organizado o los grupos que promuevan el odio. Esta sección de las Normas incluye un enlace a la norma comunitaria de Facebook sobre personas y organizaciones peligrosas (aquí figura un registro de cambio que refleja la actualización de la norma comunitaria del 23 de junio). En respuesta a una pregunta del Consejo, Facebook confirmó que las Normas comunitarias se aplican a Instagram del mismo modo en que se aplican a Facebook.

La norma comunitaria sobre personas y organizaciones peligrosas sostiene que "para evitar y prevenir daños en la vida real, no permitimos la presencia en Facebook de ninguna persona u organización que reivindique una misión violenta o cometa actos de violencia". Asimismo, en el momento en que se ejerció, la norma afirmaba que en Facebook "eliminamos el contenido que apoye o exalte a grupos, líderes o personas implicadas en estas actividades".

II. Valores de Facebook:

Los valores de Facebook se detallan en la introducción a las Normas comunitarias.

El valor de "expresión" se describe como fundamental.

Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [...] Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.

Facebook limita la "expresión" en favor de otros cuatro valores, y uno de ellos es relevante en este caso:

Seguridad: nos comprometemos a hacer de Facebook un lugar seguro. La expresión que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitida en Facebook.

III. Normas de derechos humanos:

Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En marzo de 2021, Facebook anunció su Política corporativa de derechos humanos, en la que reafirma su compromiso a respetar los derechos de conformidad con los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU. El análisis del Consejo en este caso se basó en las siguientes normas de derechos humanos:

  • Libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR); Artículo 6 de la Declaración de los Defensores de Derechos Humanos, A/RES/53/144 (1998); observación general n.° 34 del Comité de Derechos Humanos (2011); informe de la Relatora Especial sobre la libertad de opinión y de expresión, A/HRC/38/35 (2018), A/74/486 (2019); informe de la Relatora Especial de la ONU sobre los derechos humanos y la lucha contra el terrorismo, A/HRC/40/52 (2019).
  • Derecho a interponer recursos: Artículo 2 del ICCPR; observación general n.° 31 del Comité de Derechos Humanos (2004).
  • Prohibición de torturas o tratamiento o castigo cruel, inhumano o degradante: regla 43 de las Reglas Mínimas de la ONU para el Tratamiento de los Reclusos (las Reglas de Nelson Mandela) A/Res/70/175 (2016).

5. Declaración del usuario

En la apelación que presentó ante el Consejo, el usuario explicó que publicó el contenido para encender el debate sobre la filosofía de Öcalan y para poner fin a su reclusión solitaria. El usuario manifestó que, en su opinión, prohibir que se hable sobre Öcalan y su filosofía impide que se susciten debates que podrían conducir a un establecimiento pacífico de las personas de origen kurdo en Oriente Medio. Asimismo, afirmó que no deseaba promover la violencia, pero que cree que no se debería prohibir la publicación de fotos de Öcalan en Instagram. El usuario expresó que la asociación del rostro de Öcalan con organizaciones violentas no se basa en hechos, sino que se trata de calumnias y de un esfuerzo permanente por silenciar una conversación importante. Comparó el encarcelamiento de Öcalan con la del expresidente sudafricano Nelson Mandela y destacó que la comunidad internacional desempeña un papel en cuanto a poner de manifiesto el encarcelamiento de Öcalan tal como lo hizo con Mandela.

6. Explicación de la decisión de Facebook

Inicialmente, Facebook concluyó que el contenido constituía una incitación a respaldar a Öcalan y al PKK, lo que infringe la política sobre personas y organizaciones peligrosas. Öcalan fue cofundador del PKK, partido que, según Facebook, Estados Unidos designó como una organización terrorista extranjera. En función de esta designación de la organización, Facebook agregó a Öcalan a su lista de personas designadas como peligrosas. En virtud de la política sobre personas y organizaciones peligrosas, Facebook elimina todo el contenido que considera que apoya a dichas personas.

Luego de que el Consejo seleccionara el caso para revisión, Facebook lo evaluó respecto de sus políticas y descubrió que había elaborado una pauta en este ámbito en 2017. Al explicar la situación, Facebook expresó que, por accidente, no había transferido esta pauta cuando se implementó un nuevo sistema de revisión en 2018 ni la había compartido con el equipo de políticas.

Esta pauta admite contenido en el que se solicita la liberación de un terrorista si el contexto del contenido se comparte de un modo que aboga por la paz o el debate sobre el encarcelamiento de esta persona. Al aplicar esta pauta, Facebook determinó que el contenido en este caso se enmarca sin duda alguna en ella y lo restauró.

7. Comentarios de terceros

El Consejo recibió 12 comentarios del público en relación con este caso. Seis provenían de los Estados Unidos y Canadá; cuatro, de Europa; y dos, de Oriente Medio y África del Norte.

Los comentarios abarcaban temas como la falta de transparencia en torno a la política sobre personas y organizaciones peligrosas, así como su incoherencia con la legislación internacional de derechos humanos, y el hecho de que las incitaciones al debate sobre la reclusión solitaria no constituyen exaltación o apoyo.

Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.

8. Análisis del Consejo asesor de contenido

8.1 Cumplimiento de las políticas de contenido de Facebook

El Consejo determinó que la decisión de Facebook de eliminar el contenido no fue coherente con las Normas comunitarias de la empresa. La norma comunitaria sobre personas y organizaciones peligrosas no definía lo que constituía "apoyo" de una persona u organización designada como peligrosa hasta que se actualizó el 23 de junio de 2021.

En enero de 2021, el Consejo recomendó que Facebook definiera de forma pública lo que considera apoyo, exaltación o representación, y que proporcionara más ejemplos ilustrativos sobre cómo se aplica la política (caso 2020-005-FB-UA). En febrero, Facebook se comprometió a "agregar, al cabo de unas semanas, material a nuestra norma sobre personas y organizaciones peligrosas que explique que podemos eliminar contenido si no queda clara la intención, [así como] a incluir definiciones de 'exaltación', 'apoyo' y 'representación' en unos meses". El 23 de junio de 2021, Facebook actualizó esta norma para incluir las definiciones. Asimismo, el Consejo recomendó que Facebook aclarara la relación entre las Normas comunitarias de Instagram y las Normas comunitarias de Facebook (caso 2020-004-IG-UA). Al 29 de junio, Facebook aún no había informado al Consejo sobre las medidas para ejercer este compromiso.

En el presente caso, tras una solicitud del Consejo, Facebook compartió una pauta interna con los moderadores de contenido respecto del significado de "apoyo" a personas y organizaciones designadas. En ella se define "incitación a brindar apoyo" como una convocatoria para que un público tome medidas a fin de respaldar a una organización designada como peligrosa o la causa que esta promueve. Este material no se reflejó en las Normas comunitarias públicas en el momento en que se publicó el contenido y no se incluye en la actualización publicada el 23 de junio de 2021.

Asimismo, la pauta extraviada no pública elaborada en 2017 en respuesta a la reclusión solitaria de Öcalan deja claro que se admiten los debates respecto de las condiciones de encarcelamiento de una persona designada como peligrosa y que esto no constituye apoyo alguno. Ante la ausencia de otro contexto, Facebook considera las declaraciones que exigen la libertad de un terrorista como apoyo y elimina dicho contenido. Nuevamente, este material no se reflejaba en las Normas comunitarias públicas.

Al Consejo le preocupa que se haya extraviado una pauta específica para los moderadores sobre una excepción importante a la política durante tres años. Esta pauta pone de manifiesto que el contenido en este caso no infringía norma alguna. Si el Consejo no hubiera seleccionado este caso para revisión, los moderadores de contenido hubiesen seguido ignorando esta pauta y se habría eliminado una cantidad importante de expresiones a favor del interés público.

Este caso demuestra el motivo por el que las reglas públicas son importantes para los usuarios: no solo les informan acerca de lo que se espera, sino que también les ofrecen herramientas para manifestar si Facebook comete errores. El Consejo valora que Facebook se abstenga de divulgar completamente sus reglas de moderación de contenido para evitar que algunos usuarios se aprovechen de esto para difundir contenido dañino. Sin embargo, la política de Facebook que, por defecto, ordena la eliminación de contenido que muestra "apoyo" a personas designadas permitió que la empresa ignorara este error durante aproximadamente tres años sin que nadie asuma la responsabilidad y, al mismo tiempo, mantuvo ocultas del público excepciones clave. La actualización de junio de 2021 a la norma comunitaria sobre personas y organizaciones peligrosas brinda más información respecto de lo que Facebook considera "apoyo", pero no explica a los usuarios qué excepciones se podrían aplicar a dichas reglas.

Incluso aunque no se hubiera descubierto esta pauta extraviada, el contenido jamás debería haberse eliminado por considerar que se trataba de "apoyo". Este tipo de incitación no debería interpretarse como respaldo de los peligrosos propósitos que persigue el PKK. El usuario solo animaba a las personas a debatir acerca de la reclusión solitaria de Öcalan, incluido por medio de huelgas de hambre, protestas, acciones legales, artículos de opinión, grupos de lectura y memes. En consecuencia, la eliminación del contenido en este caso no hacía aporte alguno al objetivo de la política de prevenir e interrumpir daños en el mundo real.

8.2 Cumplimiento de los valores de Facebook

El Consejo determinó que la decisión de Facebook de eliminar este contenido no cumplió con los valores de "expresión" y "seguridad" de la empresa.

El usuario elaboró la publicación con cuidado con el fin de incitar un debate sobre el fin del aislamiento de Öcalan en prisión en la isla de Imrali. Motivaba a los lectores a debatir las condiciones inhumanas de la reclusión solitaria y por qué sería necesario mantener a Öcalan confinado de ese modo. El usuario promovía acciones pacíficas para suscitar este debate, pero no fomentaba la violencia ni incitaba a ella en la publicación. Tampoco expresaba apoyo a la ideología de Öcalan o al PKK.

El Consejo determinó que la expresión que cuestiona la infracción de los derechos humanos es clave para el valor de "expresión". Esto es de especial importancia en lo que atañe a los derechos de las personas detenidas, que tal vez no tengan las herramientas para abogar de manera efectiva por sus propios derechos, en particular en países en los que presuntamente se maltrata a los reclusos y se reprime la defensa de los derechos humanos.

En teoría, se comprometía el valor de "seguridad" porque el contenido hacía referencia a una persona designada como peligrosa. Sin embargo, al eliminar el contenido, no se abordó ninguna inquietud clara respecto del valor de "seguridad". El contenido no incluía lenguaje que fomentara el uso de violencia ni incitara a él. No tenía potencial de "intimidar, excluir o silenciar a otros usuarios". En lugar de ello, la decisión de Facebook reprimía de manera ilegítima la voz de una persona que se manifestaba a favor de cuestiones sobre derechos humanos.

8.3 Cumplimiento de las responsabilidades de Facebook con los derechos humanos

La eliminación de este contenido no fue coherente con el compromiso de la empresa de respetar los derechos humanos, como se estipula en su Política corporativa de derechos humanos. En relación con el contenido terrorista, Facebook es signatario de la cumbre Christchurch Call, cuyo objetivo es "eliminar" la propagación de "contenido terrorista y de violencia extremista" online. Si bien el Consejo es consciente de los asuntos relativos a los derechos humanos que pone de manifiesto la sociedad civil respecto de la cumbre Christchurch Call, exige que las empresas de medios sociales apliquen sus normas comunitarias "de un modo coherente con los derechos humanos y las libertades fundamentales".

I. Libertad de expresión (Artículo 19 del ICCPR)

El Artículo 19 afirma que todos tienen derecho a la libertad de expresión, lo que incluye la libertad de buscar, recibir e impartir información. El derecho a la libertad de expresión incluye el debate sobre derechos humanos (observación general n.º 34, párrafo 11) y es una condición necesaria para el logro de los principios de transparencia y rendición de cuentas (observación general n.º 34, párrafo 3). Asimismo, la Declaración de los Defensores de Derechos Humanos de la ONU establece que todos tienen derecho a "estudiar, debatir, formar y sostener opiniones sobre el cumplimiento, de hecho y de derecho, de todos los derechos humanos y las libertades fundamentales y, por estos y otros medios apropiados, dirigir la atención del público hacia dichos asuntos" (A/RES/53/144, Artículo 6[c]).

El usuario pretendía destacar el asunto sobre la reclusión solitaria y prolongada de una persona. El Consejo expresa que los organismos internacionales ya manifestaron inquietudes relativas a los derechos humanos que tienen que ver con dichas prácticas. Las Reglas de Nelson Mandela establecen que los Estados deberían prohibir la reclusión solitaria indefinida y prolongada por considerarse una forma de tortura o castigo cruel, inhumano o degradante (A/Res/70/175, Regla 43). El debate sobre las condiciones de detención de una persona y las presuntas infracciones de sus derechos humanos en custodia recae directamente dentro de los tipos de expresión amparados por el Artículo 19 del ICCPR, según se destaca en la Declaración de los Defensores de Derechos Humanos de la ONU que se busca proteger.

Si bien el derecho a la libertad de expresión es fundamental, no es categórico. Se puede restringir, pero al hacerlo se deberían cumplir los requisitos de legalidad, fin legítimo, necesidad y proporcionalidad (Artículo 19, párrafo 3, del ICCPR). El Comité de Derechos Humanos estipuló que las restricciones de la expresión no deberían poner en peligro el derecho en sí y enfatizó que la relación entre derecho y restricción y entre norma y excepción no se debe revertir (observación general n.º 34, párrafo 21). El Relator Especial de la ONU sobre la libertad de expresión hizo hincapié en que las empresas de medios sociales deberían intentar que sus políticas de moderación de contenido relativas a personas y organizaciones peligrosas coincidan con estos principios (A/74/486, párrafo 58 [b]).

a.Legalidad (claridad y accesibilidad de las reglas)

Las restricciones de la expresión deberían formularse con la precisión suficiente para que las personas comprendan lo que se prohíbe y actúen de manera acorde (observación general n.º 34, párrafo 25). El público también debería poder acceder a dichas reglas. Para personas encargadas de la aplicación de reglas, es importante que estas sean precisas para limitar la discreción y evitar que se tomen decisiones arbitrarias, así como para prevenir sesgos.

En el caso 2020-005-FB-UA, el Consejo recomendó que se aplique una enmienda a la norma comunitaria sobre personas y organizaciones peligrosas para incluir la definición de "representación", "exaltación" y "apoyo", y reiteró estas inquietudes en el caso 2021-003-FB-UA. El Consejo indica que ahora Facebook hizo pública las definiciones de dichos términos. El Relator Especial de la ONU sobre la libertad de expresión describió las prohibiciones de "exaltación" y "apoyo" en plataformas de medios sociales como "excesivamente ambiguas" (A/HRC/38/35, párrafo 26; consulta también la observación general n.º 34, párrafo 46). En un comentario del público presentado ante el Consejo (PC-10055), la Relatora Especial de la ONU sobre los derechos humanos y la lucha contra el terrorismo manifestó que, si bien Facebook logró aclarar en cierta medida sus reglas en este ámbito, las Normas comunitarias aún no son lo suficientemente coherentes con las leyes internacionales y, en práctica, pueden socavar ciertos derechos fundamentales, incluidos, entre otros, los derechos a la libertad de expresión, la asociación, la participación en asuntos públicos y la no discriminación. Se hicieron observaciones similares en varios comentarios del público.

El Consejo señaló que Facebook brinda pautas internas y confidenciales exhaustivas a los revisores para que interpreten las políticas de contenido públicas de la empresa a fin de garantizar que el proceso de moderación sea coherente y no arbitrario. Sin embargo, es inaceptable que las reglas clave sobre lo que se excluye de la definición de apoyo de Facebook no se reflejen en las Normas comunitarias públicas.

b. Fin legítimo

Toda restricción que se aplique a la libertad de expresión debe tener un "fin legítimo". El ICCPR enumera los fines legítimos en el Artículo 19, párrafo 3, que incluye la protección de los derechos de los demás. El Consejo indicó que, como Facebook revirtió la decisión que el usuario apeló (luego de que el Consejo seleccionara esa apelación), la empresa no intentó justificar la eliminación diciendo que perseguía un fin legítimo, sino que encuadró este procedimiento como un error.

Las Normas comunitarias explican que la política sobre personas y organizaciones peligrosas intenta prevenir e interrumpir los daños en el mundo real. Facebook informó previamente al Consejo que la política limita la expresión en favor de la protección de "los derechos de otras personas", argumento que el Consejo aceptó (caso 2020-005-FB-UA).

c. Necesidad y proporcionalidad

Para alcanzar un fin legítimo, las restricciones de la libertad de expresión deberían ser necesarias y proporcionadas. Para ello, es imprescindible que exista un vínculo directo entre la expresión y una amenaza claramente identificada (observación general n.º 34, párrafo 35). Además, las restricciones deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse (observación general 34, párrafo 34).

Tal como Facebook reconoció públicamente al revertir su decisión luego de que el Consejo seleccionar este caso, la eliminación de este contenido no fue necesaria ni proporcionada. Según el Consejo, la amplitud del término "apoyo" en las Normas comunitarias, junto con el extravío de la pauta interna sobre lo que este incluye, puso de manifiesto que la eliminación fue innecesaria y desproporcionada. En este caso, el contenido fomentaba el debate sobre el fin del aislamiento de Öcalan en reclusión solitaria prolongada. Se refería a Öcalan como persona, pero no indicaba apoyo a los hechos de violencia perpetrados por él ni por el PKK. No se pudo demostrar que hubiese intención de incitar a la violencia ni probabilidades de que, al publicar dicha afirmación y que otras personas indiquen que les gusta en la plataforma, se ocasionarían daños.

Al Consejo le preocupa en particular que Facebook haya eliminado el contenido basándose en asuntos de interés público en países con escasas protecciones institucionales y legales de los derechos humanos, en especial el de libertad de expresión (casos 2021-005-FB-UA y 2021-004-FB-UA). El Consejo comparte las inquietudes que manifestó la Relatora Especial de la ONU sobre los derechos humanos y la lucha contra el terrorismo en sus presentaciones, que indican que la "protección de los derechos humanos por debajo de los estándares óptimos en la plataforma [...] podrían tener importantes consecuencias en lo que respecta a la protección internacional de determinados derechos, la delimitación del espacio cívico y la consolidación negativa de tendencias sobre gobernanza, responsabilidad y estado de derecho en muchos entornos nacionales". El Consejo indica que la Relatora Especial de la ONU sobre la libertad de expresión expresó inquietudes específicas en este aspecto en Turquía (A/HRC/41/35/Anexo 2).

II.Derecho a interponer recursos (Artículo 2 del ICCPR)

El derecho a interponer recursos es un componente clave de la legislación internacional de derechos humanos (observación general n.º 31) y es el tercer pilar de los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU. La Relatora Especial de la ONU sobre la libertad de expresión señaló que el proceso de reparación "debería incluir un procedimiento transparente y accesible para apelar las decisiones de la plataforma y que las empresas deberían proporcionar una respuesta fundamentada que también sea de acceso público" (A/74/486, párrafo 53).

En este caso, se le informó al usuario que, debido al COVID-19, no estaba disponible el proceso de apelación. Sin embargo, se llevó a cabo una apelación finalmente. El Consejo una vez más hace hincapié en la necesidad de que Facebook restablezca el proceso de apelaciones de conformidad con las recomendaciones en los casos 2020-004-IG-UA y 2021-003-FB-UA.

Si bien en este caso se restauró el contenido del usuario, al Consejo le preocupa que haya habido una cantidad significativa de eliminaciones que no deberían haberse llevado a cabo, pero que ocurrieron porque Facebook extravió la pauta interna que admitía el debate sobre las condiciones de reclusión de personas designadas. Facebook informó al Consejo que, en este momento, está analizando el motivo por el que no trasladó esta pauta al nuevo sistema de revisión y si se extraviaron otras políticas. Sin embargo, en respuesta a una pregunta del Consejo, la empresa afirmó que "desde el punto de vista técnico, no es posible determinar cuántos contenidos se eliminaron cuando esta pauta no estaba disponible para los revisores".

Al Consejo le preocupa que los informes de transparencia de Facebook no basten para evaluar de forma significativa si el tipo de error identificado en este caso refleja un problema sistémico. En preguntas formuladas a Facebook, el Consejo solicitó más información sobre las tasas de errores en la aplicación de las reglas sobre "exaltación" y "apoyo" de personas y organizaciones peligrosas. Facebook explicó que no recopiló las tasas de errores en el nivel de las reglas individuales dentro de la política sobre personas y organizaciones peligrosas ni en relación con la aplicación de excepciones específicas incluidas únicamente en su pauta interna. Facebook señaló al Consejo información pública disponible sobre la cantidad de contenido restaurado tras haberse eliminado equivocadamente por infringir la política sobre personas y organizaciones peligrosas. El Consejo manifiesta que esta información no brinda el mismo tipo de detalle que se reflejaría en las auditorías internas y el control de calidad y que permitiría evaluar la precisión de la aplicación de políticas. Si bien Facebook reconoció que, de manera interna, desglosa las tasas de errores en las decisiones de aplicación de políticas que toman los moderadores y el sistema de automatización, se negó a proporcionar esta información al Consejo con el argumento de que "no es razonablemente necesaria para la toma de decisiones de conformidad con la intención del acta constitutiva".

Asimismo, el Consejo preguntó a Facebook si el contenido se puede apelar ante este organismo cuando se elimina por infringir las Normas comunitarias luego de que un Gobierno lo marque. Facebook confirmó que dichos casos se pueden apelar ante el Consejo. Esto difiere del contenido eliminado tras una solicitud gubernamental a fin de cumplir con la legislación local, que se excluye del proceso de revisión en virtud del Artículo 2, sección 1.2, de los estatutos. Aunque el Consejo no tiene fundamentos para creer que el contenido fue sujeto de la derivación de un gobierno, le preocupa que no se le notifique ni al Consejo ni a los usuarios cuyo contenido se eliminó de conformidad con las Normas comunitarias si un Gobierno estuvo implicado en dicha eliminación. Este asunto puede tener particular relevancia en lo que respecta a las decisiones de aplicación de políticas que, más adelante, se identifican como errores, así como a los casos en que los usuarios sospechan que hubo intervención del Gobierno, pero no fue así. Los informes de transparencia de Facebook también se limitan en este sentido. Incluyen estadísticas sobre las solicitudes legales de los Gobiernos para que se elimine contenido de conformidad con la legislación local, pero no contienen datos sobre el contenido que se elimina por infringir las Normas comunitarias luego de que un Gobierno lo marque.

Todas estas inquietudes indican que Facebook no está respetando el derecho a interponer recursos, lo que infringe su Política corporativa de derechos humanos (sección 3).

9. Decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló la decisión original de Facebook de eliminar el contenido y exige que se restaure la publicación. El Consejo señala que Facebook aceptó que no era correcta su decisión original y ya restableció el contenido.

10. Declaraciones de asesoramiento normativo

Como se mencionó anteriormente, Facebook modificó su norma comunitaria sobre personas y organizaciones peligrosas tras solicitar asesoramiento al Consejo sobre cómo debería funcionar esta norma. Estas recomendaciones tienen en cuenta las actualizaciones que hizo Facebook.

La pauta interna extraviada

Pendiente de más cambios a la política pública sobre personas y organizaciones peligrosas, el Consejo recomienda que Facebook tome las siguientes medidas provisorias para reducir la aplicación errónea de la política actual:

1. Restablezca de inmediato la pauta extraviada de 2017 en las normas de implementación interna y en las preguntas frecuentes (la pauta interna para moderadores de contenido), informe a todos los moderadores de contenido que existe dicha pauta y brinde capacitación inmediata sobre ella.

2. Evalúe los procesos de moderación automatizados para la aplicación de la política sobre personas y organizaciones peligrosas y, cuando sea necesario, actualice los clasificadores a fin de que se excluyan datos de capacitación de errores de aplicación de políticas anteriores que ocasionaron que no se ejerza la pauta de 2017. Se deben agregar nuevos datos de capacitación que reflejen que se restableció esta pauta.

3. Publique los resultados del proceso de revisión en curso para determinar si se pasó por alto alguna otra política, como descripciones de todas las políticas extraviadas, el período durante el cual se extraviaron y las medidas tomadas para restablecerlas.

Actualizaciones de la política sobre personas y organizaciones peligrosas

Facebook notificó al Consejo que se encuentra trabajando en una actualización de sus políticas a fin de que quede claro que las reglas sobre "exaltación" y "apoyo" no prohíben el debate sobre las condiciones de reclusión de personas designadas u otras infracciones de sus derechos humanos.

Como contribución inicial a este proceso de desarrollo de políticas, el Consejo recomienda que Facebook:

4. Refleje en las "bases" de la política sobre personas y organizaciones peligrosas que el respeto por los derechos humanos y la libertad de expresión, en particular un debate abierto sobre los abusos y las infracciones de derechos humanos que se relacionan con el terrorismo y las iniciativas de lucha contra esta sucesión de actos de violencia, puede contribuir al valor de "seguridad" y que es importante que la plataforma propicie un espacio para que se entablen estos debates. Si bien los valores de "seguridad" y "expresión" pueden contradecirse en ocasiones, las bases de la política deberían especificar en mayor detalle los "daños en el mundo real" que la política busca evitar e interrumpir cuando se reprime el valor de "expresión".

5. Agregue a la política sobre personas y organizaciones peligrosas una explicación clara de lo que excluye el término "apoyo". Los usuarios deberían ser libres para debatir supuestos abusos e infracciones de los derechos humanos de miembros de organizaciones designadas. Esto no debería limitarse a personas detenidas. Se debería incluir el debate sobre los derechos que amparan las convenciones de derechos humanos de la ONU, según se cita en la Política corporativa de derechos humanos de Facebook. Se deberían permitir, por ejemplo, debates sobre denuncias de tortura o tratamiento o castigo cruel, inhumano o degradante, infracciones del derecho a un juicio justo, así como ejecuciones extrajudiciales, sumarias o arbitrarias, desaparición forzosa, entrega y revocación extraordinarias de ciudadanía que dejan a una persona en condición de apátrida. También deberían protegerse las solicitudes de responsabilidad por infracciones y abusos de los derechos humanos. Se debería excluir de la protección el contenido que incita a actos de violencia o recluta personas para que se unan o de otro modo brinden apoyo material a organizaciones que Facebook haya designado, incluso si dicho contenido analiza también cuestiones relativas a los derechos humanos. La intención del usuario, el contexto general en el que hace una publicación y la interpretación que hacen otros usuarios de ella son factores clave para determinar la probabilidad de daños reales que podría ocasionar dicha publicación.

6. Explique en las Normas comunitarias cómo los usuarios pueden dejar clara la intención de su publicación ante Facebook. Para ello, se debe implementar la recomendación actual del Consejo de divulgar públicamente la lista de personas y organizaciones designadas de la empresa (consulta el caso 2020-005-FB-UA). Asimismo, Facebook debería brindar ejemplos ilustrativos que demuestren la línea que divide el contenido prohibido del admitido, incluido en relación con la aplicación de la regla que aclara lo que se excluye del término "apoyo".

7. Garantice la participación de partes interesadas importantes en los cambios propuestos para la política por medio del Foro de políticas de productos de Facebook, incluido a través de una solicitud pública de opiniones. Facebook debería propiciar esta participación en varios idiomas y en diversas regiones, para garantizar que se forje un diálogo efectivo con las personas más afectadas por los daños que esta política intenta prevenir. También se debería incluir a organizaciones de derechos humanos, sociedad civil y académicos con conocimiento especializado en dichos daños, así como en los daños que pueden surgir al excederse en la aplicación de la política actual.

8. Se asegure de que los moderadores reciban capacitación y asesoramiento interno respecto de cualquier política nueva. Los moderadores de contenido deberían recibir los recursos adecuados para poder entender la nueva política y contar con el tiempo suficiente para tomar decisiones al aplicar dicha política.

Debido proceso

Para reforzar el debido proceso de usuarios cuyo contenido se elimina, es necesario que Facebook:

9. Garantice que los usuarios reciban una notificación cuando se elimine su contenido. La notificación debería indicar si la eliminación se debe a una solicitud gubernamental o a una infracción de las Normas comunitarias, o bien al reclamo de un Gobierno que manifiesta que se infringió una ley nacional (y el alcance jurisdiccional de dicha eliminación).

10. Aclare a los usuarios de Instagram que las Normas comunitarias de Facebook se aplican a Instagram del mismo modo en que se aplican a Facebook, de conformidad con la recomendación del caso 2020-004-IG-UA.

Informes de transparencia

Para que el público sepa mejor cómo se implementa de manera efectiva la política revisada, se espera que Facebook:

11. Incluya información sobre la cantidad de solicitudes de eliminación de contenido que Facebook recibe de los Gobiernos en función de infracciones de las Normas comunitarias (en lugar de infracciones de la legislación nacional), y el resultado de dichas solicitudes.

12. Incluya información más integral respecto de las tasas de errores en la aplicación de las reglas sobre "exaltación" y "apoyo" de personas y organizaciones peligrosas, desglosada por región e idioma.

* Nota de procedimiento:

La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones no necesariamente representan las opiniones personales de todos los miembros.

En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo, ofrecen sus conocimientos sobre contextos culturales y sociopolíticos.

Volver a Decisiones de casos y opiniones consultivas sobre políticas