El Consejo asesor de contenido anuló la decisión original de Facebook: Caso 2021-006-IG-UA
8 de julio de 2021
El Consejo asesor de contenido anuló la decisión original de Facebook de eliminar una publicación de Instagram que alentaba a las personas a debatir la reclusión solitaria de Abdullah Öcalan, un miembro fundador del Partido de los Trabajadores de Kurdistán (PKK). Luego de que el usuario presentara una apelación y el Consejo seleccionara el caso para someterlo a revisión, Facebook concluyó que el contenido se había eliminado por error y lo restauró. Al Consejo le preocupa el hecho de que Facebook haya traspapelado la excepción de una política interna durante tres años y que esto pueda haber llevado a la eliminación errónea de muchas otras publicaciones.
Información sobre el caso
El caso se relaciona con Abdullah Öcalan, un miembro fundador del PKK. Para alcanzar su objetivo de establecer un estado kurdo independiente, el grupo recurrió a la violencia. Tanto el PKK como Öcalan fueron designados como entidades peligrosas de conformidad con la política sobre personas y organizaciones peligrosas de Facebook.
El 25 de enero de 2021, un usuario de Instagram en los Estados Unidos publicó una foto de Öcalan con una leyenda, que traducida indicaba: "Ya es hora de hablar de esto". En el pie de foto, el usuario escribió que era hora de hablar sobre el fin del aislamiento de Öcalan en la isla-prisión de Imrali en Turquía. El usuario alentaba a los lectores a hablar sobre su encarcelamiento y la naturaleza inhumana de la reclusión solitaria.
Tras la evaluación de un moderador, la publicación se eliminó el 12 de febrero de conformidad con las reglas de Facebook sobre personas y organizaciones peligrosas por constituir una incitación a apoyar a Öcalan y al PKK. Cuando el usuario apeló esta decisión, se le explicó que la apelación no se revisaría debido a una reducción temporal en la capacidad de revisión de Facebook a causa del COVID-19. Sin embargo, un segundo moderador sí realizó una revisión del contenido y determinó que infringía la misma política. El usuario entonces presentó una apelación ante el Consejo asesor de contenido.
Una vez que el Consejo seleccionó este caso y lo asignó al panel, Facebook determinó que parte de una norma interna relacionada con la política sobre personas y organizaciones peligrosas "por accidente no se trasladó" a un nuevo sistema de revisión en 2018. Esta norma, elaborada en 2017 en parte como respuesta a una inquietud sobre las condiciones de encarcelamiento de Öcalan, permite el debate sobre las condiciones de reclusión de personas designadas como peligrosas.
De acuerdo con esta norma, Facebook restauró el contenido en Instagram el 23 de abril. Facebook informó al Consejo que se encuentra trabajando en una actualización de sus políticas a fin de permitir que los usuarios debatan sobre los derechos humanos de personas designadas como peligrosas. La empresa solicitó al Consejo información y asesoramiento sobre cómo mejorar estas políticas. Si bien Facebook actualizó su norma comunitaria sobre personas y organizaciones peligrosas el 23 de junio de 2021, estos cambios no afectan de forma directa al asesoramiento que la empresa solicitó al Consejo.
Conclusiones principales
El Consejo determinó que la decisión original de Facebook de eliminar el contenido no fue coherente con las Normas comunitarias de la empresa. Como la norma interna traspapelada especifica que los usuarios pueden debatir sobre las condiciones de reclusión de personas designadas como peligrosas, la publicación debería haber sido admitida en función de las reglas de Facebook.
Al Consejo le preocupa que Facebook haya pasado por alto una norma específica sobre una excepción importante de la política durante tres años. Este error pasó desapercibido durante mucho tiempo debido al hecho de que ciertas excepciones clave se mantuvieran ocultas del público y a que la política de Facebook, por defecto, ordena la eliminación de contenido que muestra "apoyo" a personas designadas. Facebook supo que esta política no se estaba aplicando solo cuando el usuario decidió apelar ante el Consejo la decisión de la empresa.
Si bien Facebook le comunicó al Consejo que está llevando a cabo un análisis para determinar cómo no logró transferir esta norma al nuevo sistema de revisión, también manifestó que "no es técnicamente posible determinar cuántos contenidos se eliminaron cuando los revisores no contaban con la norma de esta política". El Consejo considera que, debido al error de Facebook, es posible que se hayan eliminado por equivocación muchas otras publicaciones y que los informes de transparencia de Facebook no bastan para evaluar si este tipo de error refleja un problema del sistema. Las acciones de Facebook en este caso indican que la empresa no está respetando el derecho a interponer recursos, lo que infringe su Política corporativa de derechos humanos (sección 3).
Incluso si no se hubiera descubierto que se pasó por alto esta norma, el contenido jamás debería haberse eliminado. Con su publicación, el usuario no respaldaba la violencia ni expresaba apoyo a la ideología de Öcalan ni al PKK. En lugar de ello, lo que buscaba era poner de manifiesto inquietudes relativas a los derechos humanos que tenían que ver con la reclusión solitaria prolongada de Öcalan, sobre la que otros organismos internacionales también se manifestaron. Como era poco probable que la publicación ocasionara daños, no era necesario ni proporcionado eliminarla de conformidad con normas de derechos humanos internacionales.
Decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló la decisión original de Facebook de eliminar el contenido. El Consejo señala que Facebook ya lo restauró.
En una declaración de asesoramiento normativo, el Consejo recomendó que Facebook:
- Restaure de inmediato la norma traspapelada de 2017 en las Normas de implementación internas y en las preguntas frecuentes (la norma interna para moderadores de contenido).
- Evalúe los procesos de moderación automatizados para confirmar que la aplicación de la política sobre personas y organizaciones peligrosas sea correcta. Si es necesario, Facebook debe actualizar sus clasificadores a fin de excluir datos de entrenamiento correspondientes al período anterior a que se cometieran los errores de aplicación de la política que condujeron a la omisión indebida de la norma de 2017.
- Publique los resultados del proceso de revisión en curso para determinar si se pasó por alto alguna otra política, incluidas descripciones de todas las políticas traspapeladas, el período durante el cual se ignoraron y las medidas tomadas para restaurarlas.
- Se asegure de que las "bases" de la política sobre personas y organizaciones peligrosas reflejen que el respeto por los derechos humanos y la libertad de expresión puede fomentar el valor de "seguridad". Las bases de la política deberían especificar en mayor detalle los "daños en el mundo real" que la política busca evitar e interrumpir cuando se reprime el valor de "expresión".
- Agregue a la política una explicación clara de lo que excluye el término "apoyo". Los usuarios deberían ser libres para debatir supuestos abusos de los derechos humanos de miembros de organizaciones designadas.
- Explique en las Normas comunitarias cómo los usuarios pueden dejar clara la intención de su publicación ante Facebook.
- Garantice la participación de partes interesadas importantes en los cambios propuestos a la política sobre personas y organizaciones peligrosas por medio del Foro de políticas de productos de Facebook, incluida una solicitud pública de opiniones.
- Se asegure de que los moderadores reciban capacitación y asesoramiento interno respecto de los cambios propuestos para las políticas.
- Garantice que los usuarios reciban una notificación cuando se elimine su contenido. La notificación debería indicar si la eliminación se debe a una solicitud gubernamental o a una infracción de las Normas comunitarias, o bien al reclamo de un Gobierno que manifiesta que se infringió una ley nacional (y el alcance jurisdiccional de dicha eliminación).
- Aclare a los usuarios de Instagram que las Normas comunitarias de Facebook se aplican a Instagram del mismo modo en que se aplican a Facebook.
- Incluya información en sus informes de transparencia sobre la cantidad de solicitudes de eliminación de contenido presentadas por gobiernos en función de infracciones de las Normas comunitarias (en lugar de infracciones de la legislación nacional), y el resultado de dichas solicitudes.
- Incluya información más integral en sus informes de transparencia respecto de las tasas de errores en la aplicación de las reglas sobre "exaltación" y "apoyo" de personas y organizaciones peligrosas, desglosada por región e idioma.
Más información:
Para leer la decisión completa del caso, haz clic aquí.
Para leer una sinopsis de los comentarios públicos del caso, haz clic aquí.