El Consejo asesor de contenido anuló la decisión original de Facebook: Caso 2021-003-FB-UA
29 de abril de 2021
El Consejo asesor de contenido anuló la decisión de Facebook de eliminar una publicación en virtud de su norma comunitaria sobre personas y organizaciones peligrosas. Después de que el Consejo seleccionara este caso para revisión, Facebook restauró el contenido. Al Consejo le preocupaba que Facebook no había revisado la apelación del usuario en relación con la decisión original. Además, el Consejo instó a la empresa a tomar medidas a fin de evitar errores que supriman la libertad de expresión de minorías religiosas.
Información sobre el caso
En noviembre de 2020, un usuario compartió una publicación con video de la empresa de medios online en punyabí, Global Punjab TV. En ella se mostraba una entrevista de 17 minutos con el profesor Manjit Singh, a quien describen como un "activista social y defensor de la cultura punyabí". La publicación también incluía un texto que mencionaba a la organización nacionalista hindú Rashtriya Swayamsevak Sangh (RSS) y al partido dirigente de la India Bharatiya Janata Party (BJP): "RSS es la nueva amenaza. Ram Naam Satya Hai. El BJP se trasladó al extremismo".
En el texto que acompañaba la publicación, el usuario afirmaba que la RSS amenazaba con asesinar a los sijes, una minoría religiosa de la India, y que se repetiría la "saga mortal" de 1984, cuando pandillas hindúes masacraron y quemaron a hombres, mujeres y niños de esta religión. A continuación, el usuario manifestó que el primer ministro Modi está proclamando la amenaza de "genocidio de los sijes", aconsejado por el presidente de la RSS, Mohan Bhagwat. El usuario afirmaba también que los regimientos sijes en el ejército advirtieron al primer ministro Modi sobre su disposición a morir para proteger a los agricultores sijes y su tierra en Punyab.
Luego de que un usuario reportara la publicación, un revisor determinó que esta infringía la norma comunitaria sobre personas y organizaciones peligrosas de Facebook y procedió a eliminarla. Esto activó una restricción automática en la cuenta del usuario. Facebook le informó a este usuario que no podía revisar la apelación contra la eliminación del contenido porque su capacidad de revisión se había reducido temporalmente a causa del COVID-19.
Principales conclusiones
Luego de que el Consejo seleccionara este caso para someterlo a revisión y antes de que se asignara a un panel, Facebook se dio cuenta de que el contenido se había eliminado por equivocación y lo restauró. Facebook indicó que ninguno de los grupos o las personas mencionados en el contenido se designan como "peligrosos" de conformidad con sus reglas. La empresa tampoco logró identificar los términos específicos en la publicación que ocasionaron que se eliminara por error.
El Consejo determinó que la decisión original de Facebook de eliminar la publicación no fue coherente con las Normas comunitarias de la empresa ni con su responsabilidad para con los derechos humanos.
Asimismo, el Consejo manifestó que la publicación destacaba las inquietudes respecto de la libertad de expresión de las minorías y de la oposición en la India, a las que el Gobierno presuntamente discrimina. Es de particular importancia que Facebook tome medidas para evitar cometer errores que silencien estas voces. Pese a tener en cuenta las circunstancias particulares debido al COVID-19, el Consejo indicó que Facebook no revisó este contenido con el tiempo y la atención adecuados. Expresó que los usuarios deberían poder apelar casos ante Facebook antes de acudir al Consejo e instó a la empresa a priorizar el restablecimiento de su capacidad de revisión.
Teniendo en cuenta los argumentos mencionados, el Consejo consideró particularmente desproporcionadas las restricciones impuestas a la cuenta del usuario, que quedó excluido de Facebook. Asimismo, manifestó inquietudes respecto de las reglas de Facebook relativas a dichas restricciones, ya que se aplican en muchas ubicaciones, pero no todas se incluyen en las Normas comunitarias, como sería de esperar.
Por último, el Consejo manifestó que los informes de transparencia de Facebook no permiten evaluar fácilmente si la aplicación de la política sobre personas y organizaciones peligrosas incide particularmente en hablantes de una lengua minoritaria o en minorías religiosas de la India.
Decisión del Consejo asesor de contenido
El Consejo anuló la decisión original de Facebook de eliminar el contenido. En una declaración de asesoramiento sobre políticas, el Consejo recomendó que Facebook:
- Traduzca las Normas comunitarias y las Normas de implementación internas al punyabí. Facebook también debería brindar acceso a las Normas comunitarias en todos los idiomas de uso extendido que hablan los usuarios.
- Reanude la revisión manual de decisiones de moderación de contenido y el acceso a procesos de apelación manuales a los niveles previos a la pandemia lo antes posible y, al mismo tiempo, proteja la salud del personal y los contratistas de Facebook.
- Aumente la información pública relativa a la tasa de errores. Para ello, debe incluir esta información en sus informes de transparencia por país e idioma para cada norma comunitaria.
Más información:
Para leer la decisión completa del caso, haz clic aquí.
Para leer una sinopsis de los comentarios públicos del caso, haz clic aquí.