El Consejo asesor de contenido mantuvo la decisión original de Meta: caso 2021-014-FB-UA
14 de diciembre de 2021
El 28 de octubre de 2021, Facebook anunció que cambiaba el nombre de la empresa a Meta. En este texto, Meta hace referencia a la empresa, y Facebook continúa haciendo referencia al producto y a las políticas de la app específica.
El Consejo asesor de contenido sostuvo la decisión original de Meta de eliminar una publicación donde se alegaba la participación de civiles étnicos tigrayanos en atrocidades cometidas en la región de Amhara, Etiopía. No obstante, dado que Meta restableció la publicación luego de que el usuario presentara una apelación ante el Consejo, la empresa debió volver a eliminar el contenido de la plataforma.
Información sobre el caso
A finales de julio de 2021, un usuario de Facebook de Etiopía hizo una publicación en amárico. En ella, se alegaba que el Frente de Liberación Popular de Tigray (TPLF) asesinó y violó a mujeres y niños, y saqueó las propiedades de civiles en Raya Kobo y otras ciudades de la región de Amhara, en Etiopía. El usuario también afirmó que los civiles étnicos tigrayanos ayudaron al TPLF a perpetrar estas atrocidades. El usuario indica en la publicación que recibió la información de los residentes de Raya Kobo. El usuario terminó la publicación con estas palabras: "Nuestra lucha nos liberará".
Luego de que los sistemas de idiomas automáticos en amárico de Meta marcaran la publicación, un moderador determinó que dicho contenido infringía la norma comunitaria sobre lenguaje que incita al odio de Facebook y lo eliminó. Cuando el usuario apeló la decisión de Meta, un segundo moderador confirmó que la publicación infringía las Normas comunitarias de Facebook. Ambos moderadores pertenecen al equipo de revisión de contenido en amárico de Meta.
Luego, el usuario presentó una apelación ante el Consejo asesor de contenido. Después de que el Consejo seleccionara este caso, Meta admitió que la decisión original de eliminar la publicación fue incorrecta y la restableció el 27 de agosto. Meta indicó al Consejo que, generalmente, suele notificar a los usuarios cuando se restablece contenido el mismo día en que esto ocurre. Sin embargo, debido a un error humano, Meta informó a este usuario que la publicación se había restaurado el 30 de septiembre, más de un mes más tarde. Esta notificación se envió luego de que el Consejo le preguntara a Meta si le había notificado al usuario sobre el restablecimiento del contenido.
Conclusiones principales
El Consejo determinó que el contenido infringía la norma comunitaria sobre violencia e incitación de Facebook.
Si bien Meta eliminó inicialmente la publicación por infringir la norma comunitaria sobre lenguaje que incita al odio, la empresa restauró el contenido luego de que el Consejo seleccionara el caso, ya que Meta manifestaba que este no iba en contra del grupo étnico tigray y que las acusaciones del usuario no constituían lenguaje que incita al odio. El Consejo determina que la justificación para restaurar el contenido carece de detalles y es incorrecta.
En su lugar, el Consejo aplicó la norma comunitaria sobre violencia e incitación de Facebook a esta publicación. Esta norma prohíbe "la información errónea y los rumores que no se pueden verificar que contribuyan al riesgo de violencia o daños físicos inminentes". El Consejo afirma que el contenido en este caso contiene un rumor que no se puede verificar, de conformidad con la definición del término que elaboró Meta. Si bien el usuario manifiesta que se basó en informes anónimos anteriores y testimonios de personas del lugar, no brinda evidencia circunstancial que respalde sus acusaciones. Los rumores de que un grupo étnico es cómplice de atrocidades en masa, como se indica en esta publicación, son peligrosos y aumentan de forma exponencial el riesgo de violencia inminente.
El Consejo también determinó que la eliminación de la publicación es coherente con las responsabilidades de Meta como empresa con los derechos humanos. Los rumores infundados en un conflicto actual en auge podrían ocasionar atrocidades graves, como ocurrió con el caso en Myanmar. En la decisión 2020-003-FB-UA, el Consejo afirmó que "sobre todo en situaciones de conflicto armado, la acumulación y difusión de expresiones deshumanizadoras e incitadoras de odio en una plataforma suponen un alto riesgo, ya que pueden generar acciones en el mundo real que afecten los derechos a la seguridad y, potencialmente, a la vida". El impacto acumulativo puede culminar en acciones por medio de un "efecto de acumulación gradual", como ocurrió en el genocidio ruandés.
El Consejo tomó esta decisión teniendo en cuenta la contraposición entre proteger la libertad de expresión y reducir la amenaza de un conflicto sectario. El Consejo sabe de la participación de civiles en las atrocidades cometidas en diversas partes de Etiopía, aunque no en Raya Kobo, y que Meta no pudo verificar los hechos que se alegaban en la publicación en el momento en que se hizo. El Consejo sabe también que las denuncias verdaderas de delitos pueden salvar vidas en zonas de conflicto, mientras que aquellas no fundamentadas sobre la participación de civiles en los conflictos pueden aumentar el riesgo de violencia en el corto plazo.
Decisión del Consejo asesor de contenido
El Consejo mantuvo la decisión original de Meta de eliminar la publicación. Dado que Meta restableció el contenido luego de que el usuario presentara una apelación ante el Consejo, la empresa debió volver a eliminarlo de la plataforma.
En su declaración de asesoramiento normativo, el Consejo recomendó que Meta haga lo siguiente:
- Reformule el valor de "seguridad" para reflejar que el lenguaje que incita al odio en internet puede suponer un riesgo para la seguridad física de las personas y el derecho a la vida, además de los riesgos de intimidación, exclusión y silenciamiento.
- Refleje en las Normas comunitarias de Facebook que, en un contexto de guerra y conflictos violentos, los rumores que no se pueden verificar ponen en mayor riesgo los derechos a la vida y la seguridad de las personas. Esto debería mostrarse en todos los niveles del proceso de moderación.
- Solicite una evaluación de debida diligencia independiente sobre derechos humanos a fin de determinar cómo se usan Facebook e Instagram para difundir lenguaje que incita al odio y rumores infundados que aumentan el riesgo de violencia en Etiopía. En dicha evaluación, se debe revisar la eficacia de las medidas que Meta tomó para prevenir el uso indebido de sus productos y servicios en Etiopía, así como de aquellas que tomó para hacer posible la elaboración de informes corroborados de interés público sobre los delitos que atentan contra los derechos humanos en Etiopía. La evaluación también debe analizar las funciones de idioma de Meta en Etiopía y si estas son adecuadas para proteger los derechos de los usuarios. Asimismo, debe abarcar el período comprendido entre el 1 de junio de 2020 y el presente. La empresa debe realizar la evaluación en un plazo de seis meses desde el momento en que responde a estas recomendaciones. La evaluación debe publicarse en su totalidad.
Más información:
Para leer la decisión completa del caso, haz clic aquí.
Para leer una sinopsis de los comentarios del público sobre el caso, haz clic en el archivo adjunto a continuación.