Confirmado
Consejo de comunicaciones de Tigray
El Consejo asesor de contenido ratificó la decisión de Meta de eliminar una publicación que incluía amenazas violentas en relación con el conflicto en Etiopía
Esta decisión también está disponible en amárico, oromo y tigriña.
ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ።
Murtii guutuu kan Afaan Oromoo dubbisuuf as tuqi
ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ።
Resumen del caso
El Consejo asesor de contenido ratificó la decisión de Meta de eliminar una publicación que incluía amenazas violentas en relación con el conflicto en Etiopía. El contenido infringía la norma comunitaria sobre violencia e incitación de Meta, por lo que eliminarlo fue coherente con las responsabilidades de la empresa respecto de los derechos humanos. En general, el Consejo determinó que Meta debe intensificar sus acciones para cumplir con sus responsabilidades respecto de los derechos humanos en situaciones de conflicto e hizo recomendaciones normativas para abordar este tema.
Información sobre el caso
El 4 de febrero de 2022, Meta remitió un caso al Consejo acerca de contenido que se había publicado en Facebook durante un período en que la violencia relacionada con el conflicto de Etiopía era cada vez mayor (el pueblo tigrayano y las fuerzas gubernamentales estaban enfrentados desde noviembre de 2020).
La publicación apareció en la página oficial del Consejo de comunicaciones del estado regional de Tigray y tuvo más de 300.000 visualizaciones. Hablaba sobre las pérdidas sufridas por las fuerzas federales y animaba al ejército nacional a abrir fuego contra el grupo de Abiy Ahmed. Abiy Ahmed es el primer ministro de Etiopía. En la publicación, también se instaba a las fuerzas gubernamentales a rendirse y decía que morirían si se negaban a hacerlo.
Después de que usuarios reportaran el contenido y de que los sistemas automatizados de Meta lo identificaran, dos revisores que hablaban amárico lo evaluaron. Determinaron que la publicación no infringía las políticas de Meta y la dejaron en la plataforma.
En ese momento, Meta gestionaba un centro de operaciones de productos relativos a la integridad (IPOC) para Etiopía. Meta usa los IPOC para mejorar la moderación en situaciones de alto riesgo. Funcionan durante un período breve (días o semanas) y reúnen a expertos para supervisar las plataformas de Meta y abordar cualquier tipo de abuso. A través del IPOC, se envió la publicación para que la revisara un experto, se determinó que infringía la política sobre violencia e incitación de Meta, y se eliminó dos días después.
Conclusiones principales
El Consejo está de acuerdo con la decisión de Meta de eliminar la publicación de Facebook.
El conflicto de Etiopía estuvo marcado por violencia sectaria e infracciones contra leyes internacionales. En este contexto, y dado el perfil y el alcance de la página, existía un alto riesgo de que la publicación pudiera causar más violencia.
En consecuencia, el Consejo está de acuerdo con que fue necesaria la eliminación de la publicación conforme a la norma comunitaria sobre violencia e incitación de Meta, que prohíbe las declaraciones de intención de cometer actos de violencia de gravedad alta. La eliminación también estuvo en consonancia con los valores de Meta: dadas las circunstancias, los valores de "seguridad" y "dignidad" prevalecen por sobre la "expresión". El Consejo también determinó que la eliminación de la publicación se alineó con las responsabilidades de Meta respecto de los derechos humanos y que se trató de una restricción justificable a la libertad de expresión.
Desde hace mucho tiempo, Meta sabe que sus plataformas se usan para difundir lenguaje que incita al odio y alimentar la violencia en situaciones de conflicto. La empresa tomó medidas positivas para mejorar la moderación de contenido en algunas zonas de conflicto. Sin embargo, en general, el Consejo determinó que Meta tiene una responsabilidad respecto de los derechos humanos por la que debe establecer un sistema transparente y fundamentado para moderar el contenido en zonas de conflicto, con el fin de disminuir el riesgo de que sus plataformas se usen para incitar a la violencia o cometer infracciones contra leyes internacionales. Debe intensificar sus acciones para cumplir esa responsabilidad.
Por ejemplo, Meta proporciona información insuficiente respecto de cómo implementa su política sobre violencia e incitación en situaciones de conflicto armado, qué excepciones a las políticas están disponibles o cómo se usan. En su enfoque actual sobre la moderación de contenido en zonas de conflicto, hay indicios de inconsistencia. Algunos observadores acusaron a la empresa de tratar el conflicto de Rusia y Ucrania de forma diferente con respecto a otros.
Si bien Meta afirmó que compila un registro de países "en riesgo" (con el que orienta la asignación de sus recursos), no proporciona información suficiente para que el Consejo evalúe la imparcialidad o eficacia de este proceso. En este caso, se eliminó el contenido gracias al IPOC. Sin embargo, este permaneció en la plataforma durante dos días, lo que sugiere que el sistema de clasificación de países "en riesgo" y los IPOC no son adecuados para lidiar con situaciones de conflicto. De acuerdo con Meta, los IPOC "no están diseñados para ser una solución sostenible a largo plazo para manejar un conflicto de años". El Consejo indicó que es posible que Meta deba invertir en un mecanismo más duradero.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó la decisión de Meta de eliminar la publicación.
Además, realizó las siguientes recomendaciones:
- Meta debería publicar información sobre su protocolo de políticas ante crisis en el Centro de transparencia.
- Meta debería evaluar la viabilidad de establecer un mecanismo interno continuo que le proporcione la pericia, capacidad y coordinación necesarias para revisar contenido y responder ante este con eficacia durante épocas de conflicto.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido ratificó la decisión de Meta de eliminar el contenido de Facebook por infringir la norma comunitaria sobre violencia e incitación. El Consejo determinó que la eliminación del contenido en este caso fue coherente con las responsabilidades de Meta respecto de los derechos humanos en un conflicto armado. El Consejo también indicó que Meta tiene la responsabilidad de establecer un sistema transparente y fundamentado para moderar el contenido en zonas de conflicto, con el fin de mitigar el riesgo de que sus plataformas se usen para incitar a la violencia o cometer infracciones contra leyes humanitarias o derechos humanos internacionales. El Consejo reiteró la obligación de Meta de adoptar todas las medidas que tienen como objetivo cumplir con su responsabilidad de respetar la mayor diligencia debida en materia de derechos humanos en este contexto.
2. Descripción del caso y contexto
El 4 de febrero de 2022, Meta remitió un caso al Consejo acerca de contenido que se había publicado en Facebook el 5 de noviembre de 2021. El contenido se publicó en la página Tigray Communication Affairs Bureau, donde se indica que es la página oficial del Consejo de comunicaciones del estado regional de Tigray (TCAB). El contenido se publicó en amárico, el idioma de trabajo oficial del Gobierno federal. El TCAB es un ministerio dentro del Gobierno regional de Tigray. Desde noviembre de 2020, el Frente de Liberación Popular de Tigray (TPLF) y la República Democrática Federal de Etiopía ("Gobierno federal") estuvieron involucrados en un conflicto armado. El TPLF es el partido gobernante de Tigray, mientras que las Fuerzas de Defensa de Tigray son el brazo armado del TPLF.
La publicación hablaba sobre las pérdidas sufridas por las Fuerzas de Defensa Nacionales Federales durante el liderazgo del primer ministro Abiy Ahmed en el conflicto armado con el TPLF. La publicación animaba al ejército nacional a abrir fuego contra el grupo fascista de Abiy Ahmed para resarcir el daño que había hecho a las personas. Continuaba instando a las fuerzas armadas a rendirse ante el TPLF si querían conservar sus vidas, y agregaba: "Si se niegan a hacerlo, todos deben saber que, a la larga, la suerte de las fuerzas armadas será la muerte".
La tensión entre el Gobierno federal y el TPLF llegó a su punto máximo cuando el Gobierno federal pospuso las elecciones en 2020, con la pandemia de coronavirus como justificativo del aplazamiento. Los líderes opositores acusaron al primer ministro de usar la pandemia como excusa para extender su mandato. A pesar del anuncio del Gobierno federal, el Gobierno regional de Tigray llevó a cabo las elecciones de todos modos en la región, y el TPLF tuvo una victoria aplastante.
El primer ministro Abiy Ahmed anunció una operación militar contra las fuerzas tigrayanas en noviembre de 2020, como respuesta a un ataque a una base militar federal de Tigray. Las fuerzas federales lograron tomar la capital de Tigray, Mekele. Después de ocho meses de enfrentamientos, las fuerzas federales y sus aliados se retiraron de Mekele, y el TPLF recuperó el control. En mayo de 2021, el Gobierno federal designó al TPLF como una organización terrorista.
El 2 de noviembre de 2021, días antes de que se publicara el contenido, el primer ministro impuso un estado de emergencia en todo el país, después de que el TPLF tomara el control de ciertas partes de las regiones de Amhara y Afar, más allá de Tigray. El Gobierno federal también convocó a los ciudadanos a empuñar las armas cuando el TPLF avanzó hacia la capital, Adís Abeba. El día en que se publicó el contenido, el 5 de noviembre, nueve grupos opositores, incluido el TPLF, crearon una alianza para presionar al Gobierno nacional y derrocar al primer ministro.
La página del TCAB tiene unos 260.000 seguidores y es pública, por lo que cualquier usuario de Facebook puede ver su contenido. Está verificada por una marca de verificación azul, que confirma que la página o el perfil es la presencia auténtica de una persona o entidad. El contenido tuvo más de 300.000 visualizaciones y se compartió menos de 1.000 veces.
Desde el 5 de noviembre, 10 usuarios reportaron el contenido por infringir las políticas sobre violencia e incitación, personas y organizaciones peligrosas y lenguaje que incita al odio. Además, los sistemas automatizados de Meta identificaron el contenido como potencialmente infractor y lo enviaron a revisión. Tras la revisión de dos revisores que hablaban amárico, Meta determinó que el contenido no infringía sus políticas y no lo eliminó de la plataforma.
El 4 de noviembre, un día antes de que se publicara el contenido, Meta convocó un centro de operaciones de productos relativos a la integridad (IPOC) para supervisar la situación de rápido desarrollo de Etiopía y responder ante ella en tiempo real. De acuerdo con Meta, un IPOC es un grupo de expertos en el tema pertenecientes a la empresa, que se reúnen durante un breve período para proporcionar supervisión en tiempo real y abordar posibles casos de abuso que circulen en las plataformas de Meta. A través del IPOC, el contenido se remitió a expertos en políticas y en el tema para realizar una revisión adicional. Tras la revisión, Meta determinó que el contenido infringía la política sobre violencia e incitación, que prohíbe las declaraciones de intención de cometer actos de violencia de mucha gravedad. El contenido permaneció en la plataforma durante, aproximadamente, dos días antes de que se lo eliminara.
Desde el comienzo del conflicto en noviembre de 2020, hubo informes fidedignos de infracciones contra leyes humanitarias y derechos humanos internacionales cometidas por todas las partes del conflicto. En el informe de la investigación conjunta realizada por la Comisión de Derechos Humanos de Etiopía y la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, se detectaron casos documentados de torturas y otras formas de tratamiento cruel, inhumano o degradante, ejecuciones extrajudiciales de ciudadanos y combatientes capturados, secuestros, desapariciones forzadas y violencia sexual y basada en género, entre otros crímenes internacionales (consultar también el observatorio Ethiopia Peace Observatory). El equipo de la investigación conjunta observó que ambas partes del conflicto asesinaban a personas que no participaban directamente en los enfrentamientos. Esto incluía asesinatos de represalia y basados en la etnia. Tanto las fuerzas federales como las fuerzas tigrayanas cometieron actos de tortura y maltrato contra ciudadanos y combatientes capturados en varios lugares de Tigray, por ejemplo, en campamentos militares, establecimientos de detención, el domicilio de las víctimas, así como en lugares secretos y no identificados. Se hacía desaparecer por la fuerza o se detenía arbitrariamente a las personas que aparentemente estaban afiliadas al TPLF, y las fuerzas armadas federales sometían a las esposas de los hombres desaparecidos o detenidos a violencia sexual. De forma similar, las esposas de los miembros de las fuerzas federales armadas eran blanco de agresiones sexuales o violaciones cometidas por los combatientes tigrayanos. Muchas personas fueron violadas en grupo. Las fuerzas armadas federales también se negaron a ofrecer acceso a ayuda humanitaria en las zonas afectadas por el conflicto. Otras milicias y grupos armados también se involucraron, y Eritrea apoyó al ejército nacional de Etiopía en el conflicto. A pesar de que la investigación conjunta cubrió los hechos que ocurrieron entre el 3 de noviembre de 2020 y el 28 de junio de 2021, los hallazgos proporcionan un contexto significativo para este caso y la posterior intensificación de los enfrentamientos en noviembre de 2021, cuando el TPLF incautó territorios fuera de Tigray.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene autoridad para revisar las decisiones que Meta remite para revisión (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1.1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, y Artículo 4 del acta constitutiva).
4. Fuentes de autoridad
El Consejo asesor de contenido consideró las siguientes fuentes de autoridad:
I.Decisiones del Consejo asesor de contenido
Entre las decisiones previas del Consejo asesor de contenido más relevantes, se encuentran las siguientes:
- "Presuntos delitos en Raya Kobo" [decisión del caso 2021-014-FB-UA]: el Consejo recomendó que las Normas comunitarias de Facebook debían reflejar que los rumores que no se pueden verificar suponen un mayor riesgo para los derechos a la vida y la seguridad de las personas en un contexto de guerra y conflictos violentos. También recomendó que Meta solicitara una evaluación de debida diligencia independiente sobre derechos humanos a fin de determinar cómo el uso de sus plataformas había aumentado el riesgo de violencia en Etiopía.
- "Suspensión de la cuenta del expresidente de los EE. UU. Trump" [decisión del caso 2021-001-FB-FBR]: el Consejo recomendó que Meta debía desarrollar y publicar una política para situaciones de crisis. Además, hizo una recomendación acerca de la necesidad de recopilar, preservar y, si corresponde, compartir información para colaborar en la investigación y el posible procesamiento judicial de infracciones graves de leyes penales, humanitarias y de derechos humanos internacionales a través de autoridades competentes y mecanismos de rendición de cuentas.
- "Video gráfico de Sudán" [decisión del caso 2022-002-FB-MR]: el Consejo reiteró la recomendación que hizo en el caso de la suspensión de la cuenta del expresidente de los EE. UU. Trump, en la que sugirió a Meta desarrollar y publicar una política como respuesta ante situaciones de crisis en las que los procesos habituales no prevendrían ni evitarían el daño inminente.
II.Políticas de contenido de Meta
Normas comunitarias de Facebook:
En virtud de su política sobre violencia e incitación, Meta afirma que eliminará todo contenido que incite o facilite violencia grave. La política prohíbe las amenazas que podrían llevar a la muerte (y otras formas de violencia de gravedad alta) dirigidas a personas o lugares. También prohíbe las declaraciones de intención de cometer actos de violencia de gravedad alta.
III.Valores de Meta
Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook. El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. Queremos que las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Meta limita la "expresión" en favor de otros cuatro valores, y dos de ellos son relevantes en este caso:
Seguridad: eliminamos contenido que podría contribuir a un riesgo de daño para la seguridad física de las personas.
Dignidad: esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
IV.Normas internacionales sobre derechos humanos
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. De manera significativa, los UNGP imponen una responsabilidad mayor a las empresas que operan en un entorno de conflicto (informe "Empresas, derechos humanos y regiones afectadas por conflictos: hacia el aumento de las medidas", A/75/212). El análisis del Consejo sobre las responsabilidades de Meta respecto de los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:
- Derecho a la libertad de expresión: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/73/348 (2018).
- Derecho a la vida: Artículo 6 del ICCPR, observación general n.º 36 del Comité de Derechos Humanos (2018).
- Derecho a no ser sometido a tortura ni a penas crueles, inhumanas o degradantes: Artículo 7 del ICCPR.
- Derecho a la seguridad personal: Artículo 9, párrafo 1, del ICCPR.
5. Respuestas del usuario
Tras la remisión de Meta y la decisión del Consejo de aceptar el caso, se envió un mensaje al usuario para notificarle acerca de la revisión del Consejo y para proporcionarle la oportunidad de presentar una declaración ante el Consejo. El usuario no presentó ninguna declaración.
6. Respuestas de Meta
En la remisión del caso al Consejo, Meta explicó que la decisión sobre el contenido fue difícil porque implicaba eliminar discurso de un Gobierno oficial que se podría considerar de interés periodístico, pero que podía representar un riesgo de incitación a la violencia durante un conflicto en curso. Meta indicó que no consideró otorgar la concesión de interés periodístico porque dicha concesión no aplica a contenido que presente un riesgo de contribuir a daños físicos.
Meta expresó que, desde finales de 2020, trata a Etiopía como país en riesgo de nivel 1, la categoría de riesgo más alta. De acuerdo con la empresa, clasificar los países como "en riesgo" es parte del proceso de priorizar la inversión en recursos de productos a largo plazo. Por ejemplo, en respuesta al riesgo alto de Etiopía, Meta desarrolló clasificadores de lenguaje (herramientas de aprendizaje automático entrenadas para detectar de manera automática posibles infracciones contra las Normas comunitarias) en amárico y oromo, dos de los idiomas más usados en Etiopía. De acuerdo con la empresa, los primeros clasificadores en amárico y oromo se lanzaron en octubre de 2020. En junio de 2021, Meta lanzó los clasificadores de "lenguaje hostil" (como los llama) en amárico y oromo (herramientas de aprendizaje automático entrenadas para identificar el contenido sujeto a las políticas sobre lenguaje que incita al odio, violencia e incitación, y bullying y acoso). La empresa también creó un IPOC para Etiopía el 4 de noviembre de 2021, como respuesta a la intensificación del conflicto. Normalmente, los IPOC funcionan durante varios días o semanas. Los IPOC se organizan para eventos planeados, como ciertas elecciones, o en respuesta a eventos riesgosos no planificados. Cualquier empleado de Meta puede solicitar la creación de un IPOC. Un grupo multinivel y multisectorial de la empresa, que incluye representantes de sus equipos de operaciones, políticas y productos, revisa la solicitud. Hay distintos niveles de IPOC, que proporcionan niveles de coordinación y comunicación en aumento para supervisar el contenido de la plataforma. El IPOC convocado en noviembre de 2021 para Etiopía fue de nivel 3, que supone el mayor nivel de coordinación y comunicación en Meta. Como explicó Meta, los IPOC son una solución a corto plazo, cuya finalidad es comprender un gran conjunto de problemas y cómo abordarlos durante una crisis o una situación de alto riesgo. No están diseñados para ser una solución sostenible a largo plazo para manejar un conflicto de años.
Meta hizo referencia al análisis del Consejo correspondiente al caso "Presuntos delitos en Raya Kobo" en favor de la proposición de que resolver la tensión entre proteger la libertad de expresión y atenuar la amenaza de un conflicto sectario exige una consideración cuidadosa de los detalles específicos del conflicto. Meta también señaló los crímenes atroces documentados que cometieron todas las partes del conflicto. Meta indicó al Consejo que, dada la naturaleza de la amenaza, el estado influyente del hablante y el rápido agravamiento de la situación en Etiopía en el momento en que se publicó el contenido, el valor de "seguridad" superó a las demás consideraciones y que para atenderlo sería mejor eliminar la publicación que dejarla en la plataforma, a pesar de que con el contenido posiblemente se pudiera alertar a las personas de Etiopía acerca de violencia futura.
El Consejo le hizo 20 preguntas a Meta. Meta respondió 14 preguntas en su totalidad y seis preguntas de forma parcial. Las respuestas parciales estuvieron relacionadas con el enfoque de la empresa respecto de la moderación de contenido en situaciones de conflictos armados, la imposición de restricciones a las cuentas por infracciones contra las políticas de contenido y el proceso de comprobación.
7. Comentarios del público
El Consejo asesor de contenido recibió y consideró siete comentarios del público relacionados con este caso. Uno de los comentarios provino de Asia-Pacífico y Oceanía, tres de Europa, uno de África subsahariana y dos de los Estados Unidos y Canadá.
Los comentarios enviados se refirieron a los siguientes temas: la inconsistencia del enfoque de Meta en el contexto de diferentes conflictos armados; el mayor riesgo que acompaña a las amenazas violentas creíbles entre las partes durante un conflicto armado; los problemas con la moderación de contenido de Meta en Etiopía y el papel de los medios sociales en entornos de información cerrados; el contexto fáctico correspondiente al conflicto de Etiopía, incluido el daño sufrido por el pueblo tigrayano y el papel del lenguaje que incita al odio contra los tigrayanos en Facebook en lo que concierne a la propagación de la violencia; y la necesidad de considerar las leyes sobre conflictos armados a la hora de elaborar las políticas con las que se moderarán los discursos durante un conflicto armado.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
En abril de 2022, como parte de un trabajo continuo con las partes interesadas, el Consejo consultó a representantes de organizaciones de sociedad civil, académicos, organizaciones intergubernamentales y otros expertos en el tema de moderación de contenido en el contexto de un conflicto armado. En los debates, se habló sobre el tratamiento del discurso de las partes de un conflicto y la aplicación de la política sobre violencia e incitación en situaciones de conflicto.
8. Análisis del Consejo asesor de contenido
El Consejo examinó la pregunta de si este contenido debía restaurarse y las consecuencias más amplias para el enfoque de Meta respecto de la gobernanza de contenido desde tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
El Consejo determinó que eliminar el contenido de la plataforma fue coherente con la norma comunitaria sobre violencia e incitación. La política prohíbe las amenazas que podrían llevar a la muerte (y otras formas de violencia de gravedad alta) dirigidas a personas o lugares, incluidas las declaraciones de intención de cometer actos de violencia de gravedad alta. El Consejo indicó que era posible que otras personas razonablemente interpretaran el contenido como una convocatoria que podía incitar o fomentar actos de violencia real en un contexto ya violento de un conflicto armado. Como tal, el contenido infringía la prohibición de Meta de incluir declaraciones de intención de cometer actos de violencia de gravedad alta.
8.2 Cumplimiento de los valores de Meta
El Consejo concluyó que la eliminación de este contenido de la plataforma fue coherente con los valores de "seguridad" y "dignidad" de Meta.
El Consejo reconoció la importancia de la "expresión", en especial, en un país con antecedentes deficientes de libertad civil y de prensa, y en donde las plataformas de medios sociales sirven como un medio clave para transmitir información sobre el conflicto armado en curso. Sin embargo, en el contexto de un conflicto armado marcado por antecedentes de violencia sectaria e infracciones contra leyes internacionales, los valores de "seguridad" y "dignidad" prevalecen en este caso para proteger a los usuarios de contenido que representa un mayor riesgo de violencia. El contenido de este caso puede interpretarse como una convocatoria a asesinar al grupo de Abiy Ahmed. También puede interpretarse como una advertencia de castigo para aquellos que no se rindan ante el TPLF, y eso representa un riesgo para la vida y la integridad física de las fuerzas federales y los líderes políticos etíopes. Si bien al contenido lo compartió un organismo regional gubernamental, la publicación en sí no contenía información de un valor de interés público suficientemente pronunciado que pudiera superar el riesgo de daño.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo determinó que la eliminación del contenido en este caso fue coherente con las responsabilidades de Meta con los derechos humanos. Durante un conflicto armado, la empresa también tiene la responsabilidad de establecer un sistema transparente y fundamentado para la moderación de contenido si existe una probabilidad razonable de que el contenido consiga incitar a la violencia. El Consejo destacó el mayor riesgo de que el contenido contribuyera directamente a la aparición de daños durante un conflicto armado. Y señaló que Meta actualmente carece de un marco transparente y fundamentado para la moderación de contenido en zonas de conflicto.
Libertad de expresión (Artículo 19 del ICCPR)
El Artículo 19 del ICCPR proporciona amplia protección a la libertad de expresión, incluido el derecho de buscar y recibir información sobre posible violencia. No obstante, el derecho podría restringirse en ciertas situaciones específicas, cuando se satisfacen las condiciones de la prueba de tres partes de legalidad (claridad), legitimidad y necesidad y proporcionalidad. Meta se comprometió a respetar los derechos humanos en virtud de los UNGP y a recurrir a las autoridades, como el ICCPR, al tomar decisiones de contenido, incluso en situaciones de conflicto armado. El Plan de Acción de Rabat también proporciona pautas útiles sobre este asunto. Como indicó el Relator Especial de la ONU sobre libertad de expresión, si bien las empresas no tienen las obligaciones de los Gobiernos, su impacto es tal que las obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho a la libertad de expresión de sus usuarios (A/74/486, párrafo 41).
I. Legalidad (claridad y accesibilidad de las reglas)
Cada vez que se aplique una restricción a la libertad de expresión, se debe ofrecer información de fácil acceso y suficientemente clara que sirva a los usuarios y revisores de contenido como guía sobre lo que se permite en la plataforma y lo que no. La falta de claridad o precisión puede dar lugar a un cumplimiento de las reglas incoherente y arbitrario.
La política sobre violencia e incitación prohíbe las amenazas que podrían llevar a la muerte y, en particular, las declaraciones de intención de cometer actos de violencia de gravedad alta. El Consejo determinó que la política aplicable en este caso es clara. Sin embargo, mientras llegaba a una decisión sobre este caso, el Consejo observó que Meta no proporciona información suficiente respecto de cómo implementa la política sobre violencia e incitación en situaciones de conflicto armado, qué excepciones a la política están disponibles y cómo se usan, o los procesos de cumplimiento especializados que la empresa usa para este tipo de situaciones.
II.Fin legítimo
Las restricciones a la libertad de expresión deben tener un fin legítimo, que puede incluir el respeto de los derechos de los demás y la protección de la seguridad nacional o el orden público. La norma comunitaria sobre violencia e incitación de Facebook existe para prevenir daños fuera de internet que pudieran guardar relación con el contenido de Facebook. Como el Consejo concluyó previamente en la decisión del caso "Presuntos delitos en Raya Kobo", las restricciones basadas en esta política atienden el fin legítimo de proteger los derechos a la vida y a la integridad corporal.
III.Necesidad y proporcionalidad
Según el requisito de necesidad y proporcionalidad, Meta debe demostrar que la restricción que aplica a los discursos es necesaria para abordar la amenaza (en este caso en particular, la amenaza a los derechos de otras personas) y no es demasiado general (observación general n.º 34, párrafo 34). Al realizar esta evaluación, el Consejo también consideró los factores del Plan de Acción de Rabat respecto de qué constituye incitación a la violencia (Plan de Acción de Rabat, OHCHR, A/HRC/22/17/Anexo 4, 2013), sin perder de vista las diferencias entre las obligaciones legales internacionales de los Estados y las responsabilidades de las empresas respecto de los derechos humanos.
En este caso, el Consejo señaló que la eliminación de este contenido de la plataforma fue una restricción necesaria y proporcionada a la libertad de expresión, conforme a los derechos humanos internacionales. El Consejo usó la prueba de seis partes del Plan de Acción de Rabat para fundamentar su análisis, y los resultados respaldaron la eliminación de esta publicación.
El contexto de Etiopía, el estado y la intención del hablante, el contenido del discurso y su alcance, y la probabilidad de daños en la vida real contribuyeron a un mayor riesgo de violencia en la vida real. (1) Contexto: el contenido se publicó en el contexto de una guerra civil en curso y cada vez más grave. Desde sus inicios, el conflicto estuvo marcado por infracciones de leyes humanitarias y derechos humanos internacionales cometidas por todas las partes del conflicto. (2) Hablante: se trata de un ministerio gubernamental regional afiliado a una de las partes del conflicto, cuyo alcance e influencia son significativos, incluida la autoridad para controlar a las fuerzas armadas tigrayanas. (3) Intención: dado el lenguaje y el contexto, hubo, al menos, una convocatoria explícita a asesinar a los soldados que no se rindieran; además, puede inferirse razonablemente que hubo otras intenciones de cometer daños. (4) Contenido: se puede interpretar que la publicación promovía el ataque a combatientes y líderes políticos, independientemente de su participación en los enfrentamientos. (5) Alcance de la difusión: el contenido se publicó en la página pública de un organismo vinculado a una de las partes del conflicto que tenía unos 260.000 seguidores y permaneció en la plataforma durante dos días antes de su eliminación. (6) Probabilidad e inminencia: el contenido se publicó mientras las fuerzas del TPLF avanzaban hacia otras partes de Etiopía, más allá de Tigray, y el primer ministro declaraba un estado de emergencia en todo el país y pedía a los ciudadanos que empuñaran las armas y pelearan.
Si bien el Consejo determinó que la eliminación del contenido en este caso fue necesaria y proporcionada, también le quedó claro al revisar el caso que se necesita una mayor transparencia para evaluar si las medidas de Meta son sistemáticamente proporcionadas a lo largo de un conflicto y en todos los contextos de conflictos armados. Desde hace mucho tiempo, la empresa sabe que sus plataformas se usan para difundir lenguaje que incita al odio y alimentar la violencia étnica. Si bien Meta tomó medidas positivas para mejorar su sistema de moderación en algunas zonas de conflicto (por ejemplo, al encargar una evaluación independiente del sesgo en la moderación de contenido en el conflicto de Israel y Palestina, como respuesta a una recomendación del Consejo), no hizo lo suficiente para analizar sus políticas y procesos actuales ni para desarrollar un marco transparente y fundamentado para la moderación de contenido en zonas de conflicto. Algunos miembros del Consejo expresaron que la moderación de contenido de Meta en zonas de conflicto también debería basarse en las leyes humanitarias internacionales.
En el caso de Etiopía, Meta describió los pasos que tomó para eliminar contenido que incitaba a otras personas a la violencia. La empresa se refirió a dos procesos generales dirigidos a países que experimentan conflictos violentos o que están en riesgo de hacerlo, que se usaron en Etiopía: el sistema de clasificación de "países en riesgo" y los IPOC. Etiopía se designó como país en riesgo de nivel 1 (mayor riesgo) desde finales de 2020 y tenía asignado un IPOC de nivel 3 (mayor nivel) en el momento en que se publicó el contenido. No obstante, pasaron dos días hasta que el contenido se eliminó, pese a la clara disposición de la política que infringía. El Consejo señaló que dos días, en el contexto de un conflicto armado, es un lapso considerable dada la evaluación de Rabat mencionada anteriormente. Esto también sugiere la deficiencia del sistema de clasificación de riesgo y los IPOC como solución para abordar hechos que representan un mayor riesgo para los derechos humanos.
Meta no proporciona suficiente información pública sobre el método general o los criterios usados para la evaluación de los "países en riesgo" y las inversiones en productos que la empresa hizo en consecuencia, en Etiopía y otras situaciones de conflicto. Sin esta información, ni el Consejo ni el público pueden evaluar la efectividad e imparcialidad de estos procesos, si las inversiones en productos de la empresa son equitativas o si se implementan con la misma velocidad y diligencia en las distintas regiones y situaciones de conflicto.
Los IPOC son, en términos de Meta, "soluciones a corto plazo", y se organizan de manera ad hoc. Esto le sugiere al Consejo que quizá la empresa deba invertir más recursos para crear un mecanismo interno continuo que proporcione la pericia, capacidad y coordinación necesarias para revisar contenido y responder ante este de forma efectiva durante la totalidad de un conflicto. Dicha evaluación debe basarse en conocimientos expertos sobre las políticas y el país.
El enfoque actual de Meta respecto de la moderación de contenido en zonas de conflicto podría generar inconsistencias. Actualmente, hay 27 conflictos armados en el mundo, según el Consejo de Relaciones Exteriores. Según algunos observadores, en al menos un conflicto (Rusia-Ucrania), aparentemente Meta tomó medidas de inmediato y creó excepciones a las políticas por las que permitió conservar contenido que, de otro modo, hubiera estado prohibido conforme a la política sobre violencia e incitación, mientras que en otros conflictos le hubiera tomado mucho tiempo actuar. En un comentario del público (PC-10433), enviado por el Dr. Samson Esayas, profesor adjunto en BI Norwegian Business School, se mencionaron las "medidas rápidas" de Meta en cuanto a la moderación de contenido en el contexto del conflicto entre Rusia y Ucrania, y se destacó la diferencia en el tratamiento de este conflicto en comparación con conflictos de otras regiones, en particular, Etiopía y Birmania. Esto sugiere que el enfoque es inconsistente, lo que es problemático para una empresa que tiene el alcance y los recursos de Meta, en especial, en el contexto de un conflicto armado.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido ratificó la decisión de Meta de eliminar el contenido por infringir la norma comunitaria sobre violencia e incitación.
10. Declaraciones de asesoramiento normativo
Transparencia
1. En consonancia con la recomendación del Consejo en el caso "Suspensión de la cuenta del expresidente de los EE. UU. Trump", y como se reiteró en el caso "Video gráfico de Sudán", Meta debería publicar información sobre su protocolo de políticas ante crisis. El Consejo considerará que se implementó esta recomendación cuando haya información disponible sobre el protocolo de políticas ante crisis en el Centro de transparencia, en el lapso de seis meses desde la publicación de esta decisión, como una política independiente en el Centro de transparencia, además de la presentación con diapositivas del Public Policy Forum.
Aplicación
2. Para mejorar la aplicación de sus políticas de contenido durante períodos de conflicto armado, Meta debería evaluar la viabilidad de establecer un mecanismo interno continuo que le proporcione la pericia, capacidad y coordinación necesarias para revisar contenido y responder ante este con eficacia durante épocas de conflicto. El Consejo considerará que se implementó esta recomendación cuando Meta proporcione un resumen de la viabilidad de implementar un mecanismo interno continuo al Consejo.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asistencia de parte de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
Volver a Decisiones de casos y opiniones consultivas sobre políticas