Confirmado
Video gráfico de Sudán
El Consejo asesor de contenido mantuvo la decisión de Meta de restaurar una publicación de Facebook en la que se representaba violencia en contra de una persona civil en Sudán.
Resumen del caso
El Consejo asesor de contenido mantuvo la decisión de Meta de restaurar una publicación de Facebook en la que se representaba violencia en contra de una persona civil en Sudán. El contenido generó conciencia en torno a los abusos de los derechos humanos y tuvo importante valor de interés público. El Consejo recomendó a Meta agregar una excepción específica sobre concientización o documentación de abusos de los derechos humanos en su norma comunitaria sobre contenido violento y gráfico.
Información sobre el caso
El 21 de diciembre de 2021, Meta remitió un caso al Consejo sobre un video gráfico en el que aparecía una víctima civil de la violencia en Sudán. El contenido se publicó en la página del perfil de Facebook de un usuario después del golpe militar en el país el 25 de octubre de 2021.
El video muestra a una persona tirada al lado de un automóvil con una importante herida en la cabeza y un ojo visiblemente desprendido. Se pueden escuchar voces alrededor que dicen en árabe que alguien recibió un golpe y quedó tirado en la calle. El texto, también en árabe, alienta a las personas a unirse y a no confiar en el ejército, e incluye hashtags que hacen referencia a documentar los abusos militares y la desobediencia civil.
Tras ser identificada por los sistemas automatizados de Meta y revisada por un moderador humano, la publicación se eliminó por infringir la norma comunitaria sobre contenido violento y gráfico de Facebook. Sin embargo, el usuario apeló esta decisión y Meta emitió una concesión de interés periodístico que eximió la eliminación de la publicación el 29 de octubre de 2021. Debido a una falta de comunicación interna, Meta restauró el contenido casi cinco semanas después. Cuando Meta restauró la publicación, colocó sobre el video una pantalla de advertencia.
Conclusiones principales
El Consejo coincidió con la decisión de Meta de restaurar este contenido en Facebook con una pantalla de advertencia. Sin embargo, la política de contenido violento y gráfico de Meta no es clara sobre cómo los usuarios pueden compartir contenido gráfico para generar conciencia en torno a los abusos o para documentarlos.
Las bases de la norma comunitaria, que establece los fines de la política, no se alinean con las reglas de la política. A pesar de que las bases de la política establecen que Meta permite a los usuarios publicar contenido gráfico para ayudar a las personas a generar conciencia sobre los abusos de derechos humanos, la política en sí prohíbe todos los videos (ya sea que se compartan para generar conciencia o no) de personas o cadáveres en entornos no médicos si muestran desmembramiento.
El Consejo también concluyó que la concesión de interés periodístico, si bien se usó en este caso, no es un medio eficaz para permitir este tipo de contenido en Facebook a escala. Meta declaró al Consejo que documentó 17 concesiones de interés periodístico en relación con la política de contenido gráfico violento en los últimos 12 meses (12 meses previos al 8 de marzo de 2022). El contenido de este caso representa una de esas 17 concesiones. Como punto de comparación, Meta eliminó 90,7 millones de contenidos en virtud de esta norma comunitaria en los tres primeros trimestres de 2021.
Al consejo le pareció poco probable que, en un año, solo 17 contenidos relacionados con esta política hayan recibido concesión para seguir apareciendo en la plataforma por su interés periodístico y público. Para garantizar que ese tipo de contenido se permita en Facebook, el Consejo recomienda a Meta enmendar la norma comunitaria sobre contenido violento y gráfico para permitir videos de personas o cadáveres si se comparten para generar conciencia o documentar abusos.
Meta también se debe preparar para responder de manera rápida y sistemática a los conflictos y las crisis mundiales. En la decisión del caso sobre la suspensión de la cuenta del expresidente de los EE. UU. Trump, el Consejo recomendó a Meta desarrollar y publicar una política que rija la respuesta de Facebook ante crisis. Si bien el Consejo acepta el desarrollo de este protocolo, que Meta afirma haber adoptado, la empresa debe implementar el protocolo con más rapidez y proporcionar la mayor cantidad de detalles posible sobre cómo funcionará.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido mantuvo la decisión de Meta de restaurar la publicación con una pantalla de advertencia que evita que los menores vean el contenido.
En su opinión de asesoramiento normativo, el Consejo recomienda a Meta hacer lo siguiente:
- Enmendar la norma comunitaria sobre contenido violento y gráfico para permitir videos de personas o cadáveres si se comparten para generar conciencia en torno a los abusos de los derechos humanos o para documentarlos. Este contenido se debe permitir con una pantalla de advertencia para que las personas sepan que puede ser perturbador.
- Implementar un proceso de desarrollo de políticas que perfeccione los criterios para identificar los videos de personas o cadáveres si se comparten para generar conciencia en torno a los abusos de los derechos humanos o para documentarlos.
- Explicar de manera explícita en la descripción de la concesión de interés periodístico todas las acciones que se pueden tomar (por ejemplo, la restauración con una pantalla de advertencia) según esta política.
- Informar a los usuarios cuando se toma una medida que involucra a su contenido en función de la concesión de interés periodístico, incluida la restauración del contenido o la aplicación de una pantalla de advertencia. En la notificación, se debe incluir un enlace que dirija a la explicación sobre la concesión de interés periodístico en el Centro de transparencia.
* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.
Decisión del caso completa
1. Resumen de la decisión
El Consejo asesor de contenido mantuvo la decisión de Meta de restaurar en Facebook una publicación con un video, y texto, que representa la violencia contra una persona civil en Sudán. La publicación se restauró en virtud de una concesión de interés periodístico con una pantalla de advertencia que indica que el contenido es delicado. De este modo, por lo general, los menores no pueden acceder a él y todos los demás usuarios deben hacer clic para verlo. El Consejo determinó que este contenido, que tiene como fin generar conciencia en torno a los abusos de los derechos humanos o documentarlos, tuvo un importante valor de interés público. Si bien la eliminación inicial del contenido fue coherente con las reglas de la norma comunitaria sobre contenido violento y gráfico, la decisión de Meta de restaurarlo con una pantalla para indicar que se trata de contenido delicado respeta sus políticas, valores y responsabilidades hacia los derechos humanos.
Sin embargo, el Consejo remarcó que el uso de Meta de la concesión de interés periodístico no es un medio eficaz para mantener o restaurar contenido de este tipo a escala. Por lo tanto, el Consejo recomendó a Meta agregar una excepción específica sobre concientización o documentación de abusos a su norma comunitaria sobre contenido violento y gráfico. Además, el Consejo solicitó a Meta priorizar la implementación de su recomendación previa de desarrollar una política sobre la recopilación, preservación y acción de compartir contenido que pueda servir de evidencia para infracciones de las leyes internacionales.
2. Descripción del caso y contexto
El 21 de diciembre de 2021, Meta remitió un caso al Consejo sobre un video gráfico en el que aparecía una víctima civil de la violencia en Sudán. El contenido se publicó en la página del perfil de Facebook de un usuario el 26 de octubre de 2021, después de un golpe militar en el país el 25 de octubre de 2021 y del inicio de las manifestaciones contra la toma militar del Gobierno.
El video muestra a una persona tirada al lado de un automóvil con una importante herida en la cabeza y un ojo visiblemente desprendido. Se pueden escuchar voces alrededor que dicen en árabe que alguien recibió un golpe y quedó tirado en la calle. La publicación incluye texto, también en árabe, que alienta a las personas a unirse y a no confiar en el ejército, y hashtags que hacen referencia a documentar los abusos militares y la desobediencia civil.
Meta explicó que su tecnología identificó el contenido como posible infracción de su norma comunitaria sobre contenido violento y gráfico el mismo día que se publicó, el 26 de octubre de 2021. Después de una revisión manual, Meta determinó que infringía la política de contenido violento y gráfico de Facebook, y lo eliminó. Posteriormente, el creador del contenido indicó que no estaba de acuerdo con la decisión. El 28 de octubre de 2021, el contenido se remitió a expertos en política y en la materia para realizar una revisión adicional. Después de la revisión, Meta emitió una concesión de interés periodístico el 29 de octubre de 2021 para eximir a la publicación de la eliminación en virtud de la política de contenido violento y gráfico. Sin embargo, debido a una falta de comunicación interna, Meta restauró el contenido casi cinco semanas después, el 2 de diciembre de 2021. Cuando lo restauró, también colocó una pantalla de advertencia en el video para marcarlo como contenido delicado y los usuarios tenían que hacer clic para verlo. La pantalla de advertencia prohíbe a usuarios menores de 18 años ver el video.
La publicación tuvo menos de 1.000 visualizaciones y ningún usuario reportó el contenido.
El siguiente contexto fáctico es pertinente para la decisión del Consejo. Después del golpe militar del gobierno civil en Sudán en octubre de 2021 y del inicio de las manifestaciones civiles, las fuerzas de seguridad del país dispararon municiones, arrojaron gas lacrimógeno y arrestaron y detuvieron de manera arbitraria a manifestantes, de acuerdo con la Alta Comisionada para los Derechos Humanos de las Naciones Unidas. Las fuerzas de seguridad también persiguieron a periodistas y activistas, quienes sufrieron allanamientos en sus hogares y oficinas. Atacaron, arrestaron y detuvieron a periodistas.
De acuerdo con los expertos a quienes el Consejo pidió asesoramiento, debido a que el ejército tomó el poder de los medios estatales y accionó contra los periódicos y medios de comunicación de Sudán, los medios sociales se convirtieron en la única fuente esencial de información y espacio para documentar la violencia por parte del ejército. El ejército cortó internet y, al mismo tiempo, arrestó al líder civil el 25 de octubre de 2021. Desde entonces, el acceso constante a internet se vio interrumpido regularmente en todo el país.
3. Autoridad y alcance del Consejo asesor de contenido
El Consejo tiene autoridad para revisar las decisiones que Meta envía a revisión (Artículo 2, sección 1, del acta constitutiva; Artículo 2, sección 2.1.1, de los estatutos). El Consejo puede mantener o revertir la decisión de Meta (Artículo 3, sección 5, del acta constitutiva), y la decisión que tome será vinculante para la empresa (Artículo 4 del acta constitutiva). Meta también debe evaluar la viabilidad de aplicar su decisión con respecto a contenido idéntico cuyo contexto sea similar (Artículo 4 del acta constitutiva). Las decisiones del Consejo podrían incluir declaraciones de asesoramiento normativo con recomendaciones no vinculantes a las que Meta debe responder (Artículo 3, sección 4, Artículo 4 del acta constitutiva).
4. Fuentes de autoridad
El Consejo asesor de contenido consideró las siguientes fuentes de autoridad:
I.Decisiones del Consejo asesor de contenido:
En decisiones previas, el Consejo consideró y proporcionó recomendaciones sobre las políticas y los procesos de Meta. Las más relevantes incluyen lo siguiente:
- Decisión del caso 2021-010-FB-UA ("Manifestaciones en Colombia"): en este caso, el Consejo mencionó que Meta no cuenta con un criterio para remitir contenido a revisión para la concesión de interés periodístico (que es la única forma de aplicar la norma) que esté disponible públicamente y declaró que en un entorno en que los medios de comunicación están restringidos para la expresión política, los medios sociales brindan una plataforma para que todas las personas, incluidos los periodistas, compartan información sobre las manifestaciones. El Consejo recomendó a Meta desarrollar y publicar criterios claros para que los revisores de contenido remitan el contenido de interés público para una revisión adicional... Estos criterios deberían abarcar el contenido que muestra grandes manifestaciones sobre asuntos políticos, en particular, en contextos en que se acuse a Estados de vulnerar derechos humanos y en que tener un registro público de los acontecimientos sea de primordial importancia.
- Decisión del caso 2021-001-FB-FBR ("Suspensión de la cuenta del expresidente de los EE. UU. Trump"): en este caso, el Consejo recomendó a Meta desarrollar y publicar una política que rija la respuesta de Facebook ante situaciones nuevas o de crisis en las que los procesos habituales no prevendrían ni evitarían el daño inminente. En enero de 2022, Meta llevó a cabo un Foro de políticas sobre el protocolo de la política ante crisis que se desarrolló en respuesta a la recomendación del Consejo. Sin embargo, Meta confirmó en una de sus respuestas a las preguntas planteadas por el Consejo que este protocolo no estaba implementado al momento del golpe en Sudán y durante las posteriores decisiones de eliminación y restauración de contenido en este caso.
II.Políticas de contenido de Meta
Normas comunitarias de Facebook:
En virtud de las bases de su política de contenido violento y gráfico, Meta declaró que elimina cualquier contenido que celebra la violencia o el sufrimiento, pero permite la publicación de contenido gráfico que ayude a generar conciencia. Las reglas de la política prohíben la publicación de videos de personas o cadáveres en contextos no médicos que muestren desmembramiento. De acuerdo con su concesión de interés periodístico, Meta permite la publicación de contenido que infringe las normas en su plataforma si es de interés periodístico y si mantener su visibilidad es de interés público.
III. Valores de Meta:
Los valores de Meta se detallan en la introducción a las Normas comunitarias de Facebook. Los valores relevantes a este caso son la "expresión", la "seguridad", la "privacidad" y la "dignidad". El valor de "expresión" se describe como fundamental.
Nuestras Normas comunitarias siempre apuntaron a crear un espacio donde las personas puedan expresarse y dar a conocer su opinión. [Queremos que] las personas puedan hablar abiertamente sobre los temas que les importan, incluso si otros no están de acuerdo o los consideran objetables.
Meta limita la "expresión" en favor de otros cuatro valores, y tres de ellos son relevantes en este caso:
"Seguridad": el contenido que supone una amenaza para las personas puede intimidar, excluir o silenciar a otros, por lo que no está permitido en Facebook.
"Privacidad": nos comprometemos a proteger la información y la privacidad de las personas. Gracias a la privacidad, las personas tienen la libertad de ser quienes son, de elegir cómo y cuándo compartir contenido en Facebook, y de conectarse más fácilmente.
"Dignidad": creemos que todas las personas son dignas y tienen los mismos derechos. Esperamos que esas personas respeten la dignidad de los demás y no los acosen ni los degraden.
IV. Normas internacionales de derechos humanos:
Los Principios Rectores sobre las Empresas y los Derechos Humanos de la ONU (UNGP), respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. En 2021, Meta anunció su Política corporativa de derechos humanos, con la que reafirmó su compromiso con el respeto de los derechos humanos de conformidad con los UNGP. El análisis del Consejo sobre las responsabilidades de Meta respecto de los derechos humanos en este caso se basó en las siguientes normas de derechos humanos:
- El derecho de libertad de expresión, incluida la capacidad de buscar y recibir información: Artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR), observación general n.º 34, Comité de Derechos Humanos (2011); informes del Relator Especial de la ONU sobre la libertad de opinión y expresión: A/HRC/38/35 (2018) y A/73/348 (2018).
- Consideración plena de los intereses del niño: Artículos 13 y 17 de la Convención sobre los Derechos del Niño (CRC). Observación general n.° 25, Comité de los Derechos del Niño, 2021, sobre los derechos del niño en relación con el entorno digital.
- Derecho a la privacidad: Artículo 17 del ICCPR.
- Acceso a un recurso efectivo: Artículo 2 del ICCPR; observación general n.º 31 del Comité de Derechos Humanos (2004); principio 22, 29 y 31 de los UNGP.
5. Respuestas del usuario
Tras la remisión de Meta y la decisión del Consejo de aceptar el caso, se envió un mensaje al usuario para notificarle acerca de la revisión del Consejo y para proporcionarle la oportunidad de presentar una declaración ante el Consejo. El usuario no presentó ninguna declaración.
6. Respuestas de Meta
En su remisión, Meta declaró que la decisión sobre esta publicación fue difícil porque el contenido destaca la tensión entre el valor de interés público de documentar vulneraciones de los derechos humanos y el riesgo de los daños asociados con la acción de compartir dicho contenido gráfico. Meta también resaltó la importancia de permitir a los usuarios documentar las vulneraciones de los derechos humanos durante un golpe y cuando se interrumpe el acceso a internet en el país.
Meta informó al Consejo que, inmediatamente después de que ocurriera el golpe militar en Sudán, la empresa creó un equipo interfuncional de respuesta ante crisis para supervisar la situación y comunicar los riesgos y las tendencias emergentes. De acuerdo con Meta, este equipo observó picos en relación con los reportes de contenido que mostraba violencia gráfica y violencia e incitación en los momentos más activos de las manifestaciones. [El equipo] recibió la indicación de remitir las solicitudes de permitir casos de violencia gráfica que, de algún modo, infringirían la política de contenido gráfico y violento, incluida la representación de abusos de los derechos humanos que el Estado respaldaba.
Meta determinó que este video se creó en el contexto de extensas manifestaciones y verdaderos problemas sobre la libertad de prensa en Sudán. Meta también mencionó que este tipo de contenido podría advertir a los usuarios del área sobre la amenaza a su seguridad, lo que es particularmente importante durante un corte de internet cuando es posible que se limite el acceso de los periodistas al lugar.
Meta también afirmó que la decisión de restaurar el contenido fue coherente con sus valores, especialmente, el valor de "expresión", que es primordial. Meta citó decisiones previas del Consejo que fundamentaban que el discurso político es central para el valor de "expresión". Decisiones de los casos 2021-010-FB-UA ("Manifestaciones colombianas"), 2021-003-FB-UA ("Inquietud punyabí en torno a la RSS en la India"), 2021-007-FB-UA ("Bot de Birmania") y 2021-009-FB-UA ("Publicación compartida de Al Jazeera").
Meta informó al Consejo que determinó que su decisión inicial de eliminar el contenido se basó en el Artículo 19 del ICCPR, específicamente, en el principio de necesidad. Por lo tanto, restauró el contenido en virtud de la concesión de interés periodístico. Para mitigar los posibles riesgos de daños relacionados con la concesión para mantener el contenido gráfico en la plataforma cuando se restaurara, Meta limitó el acceso solo a personas mayores de 18 años y colocó una pantalla de advertencia. Meta también observó en las bases de su caso que la decisión de restaurar el contenido era coherente con el informe del Relator Especial de la ONU sobre la promoción y protección del derecho de libertad de opinión y expresión, en especial, el derecho a acceder a información sobre la vulneración de los derechos humanos.
Meta también mencionó que, como aplicó una pantalla de advertencia que no permite a usuarios menores de 18 años ver el contenido, tuvo en cuenta el impacto de la decisión en los derechos del niño. Meta informó al Consejo que, al tomar la decisión, tuvo en cuenta el Artículo 13 de la Convención sobre los Derechos del Niño y la observación general n.° 25 sobre los derechos del niño en relación con el entorno digital, que ampara la protección del derecho del niño a la libertad de expresión, incluida la libertad de buscar, recibir y transmitir información e ideas de cualquier tipo, independientemente de las fronteras. Meta explicó en las bases de este caso que su decisión de limitar la visibilidad del contenido a los adultos tenía el fin legítimo de proteger la seguridad de los menores y fue proporcional a ese fin.
El Consejo realizó 21 preguntas a Meta. Meta respondió 17 en su totalidad y 4 de manera parcial. Las respuestas parciales se vincularon con preguntas sobre la medición del impacto del sistema automatizado de Meta en el contenido en la plataforma y por qué la norma comunitaria sobre contenido violento y gráfico no incluye una excepción para la generación de conciencia.
7. Comentarios del público
El Consejo recibió cinco comentarios del público sobre este caso. Dos comentarios de Europa, uno de África subsahariana y dos de los Estados Unidos y Canadá.
Las respuestas se relacionaron con los siguientes temas: la necesidad de adoptar un enfoque más centrado en el contexto que establezca un límite más alto para la eliminación de contenido en regiones con conflictos armados, de modo que se elimine menos contenido; la necesidad de preservar materiales para posibles investigaciones futuras o responsabilizar a infractores de derechos humanos; y que sea probable que la concesión de interés periodístico se aplique de manera ad hoc y que sea discutible, y que esta práctica se reconsidere.
En marzo de 2022, como parte de un trabajo continuo con partes interesadas, el Consejo habló aproximadamente con 50 representantes de organizaciones de defensa y personas que trabajan en la preparación de informes y la documentación de abusos de los derechos humanos, académicos que realizan investigaciones sobre ética, derechos humanos y documentación, y personas interesadas en colaborar con el Consejo respecto de temas que surgen de la norma comunitaria sobre contenido violento y gráfico y su cumplimiento en contextos de crisis o manifestaciones. Este trabajo continuo se llevó a cabo en virtud de la Regla de Chatham House para garantizar debates honestos y proteger a los participantes. El debate abarcó varios temas, incluido el rol esencial de los medios sociales en países controlados por regímenes represivos de documentar vulneraciones de los derechos humanos y atraer la atención del público y de los medios internacionales a casos de violencia sancionada por el Estado; inquietudes relacionadas con el hecho de que una norma universal sobre contenido violento y gráfico, en la práctica, sea una norma enfocada en EE. UU.; y el hecho de que el uso de pantallas de advertencia es útil para abordar el verdadero problema del trauma, aunque algunas organizaciones hayan indicado que estas pantallas podrían limitar el alcance de su contenido.
Si quieres leer los comentarios del público que se enviaron en relación con este caso, haz clic aquí.
8. Análisis del Consejo asesor de contenido
El Consejo analizó la pregunta de si este contenido debería mantenerse en la plataforma tomando como base tres perspectivas: las políticas de contenido de Meta, los valores de la empresa y sus responsabilidades con los derechos humanos.
8.1 Cumplimiento de las políticas de contenido de Meta
I.Reglas de contenido
El Consejo coincidió con la decisión de Meta de restaurar este contenido en la plataforma con una pantalla de advertencia y la restricción de edad, pero cree que las políticas de contenido de Meta no son totalmente claras ni representan un medio eficaz para implementar esta respuesta a contenido similar a escala.
La decisión inicial de Meta de eliminar el contenido fue coherente con las reglas de la norma comunitaria sobre contenido violento y gráfico, ya que el contenido infringió la política al mostrar desmembramiento humano en un entorno no médico (una persona con una importante herida en la cabeza y un ojo visiblemente desprendido). Sin embargo, las bases de la política de la norma comunitaria sobre contenido violento y gráfico establecen que [Meta] permite el contenido gráfico (con algunas restricciones) para ayudar a las personas a generar conciencia sobre algunos temas. [Meta] sabe que las personas valoran la capacidad de debatir sobre problemas importantes como los abusos de derechos humanos o actos de terrorismo. A pesar de esta referencia en las bases de la política, las reglas específicas de la norma comunitaria no incluyen una excepción para generar conciencia. Las normas internas de Meta para sus revisores tampoco incluyen una excepción para contenido cuyo fin es generar conciencia en torno a los abusos de derechos humanos o documentarlos.
Debido a la falta de una excepción específica en la norma comunitaria, el Consejo coincidió con la decisión de Meta de restaurar el contenido en virtud de una concesión de interés periodístico. Meta afirmó que permite que el contenido que infringe las normas siga apareciendo en la plataforma en virtud de la concesión de interés periodístico si la empresa determina dicho interés y si mantener su visibilidad es de interés periodístico después de realizar una prueba de equilibrio que pondera el interés público frente al riesgo de daño.
II.Aplicación de políticas
El Consejo mencionó que, si bien Meta tomó la decisión de emitir una concesión de interés periodístico y restaurar la publicación con una pantalla de advertencia el 29 de octubre de 2021, el contenido no se restauró en la plataforma hasta casi cinco semanas después, el 2 de diciembre de 2021. Meta indicó que el aviso de la decisión final sobre el contenido se realizó fuera de sus herramientas habituales de administración de remisiones, lo que atrasó la toma de medidas necesarias sobre el contenido. El Consejo consideró que esta explicación y el retraso son extremadamente problemáticos y enfatizó la importancia de que Meta tome medidas de forma oportuna en relación con decisiones como esta, en el contexto de una crisis pública y cuando la libertad de prensa se restringe gravemente. Cuando Meta eliminó inicialmente este contenido, aplicó un límite de 30 días con el que el usuario no pudo crear contenido nuevo, durante un momento en el que los manifestantes que salían a las calles y los periodistas que informaban sobre el golpe y la campaña ofensiva del ejército eran víctimas de represión y violencia grave.
8.2 Cumplimiento de los valores de Meta
El Consejo concluyó que mantener este contenido en la plataforma con una pantalla de advertencia es coherente con los valores de "expresión" y "seguridad" de Meta.
El Consejo reconoció la importancia de los valores de "dignidad" y "privacidad" en el contexto de proteger a las víctimas de abusos de derechos humanos. El contenido afecta la dignidad y privacidad de la persona herida que aparece en el video, así como a su familia, ya que se la puede reconocer y tal vez dicha persona o su familia o seres queridos no quieran que este tipo de imagen se muestre.
El Consejo también mencionó la importancia de la "seguridad" en este contexto, ya que el objetivo es proteger a los usuarios del contenido que contribuye a un riesgo de daño para la seguridad física de las personas. Por un lado, el usuario quería generar conciencia en torno al golpe en curso, lo que podría mejorar la seguridad de las personas en esa región. Por otro lado, el contenido también puede crear riesgos para la persona que se muestra en el video o para su familia.
El Consejo concluyó que, en un contexto donde el espacio cívico y la libertad de los medios es restringido por el Estado, el valor de "expresión" es aún más importante. En este caso, la "expresión" también fortalece el valor de "seguridad" al garantizar que las personas tengan acceso a la información y que la violencia por parte del Estado se exponga.
8.3 Cumplimiento de las responsabilidades de Meta con los derechos humanos
El Consejo afirma que mantener el contenido en la plataforma con una pantalla de advertencia es coherente con las responsabilidades de Meta con los derechos humanos. Sin embargo, el Consejo concluyó que las políticas de Meta se deben enmendar para respetar más el derecho de libertad de expresión de los usuarios que quieren generar conciencia en torno a los abusos o documentarlos.
Libertad de expresión (Artículo 19 del ICCPR)
El Artículo 19 del ICCPR proporciona amplia protección a la libertad de expresión, incluido el derecho de buscar y recibir información. No obstante, el derecho podría restringirse en ciertas situaciones específicas, lo que se conoce como la prueba de tres partes de legalidad (claridad), legitimidad y necesidad y proporcionalidad. Si bien el ICCPR no genera las mismas obligaciones para Meta que para los Estados, la empresa se compromete a respetar los derechos humanos como se establece en los UNGP. Este compromiso abarca derechos humanos de reconocimiento internacional, según los define, entre otros organismos, el ICCPR.
I. Legalidad (claridad y accesibilidad de las reglas)
Cada vez que se aplique una restricción a la libertad de expresión, se debe ofrecer información de fácil acceso y suficientemente clara que sirva como guía sobre lo que se permite y lo que no. El Consejo concluyó que la política de contenido violento y gráfico no explica con claridad cómo Meta permite a los usuarios compartir contenido gráfico para generar conciencia en torno a los abusos o para documentarlos. Las bases de la norma comunitaria, que establece los fines de la política, no se alinean con las reglas de la política. Las bases de la política establecen que Meta permite a los usuarios publicar contenido gráfico para ayudar a las personas a generar conciencia sobre los abusos de los derechos humanos, pero la política prohíbe todos los videos (ya sea que se compartan para generar conciencia o no) de personas o cadáveres en entornos no médicos si muestran desmembramiento. Si bien Meta recurrió debidamente a la concesión general de interés periodístico para restaurar este contenido, la norma comunitaria sobre contenido violento y gráfico no aclara si este tipo de contenido se permitirá en la plataforma.
El Consejo también concluyó que la concesión de interés periodístico no aclara si el contenido que documenta atrocidades o abusos de derechos humanos se beneficiará de esta concesión. A pesar de que estamos de acuerdo con Meta en que la determinación del interés periodístico puede ser muy subjetiva, la regla en cuestión ni siquiera define el término. La política establece que la empresa asigna valor especial al contenido que pone de manifiesto amenazas inminentes a la salud o la seguridad públicas, o que permite que se expresen perspectivas que actualmente se discuten como parte de un proceso político. Se deberían usar ejemplos emblemáticos y principios claros para guiar la discreción al aplicar esta concesión. En su ausencia, es probable que su uso sea incoherente y arbitrario. Además, la concesión de interés periodístico no hace referencia al uso de pantallas de advertencia (o anuncios intersticiales) para el contenido que infringe las políticas de Meta.
Por último, el Consejo, en un caso previo ("Manifestaciones colombianas"), recomendó a Meta desarrollar y publicar criterios claros para que los revisores de contenido remitan el contenido de interés público para una revisión adicional. Meta respondió que ya publicó los criterios para la remisión en un artículo sobre el interés periodístico en el Centro de transparencia. Sin embargo, este artículo se centra en los factores que Meta considera al aplicar la concesión de interés periodístico y no en los criterios proporcionados a los moderadores para explicar cuándo remitir el contenido (es decir, enviarlo para una revisión adicional). Si el fin de la concesión de interés periodístico es cooperar con el sistema de la empresa para moderar el contenido que es remitido, los procesos para la remisión y el uso deberían facilitar ese fin. El Consejo mencionó que la falta de claridad sobre cuándo y cómo se aplica la concesión de interés periodístico podría generar que esta política se aplique de modo arbitrario.
II. Fin legítimo
Las restricciones a la libertad de expresión deben tener un fin legítimo, lo que incluye la protección de los derechos de los demás, como el derecho a la privacidad de la persona que se muestra (observación general n.° 34, párrafo 28) y el derecho a la integridad física. Meta también menciona, en las bases de la política, que el contenido que enaltece la violencia o celebra el sufrimiento o la humillación de otros puede generar un ambiente poco alentador para la participación. El Consejo admitió que la política de contenido violento y gráfico tiene varios fines legítimos.
III. Necesidad y proporcionalidad
Toda restricción que se aplique a la expresión debe ser adecuada para cumplir su función de protección; debe ser el instrumento menos invasivo entre aquellos que le permitan cumplir dicha función; y debe ser proporcional al interés que se busca proteger (observación general n.º 34, párrafo 34).
En este caso, el Consejo concluyó que colocar una etiqueta de advertencia en el contenido fue una restricción de necesidad y proporcionalidad a la libertad de expresión. La pantalla de advertencia no representa una carga indebida para quienes quieren ver el contenido y sirve para informar a otros sobre la naturaleza del contenido y les permite decidir verlo o no. La pantalla de advertencia también protege de manera adecuada la dignidad de la persona que se muestra y a su familia.
El Consejo también aclaró que, como se analizó en la sección 8.1, la restauración de la publicación por parte de Meta se retrasó casi cinco semanas. Este retraso tuvo un impacto desproporcionado en la libertad de expresión en el contexto de la violencia continua y el entorno de restricciones a los medios en Sudán. Un retraso de esta magnitud afecta los beneficios de este contenido, que es advertir a las personas civiles y generar conciencia.
El Consejo también concluyó que, como la concesión de interés periodístico se usa con poca frecuencia, no es un mecanismo eficaz para permitir el contenido que documenta abusos o que tiene como fin generar conciencia en la plataforma a escala. Meta declaró al Consejo que documentó 17 concesiones de interés periodístico en relación con la política de contenido gráfico violento en los últimos 12 meses (12 meses previos al 8 de marzo de 2022). El contenido de este caso representa una de esas 17 concesiones. Como punto de comparación, Meta eliminó 90,7 millones de contenidos en virtud de esta norma comunitaria en los tres primeros trimestres de 2021. Al consejo le pareció poco probable que, en un año, solo 17 contenidos internacionales relacionados con esta política hayan recibido concesión para seguir apareciendo en la plataforma por su interés periodístico y público. La concesión de interés periodístico no es un mecanismo adecuado para mantener el contenido de esta naturaleza en la plataforma. Para evitar censurar expresiones protegidas, Meta debe enmendar la política de contenido violento y gráfico en sí para permitir que este tipo de contenido siga apareciendo en la plataforma.
En contextos de guerra o descontento político, los usuarios mostrarán y compartirán más contenido gráfico y violento en la plataforma con el fin de generar conciencia sobre los abusos o para documentarlos. Este contenido es importante para fomentar la responsabilidad. En el caso sobre la suspensión de la cuenta del expresidente Trump, el Consejo mencionó que Meta tiene la responsabilidad de recopilar, preservar y, si corresponde, compartir información para colaborar en la investigación y el posible procesamiento judicial de infracciones graves de leyes penales, de derechos humanos y humanitarias internacionales por parte de autoridades competentes y mecanismos de rendición de cuentas. El Consejo también recomendó a Meta aclarar y definir en sus protocolos de la Política corporativa de derechos humanos cómo proporcionar contenido público previo a los investigadores sin infringir las normas internacionales ni las leyes de protección de datos. Como respuesta, Meta se comprometió a presentar un resumen al Consejo sobre las iniciativas constantes para abordar este tema. Desde que el Consejo publicó esta recomendación el 5 de mayo de 2021, Meta no informó ningún avance en este tema. El Consejo consideró que un retraso de esta magnitud y la falta de avances son preocupantes debido al rol que tiene la plataforma en situaciones de conflicto violento (p. ej., la actual guerra en Ucrania, donde los usuarios documentan abusos a través de los medios sociales) y el descontento político en todo el mundo.
Por último, el Consejo recordó su recomendación sobre el caso de la suspensión de la cuenta del expresidente Trump, en la que sugirió a Meta desarrollar y publicar una política que rija la respuesta de Facebook ante situaciones nuevas o de crisis en las que los procesos habituales no prevendrían ni evitarían el daño inminente. En la actualización del cuarto trimestre de 2021 al Consejo asesor de contenido, Meta informó que preparó una propuesta para un nuevo protocolo de crisis en respuesta a la recomendación del Consejo y que la implementó. Meta también indicó que pronto proporcionará información sobre este protocolo en el Centro de transparencia. Meta informó al Consejo que este protocolo no estaba implementado al momento del golpe en Sudán ni durante la revisión de este caso. La empresa planifica lanzar el protocolo más adelante en 2022. Meta debería desarrollar e implementar las respuestas de necesidad y proporcionalidad en situaciones de crisis siguiendo un protocolo bien diseñado. Meta debería actuar con más rapidez para implementar este protocolo y proporcionar la mayor cantidad de detalles posible sobre cómo funcionará y cómo se complementará con los procesos existentes de Meta. Las plataformas de Meta tienen un rol prominente en situaciones de conflictos y crisis en todo el mundo, y la empresa debe estar preparada para responder de modo rápido y sistemático para prevenir errores.
9. Decisión del Consejo asesor de contenido
El Consejo asesor de contenido mantuvo la decisión de Meta de conservar el contenido con una pantalla que limite el acceso a personas mayores de 18 años.
10. Declaraciones de asesoramiento normativo
Política de contenido
1. Meta debería enmendar la norma comunitaria sobre contenido violento y gráfico para permitir videos de personas o cadáveres cuando se comparten con el fin de generar conciencia en torno a los abusos de los derechos humanos o documentarlos. Este contenido se debe permitir con una pantalla de advertencia para que las personas sepan que puede ser perturbador. El Consejo considerará que esta recomendación se implementó cuando Meta actualice la norma comunitaria.
2. Meta debería implementar un proceso de desarrollo de políticas que perfeccione los criterios para identificar los videos de personas o cadáveres si se comparten con el fin de generar conciencia en torno a los abusos de los derechos humanos o documentarlos. El Consejo considerará que esta recomendación se implementó cuando Meta publique las conclusiones del proceso de desarrollo de políticas, incluida información sobre el proceso y los criterios para identificar este contenido a escala.
3. Meta debería explicar de manera explícita en la descripción de la concesión de interés periodístico todas las acciones que se pueden tomar (por ejemplo, la restauración con una pantalla de advertencia) según esta política. El Consejo considerará que se implementó esta recomendación cuando Meta actualice la política.
Aplicación
4. Para garantizar que los usuarios entiendan las reglas, Meta debería informar a los usuarios cuando se toma una medida que involucra a su contenido en función de la concesión de interés periodístico, incluida la restauración del contenido o la aplicación de una pantalla de advertencia. En la notificación, se debe incluir un enlace que dirija a la explicación sobre la concesión de interés periodístico en el Centro de transparencia. El Consejo considerará que esto se implementó cuando Meta envíe esta notificación actualizada a los usuarios en todos los mercados y demuestre que los usuarios la reciben a través de datos de aplicación.
* Nota de procedimiento:
La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones personales de todos los miembros.
En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. Un instituto de investigación independiente con sede en la Universidad de Gotemburgo y un equipo conformado por más de 50 científicos sociales de seis continentes, así como 3.200 expertos de diferentes países del mundo. El Consejo también recibió asesoramiento de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología.
Volver a Decisiones de casos y opiniones consultivas sobre políticas