Decisión de casos múltiples

Imágenes del ataque terrorista en Moscú

El Consejo anuló las decisiones de Meta de eliminar tres publicaciones de Facebook con imágenes del ataque terrorista de marzo de 2024 en Moscú y solicitó que el contenido se restaurara con una pantalla de advertencia que indicara que era "contenido perturbador".

3 casos incluidos en el paquete

Anulado

FB-A7NY2F6F

Caso sobre contenido violento y gráfico en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Violencia
Estándar:
Contenido violento y gráfico
Ubicación
Rusia
Date
Publicado el 19 de noviembre de 2024
Anulado

FB-G6FYJPEO

Caso sobre contenido violento y gráfico en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Violencia
Estándar:
Contenido violento y gráfico
Ubicación
Rusia
Date
Publicado el 19 de noviembre de 2024
Anulado

FB-33HL31SZ

Caso sobre contenido violento y gráfico en Facebook

Plataforma
Facebook
Tema
Acontecimientos periodísticos,Violencia
Estándar:
Contenido violento y gráfico
Ubicación
Rusia
Date
Publicado el 19 de noviembre de 2024

Para leer la decisión completa del caso en ruso, haz clic aquí.

Чтобы прочитать это решение на русском языке, нажмите здесь.

Para descargar un archivo PDF con la decisión completa del caso, haz clic aquí.

Resumen

El Consejo anuló las decisiones de Meta de eliminar tres publicaciones de Facebook con imágenes del ataque terrorista de marzo de 2024 en Moscú y solicitó que el contenido se restaurara con una pantalla de advertencia que indicara que era "contenido perturbador".

Si bien las publicaciones infringían las reglas de Meta sobre mostrar el momento de ataques designados en víctimas visibles, la eliminación no fue coherente con las responsabilidades de la empresa en materia de derechos humanos. Las publicaciones, que tratan un hecho de gran reconocimiento mundial, tienen mucho valor para el interés público y deben protegerse conforme a la concesión de interés periodístico, según la mayoría del Consejo. En un país como Rusia con un entorno de medios restringido, la accesibilidad a ese tipo de contenido en los medios sociales es incluso más importante. Todas las publicaciones incluyen lenguaje claro que condena el ataque y muestra solidaridad con las víctimas o preocupación por ellas, sin riesgo evidente de que promuevan la radicalización o incitación.

La supresión de asuntos de suma preocupación pública sobre la base de miedos infundados de que podrían promover la radicalización no es coherente con las responsabilidades de Meta en materia de libertad de expresión. En tal sentido, Meta debe permitir, con una pantalla de advertencia que indique "contenido perturbador", imágenes de terceros de un hecho designado que muestren el momento del ataque en víctimas visibles, pero no identificables, cuando se compartan con el fin de informar, condenar o concientizar.

Información de los casos

El Consejo revisó tres casos juntos sobre contenido que distintos usuarios publicaron en Facebook inmediatamente después del ataque terrorista del 22 de marzo de 2024 en un auditorio y complejo comercial de Moscú.

El primer caso mostraba un video en el que se veía parte del ataque en el interior del complejo comercial, filmado aparentemente por un transeúnte. Si bien los atacantes y las personas a quienes se les disparó se veían, pero no podían identificarse con facilidad, sí se podía identificar a otras personas que salían del edificio. En el texto, se preguntaba qué estaba sucediendo en Rusia y había oraciones por los afectados.

El segunda caso exhibía un clip más corto de las mismas imágenes, con un texto que advertía a las personas sobre el contenido e indicaba que, en el mundo, no hay lugar para el terrorismo.

El tercer caso consistía en una publicación que un administrador había compartido en la página de un grupo de Facebook. En la descripción del grupo, había una expresión de apoyo al excandidato a presidente de Francia Éric Zemmour. La publicación incluía una imagen fija del ataque, que posiblemente había sido tomada del mismo video, en la que se observaba a los tiradores y las víctimas. Además, había un video corto del complejo comercial en llamas, filmado por alguien que pasaba en auto. En el texto, se indicaba que Ucrania había afirmado no tener nada que ver con el ataque y se señalaba que nadie había asumido la responsabilidad. También había una declaración de apoyo al pueblo ruso.

Meta eliminó las tres publicaciones por infringir su política de personas y organizaciones peligrosas, que prohíbe categóricamente las imágenes de terceros que muestran el momento de tales ataques en víctimas visibles. Meta designó el ataque de Moscú como un ataque terrorista el día en que sucedió. De acuerdo con Meta, otro usuario ya había publicado el mismo video que se compartió en los dos primeros casos, y este había se había remitido a expertos en la materia o en las políticas de la empresa para una revisión adicional ese mismo día. Luego de dicha revisión, Meta decidió eliminar el video y lo agregó a un banco de Media Matching Service (MMS). Posteriormente, el banco de MMS determinó que el contenido de los dos primeros casos coincidía con el video incluido en el banco que se había etiquetado para su eliminación y lo borró de forma automática. En el tercer caso, Meta eliminó el contenido tras una revisión manual.

El ataque sucedido el 22 de marzo de 2024 en el centro Crocus City Hall de Moscú terminó con la vida de, al menos, 143 personas. Poco después del ataque, un afiliado del Estado Islámico, ISIS-K, asumió la responsabilidad. De acuerdo con los expertos a quienes consultó el Consejo, decenas de millones de rusos vieron el video del ataque en canales de medios estatales, así como en plataformas de medios sociales rusos. Si bien el presidente ruso Vladimir Putin afirmó que el ataque estuvo vinculado a Ucrania y respaldado por inteligencia occidental, Ucrania negó todo tipo de involucramiento.

Conclusiones principales

Si bien las publicaciones informaban sobre los ataques, concientizaban acerca de estos o los condenaban, Meta no aplica estas excepciones en virtud de la política de personas y organizaciones peligrosas a "imágenes de terceros que muestren el momento de ataques [designados] en víctimas visibles". En tal sentido, para el Consejo, queda claro que las tres publicaciones infringían las reglas de Meta.

No obstante, la mayoría del Consejo determinó que la eliminación de este contenido no fue coherente con las responsabilidades de Meta en materia de derechos humanos y que el contenido debería haberse protegido en virtud de la concesión de interés periodístico. Las tres publicaciones incluían un tema de debate público apremiante relacionado con un hecho periodístico de gran reconocimiento mundial. No existía riesgo evidente de que las publicaciones promovieran la radicalización o incitación. Cada una de las publicaciones incluía lenguaje claro que condenaba el ataque, mostraba solidaridad con las víctimas o preocupación por ellas, y procuraba informar al público. La ausencia de libertad mediática de Rusia y el hecho de que las víctimas no pudieran identificarse con facilidad remarcaban el interés público propio de estas publicaciones.

La supresión de contenido que trata asuntos de suma preocupación pública sobre la base de miedos infundados de que podría promover la radicalización no es coherente con las responsabilidades de Meta en materia de libertad de expresión. Esto es especialmente relevante cuando millones de personas vieron las imágenes acompañadas por declaraciones de que el ataque podía atribuirse en parte a Ucrania. El Consejo destacó la importancia de mantener el acceso a la información durante situaciones de crisis, en especial, en Rusia, donde las personas dependen de los medios sociales para poder acceder a información o concientizar a los públicos internacionales.

En ciertas situaciones, eliminar el contenido que muestra víctimas identificables es necesario y proporcionado (p. ej., en conflictos armados en que las víctimas son prisioneros de guerra). Sin embargo, como las víctimas de estos casos no pueden identificarse con facilidad, la restauración de las publicaciones con una pantalla de advertencia con restricción de edad concuerda mejor con las responsabilidades de Meta en materia de derechos humanos. Por lo tanto, Meta debería modificar su política para permitir imágenes de terceros con víctimas visibles que no puedan identificarse personalmente cuando se compartan explícitamente con fines informativos, condenatorios o de concientización.

Una minoría del Consejo estuvo en desacuerdo y sostendría las decisiones de Meta de eliminar las publicaciones de Facebook. Para dicha minoría, la naturaleza gráfica de las imágenes y el hecho de que mostraban el momento del ataque y, en este caso, la muerte de víctimas visibles, exige la eliminación por la dignidad de las víctimas y sus familias.

Además, el Consejo determinó que la ubicación actual de la regla sobre imágenes de hechos violentos que infringen las normas en la política sobre personas y organizaciones peligrosas confunde a los usuarios. Si bien la sección "Eliminamos" implica que se permite el contenido condenatorio y la información periodística, en otras secciones, se indica que las imágenes generadas por los responsables de los ataques y las imágenes de terceros del momento de los ataques en víctimas visibles están prohibidas, y no se especifica que Meta eliminará tal contenido incluso si condena los ataques o concientiza acerca de ellos.

La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló las decisiones de Meta de eliminar las tres publicaciones y solicitó que se restaurara el contenido con una pantalla de advertencia que indicara que era "contenido perturbador".

Asimismo, el Consejo le recomendó a Meta:

  • Permitir, con una pantalla de advertencia que indique "contenido perturbador", imágenes de terceros de un hecho designado que muestren el momento del ataque en víctimas visibles, pero que no puedan identificarse de forma personal, cuando se compartan en contextos periodísticos, condenatorios o de concientización.
  • Incluir en la sección "Eliminamos" de la norma comunitaria sobre personas y organizaciones peligrosas una regla que trate los hechos violentos designados. Además, debería trasladar la explicación sobre cómo Meta trata el contenido que muestra hechos designados de la sección "Bases de la política" a esta sección.

* Los resúmenes de casos ofrecen información general sobre los casos y no sientan precedentes.

Decisión del caso completa

1. Descripción y contexto del caso

El Consejo asesor de contenido revisó tres casos juntos sobre contenido que distintos usuarios publicaron en Facebook inmediatamente después del ataque terrorista del 22 de marzo de 2024 en un auditorio y complejo comercial de Moscú. Desde marzo de 2022, cuando un ministro gubernamental etiquetó la empresa como "organización extremista", las plataformas de Meta permanecen bloqueadas en Rusia. Sin embargo, las personas siguen accediendo a las plataformas de Meta a través de redes privadas virtuales (VPN).

En el primer caso, un usuario de Facebook publicó un clip de video corto en su perfil, acompañado por un texto en inglés. En el video, se veía parte del ataque en el interior del complejo comercial, con imágenes grabadas aparentemente por un transeúnte. Se veían personas armadas disparándoles a personas no armadas a una distancia cercana. Algunas de las víctimas se agachaban, y otras escapaban. La resolución de las imágenes no era alta. Si bien los atacantes y las personas a quienes se les disparó se veían, pero no podían identificarse con facilidad, sí se podía identificar a otras personas que salían del edificio. En el audio, se oían disparos y personas gritando. En el texto, se preguntaba qué estaba sucediendo en Rusia y había oraciones por los afectados. Cuando Meta eliminó la publicación, a los pocos minutos de que se realizara, tenía menos de 50 visualizaciones.

En el segundo caso, otro usuario de Facebook publicó un clip más corto de las mismas imágenes, también acompañado por texto en inglés que advertía a las personas sobre el contenido e indicaba que, en el mundo, no hay lugar para el terrorismo. Cuando Meta eliminó la publicación, a los pocos minutos de que se realizara, tenía menos de 50 visualizaciones.

El tercer caso consistía en una publicación que un administrador había compartido en la página de un grupo. En la descripción del grupo, había una expresión de apoyo al excandidato a presidente de Francia Éric Zemmour. La publicación incluía una imagen fija del ataque, que posiblemente había sido tomada del mismo video, en la que se observaba a los tiradores y las víctimas. Además, había un video corto del complejo comercial en llamas, filmado por alguien que pasaba en auto. El texto en francés incluía la palabra "Alerta" junto con comentarios sobre el ataque, como la cantidad informada de muertes. También indicaba que Ucrania había manifestado no tener nada que ver con el ataque y señalaba que nadie había asumido la responsabilidad por él. El texto finalizaba con una comparación con el ataque terrorista en el Bataclan, en París, y una declaración de apoyo al pueblo ruso. Cuando Meta eliminó la publicación el día después de que se realizara, tenía unas 6000 visualizaciones.

La empresa eliminó las tres publicaciones en virtud de su norma comunitaria sobre personas y organizaciones peligrosas, que prohíbe compartir cualquier contenido generado por los responsables del ataque relacionado con ataques designados, así como las imágenes registradas o producidas por terceros (p. ej., transeúntes, periodistas) que muestren el momento de ataques terroristas en víctimas visibles. Meta designó el ataque de Moscú como ataque terrorista el mismo día en que sucedió. De acuerdo con Meta, otro usuario ya había publicado el mismo video que se compartió en los dos primeros casos, y este había se había remitido a expertos en la materia o en las políticas de la empresa para una revisión adicional ese mismo día. Luego de dicha revisión, Meta decidió eliminar el video y lo agregó a un banco de Media Matching Service (MMS). Posteriormente, el banco de MMS determinó que el contenido de los dos primeros casos coincidía con el video incluido en el banco que se había etiquetado para su eliminación y lo borró de forma automática. Meta no aplicó ninguna falta ni limitación de funciones a los perfiles de los usuarios, ya que el banco se había configurado para eliminar el contenido sin imponer ninguna penalización. En el tercer caso, Meta eliminó el contenido tras una revisión manual y aplicó una falta que implicó una limitación de las funciones de 30 días. La limitación de las funciones aplicada al usuario evitó que creara contenido en la plataforma, creara salas de Messenger o se uniera ellas, y publicara anuncios o creara videos en vivo. No está claro el motivo por el que el sistema de MMS no identificó este contenido.

En los tres casos, los usuarios realizaron una apelación a Meta. En la instancia de revisión manual, se determinó que todas las publicaciones infringían las normas. Después de que el Consejo seleccionara estos casos para su revisión, Meta confirmó que su decisión de eliminar las tres publicaciones era correcta, pero quitó la falta del tercer caso.

El Consejo destacó el siguiente contexto en cuanto a la decisión que tomó.

El ataque sucedido el 22 de marzo de 2024 en el centro Crocus City Hall de Moscú terminó con la vida de, al menos, 143 personas. Poco después del ataque, un afiliado del Estado Islámico, ISIS-K, asumió la responsabilidad. Investigadores rusos rápidamente acusaron a cuatro hombres. Oficiales rusos declararon tener a 11 personas en custodia, incluidos los cuatro supuestos tiradores, y afirmaron haber encontrado una conexión entre los atacantes y Ucrania, a pesar de que Ucrania había negado todo involucramiento.

El ISIS-K surgió en 2015 con combatientes desafectados del Movimiento de los Talibanes Pakistaníes. El grupo había combatido contra los talibanes en Afganistán y realizado otros ataques dirigidos en Irán, Rusia y Pakistán. De acuerdo con un informe periodístico, el grupo "lanzó una gran cantidad de propaganda contra Rusia en la que denunciaba al Kremlin por sus intervenciones en Siria y condenaba a los talibanes por involucrarse con las autoridades rusas décadas después de que la Unión Soviética invadiera Afganistán".

De acuerdo con los expertos a quienes consultó el Consejo, decenas de millones de rusos vieron el video del ataque en canales de medios estatales, así como en plataformas de medios sociales rusos. El presidente ruso Vladimir Putin afirmó que el ataque estuvo vinculado a Ucrania y respaldado por inteligencia occidental. De acuerdo con una encuesta de opinión pública llevada a cabo por el Centro Levada en Rusia entre el 18 y el 24 de abril, casi todos los encuestados afirmaron saber sobre el ataque y estar siguiendo la historia de cerca, mientras que la mitad creía que servicios de inteligencia ucraniana estaban involucrados.

Según una investigación encargada por el Consejo, el video que se compartió en estos casos había circulado en gran medida en internet, incluso en cuentas de medios rusos e internacionales. Los investigadores encontraron algunas publicaciones en Facebook con las imágenes e instancias aisladas de cuentas posiblemente afiliadas al ISIS o de apoyo a este que celebraban el ataque. Los investigadores informaron que plataformas de medios sociales con moderación de contenido menos rigurosa tenían una cantidad significativamente mayor de contenido generado por los responsables del ataque.

En 2024, VK, WhatsApp y Telegram eran las plataformas más usadas en Rusia. El Gobierno ejerce un control significativo sobre los medios, con autoridad directa o indirecta sobre "todas las redes nacionales de televisión y la mayoría de las radios y los medios de comunicación impresos". Desde la invasión a Ucrania, el "Gobierno también comenzó a restringir el acceso a una gran variedad de sitios web, incluidos sitios de medios de comunicación periodísticos nacionales y extranjeros. Se obligó a más de 300 medios de comunicación a suspender sus actividades". El Gobierno también restringió estrictamente el acceso de medios de comunicación extranjeros y sometió a periodistas afiliados a acusaciones falsas, arrestos y encarcelamiento.

2. Respuestas de los usuarios

Los usuarios de los tres casos presentaron una apelación al Consejo. En sus declaraciones, explicaron que habían compartido el video para advertir y proteger al pueblo ruso. Dijeron que condenaban el terrorismo y que Meta no debería evitar que se informe a las personas sobre hechos reales.

3. Respuestas y políticas de contenido de Meta

I. Políticas de contenido de Meta

Norma comunitaria sobre personas y organizaciones peligrosas

De acuerdo con las bases de la política de personas y organizaciones peligrosas, para evitar y prevenir daños en la vida real, Meta no permite en sus plataformas la presencia de personas u organizaciones que reivindiquen una misión violenta o cometan actos de violencia. En la norma comunitaria, se prohíbe el "contenido que glorifique, apoye o represente hechos que Meta designa como hechos violentos que infringen las normas", incluidos los ataques terroristas. Tampoco se permite "(1) la glorificación, el apoyo ni la representación de los responsables de dichos ataques; (2) contenido generado por los responsables de dichos ataques; ni (3) imágenes de terceros que muestren el momento de dichos ataques en víctimas visibles" (se hace hincapié en esto). En la norma comunitaria, se proporcionan los siguientes ejemplos de hechos violentos infractores: "ataques terroristas, hechos de odio, violencia o intentos de violencia contra varias víctimas, asesinatos en serie o crímenes de odio". Sin embargo, no se especifican los criterios para la designación ni se proporciona una lista de los hechos designados.

De acuerdo con las pautas internas que se otorgan a los revisores, Meta elimina las imágenes que muestran el momento de los ataques en víctimas visibles "sin importar el contexto en que se comparten".

Norma comunitaria sobre contenido violento y gráfico

En las bases de la política de contenido violento y gráfico, se indica que la empresa entiende que las personas "son sensibles en diferentes grados a las imágenes gráficas o violentas" y que Meta elimina la mayoría del contenido gráfico, además de agregar una etiqueta de advertencia al resto del contenido gráfico para advertir a las personas. En virtud de esta política, se permiten, con una pantalla de advertencia que indique "contenido perturbador", "imágenes (videos e imágenes fijas) que muestran la muerte violenta de una persona (incluida su muerte o el momento posterior) o a una persona que experimenta un suceso fatal". La política prohíbe tales imágenes cuando muestran desmembramiento, vísceras visibles, carbonización o degollación.

Concesión de interés periodístico

En ciertas circunstancias, la empresa permitirá que contenido que infrinja sus políticas permanezca en la plataforma si es "de interés periodístico y si mantenerlo visible es una cuestión de interés público". Al tomar la decisión, "[Meta evaluará] si el contenido pone de manifiesto amenazas inminentes a la salud o la seguridad públicas, o permite que se expresen perspectivas que actualmente se discuten como parte de un proceso político". El análisis se basa en las circunstancias específicas del país y considera la naturaleza del discurso y la estructura política del país afectado. "En el caso del contenido que pueda resultar delicado o perturbador, incluimos una pantalla de advertencia y podemos limitarlo a adultos mayores de 18 años. Las concesiones de interés periodístico pueden ser 'limitadas', que se aplican a un solo contenido, o 'amplias', que se pueden aplicar más ampliamente a algo como una frase".

II. Respuestas de Meta

Meta determinó que las tres publicaciones infringían su política de personas y organizaciones peligrosas, que prohíbe categóricamente las imágenes de terceros que muestran el momento de tales ataques contra víctimas visibles. Según Meta, "la eliminación de este contenido ayuda a limitar la imitación de estos comportamientos y a evitar la difusión de contenido que pondera a los responsables de los ataques y podría tener un valor de propaganda". Asimismo, la empresa procura "proteger la dignidad de toda víctima que no dio su consentimiento para ser objeto de la curiosidad pública y la atención de los medios". De acuerdo con Meta, al igual que con todos los foros de políticas, la empresa considera varias fuentes para tomar una decisión, incluidas investigaciones académicas, perspectivas de terceros y opiniones de los equipos operativos y de políticas internos.

Meta también explicó que permite tal contenido que infringe las normas en virtud de la concesión de interés periodístico en casos excepcionales. No obstante, en estos tres casos, la empresa no aplicó la concesión porque concluyó que el valor para el interés público de permitir la distribución del contenido no superaba el riesgo de daño. Meta consideró el hecho de que las imágenes exponían a víctimas visibles y que se compartió poco después de los ataques. En su perspectiva, mostrar estas imágenes no era necesario para condenar ni para generar conciencia.

Meta reconoció que eliminar este tipo de contenido sin importar el contexto "puede conllevar un riesgo de sobreaplicación de las políticas en el discurso y podría limitar la información y la concientización sobre hechos de preocupación pública, en especial, si se acompaña de comentarios de condena, concientización o debate neutral en torno a tales ataques". El enfoque predeterminado actual consiste en que la empresa configura bancos de MMS para eliminar todo contenido que coincida con el contenido que se encuentra en dichos bancos, sin importar el texto y sin aplicar ninguna falta. Este enfoque evita la distribución de contenido ofensivo sin la aplicación de una penalización, ya que reconoce que muchos usuarios podrían compartir representaciones de una crisis por motivos legítimos o sin motivos maliciosos. Meta realizó un proceso de desarrollo de políticas formal con respecto a las imágenes de ataques violentos designados, incluidos los videos que muestran ataques terroristas. Ese proceso finalizó este año, luego de que se publicara el contenido de estos tres casos. Como resultado de este proceso, Meta implementó el siguiente enfoque: luego de la designación de un hecho, Meta eliminará todas las imágenes de dicho hecho infractoras (generadas por los responsables del ataque o por terceros que muestren el momento de los ataques en las víctimas) sin aplicar faltas, independientemente del contexto en que se compartan, durante períodos más extensos de los indicados en el protocolo actual. Luego de este período, solo las imágenes que se compartan con fines de glorificación, apoyo o representación se eliminarán y recibirán una falta grave. La empresa indicó que este enfoque es el medio menos restrictivo disponible para mitigar los daños a los derechos de las demás personas, incluido el derecho a la privacidad y la protección de la dignidad de las víctimas y sus familias.

El Consejo le hizo preguntas a Meta sobre si la empresa consideró el impacto de prohibir todas las imágenes generadas por los responsables de los ataques y por terceros del momento de los ataques en víctimas visibles en los países con entornos de medios cerrados; si hay instrumentos normativos en el protocolo de la política de crisis relevantes para los hechos designados; y el resultado del proceso de desarrollo de políticas de Meta sobre las imágenes de hechos designados. Meta respondió todas las preguntas.

4. Comentarios del público

El Consejo asesor de contenido recibió seis comentarios del público dentro de los plazos de presentación. Cinco de ellos procedían de los Estados Unidos y Canadá, y uno, de África Occidental. Para leer los comentarios del público enviados con consentimiento de publicación, haz clic aquí.

Los comentarios enviados se referían a los siguientes temas: riesgo de sobreaplicación de políticas; uso de videos gráficos por parte de entidades designadas y riesgo de radicalización; daños psicológicos a partir de la proliferación de contenido gráfico; desafío de distinguir entre imágenes producidas por los responsables de los ataques y por terceros; importancia de los medios sociales para difundir información oportuna durante situaciones de crisis; valor de tal contenido para la documentación por parte del público, periodistas e investigadores; opción de agregar pantallas de advertencia con restricción de edad; y necesidad de aclarar definiciones en las políticas de personas y organizaciones peligrosas, y contenido violento y gráfico.

5. Análisis del Consejo asesor de contenido

El Consejo analizó la decisión de Meta en estos casos en relación con sus políticas de contenido, valores y responsabilidades en materia de derechos humanos. Asimismo, el Consejo evaluó las implicaciones de estos casos para el enfoque más general de Meta en cuanto a la gobernanza de contenido.

5.1 Cumplimiento de las políticas de contenido de Meta

I. Reglas de contenido

Para el Consejo, queda claro que las tres publicaciones (dos videos y una imagen) infringen la prohibición de Meta sobre "imágenes de terceros que muestran el momento de ataques [designados] en víctimas visibles". Meta designó el ataque del 22 de marzo en Moscú conforme a su política de personas y organizaciones peligrosas antes de que se compartieran las publicaciones. La regla, tal como se define en la norma comunitaria y se explica en mayor medida en las pautas internas, prohíbe tales imágenes de ataques, independientemente del contexto en que se compartan o el texto que las acompañe (consulta la decisión del caso Rehenes secuestrados de Israel).

En el video, aparecían personas armadas disparándoles a personas no armadas a una distancia cercana, donde algunas víctimas se agachaban, y otras escapaban. Se oían tiros y personas gritando. En la tercera publicación, se captó el mismo hecho en una imagen fija. Si bien las tres publicaciones informaban acerca de los ataques, concientizaban en torno a ellos o los condenaban, Meta no aplicó la excepción a estos fines en virtud de la prohibición de imágenes de terceros de momentos de ataques en víctimas visibles.

Sin embargo, para la mayoría del Consejo, las tres publicaciones representan en su esencia lo que la concesión de interés periodístico procura proteger. El contenido muestra un hecho que fue de gran reconocimiento periodístico en todo el mundo. El contenido se compartió poco después del ataque e incluía información dirigida al público. Durante este tiempo, cuando la realidad sobre qué había sucedido, quiénes podrían ser los responsables y cómo estaba respondiendo el Gobierno ruso era objeto de un debate apremiante, el valor para el interés público de este contenido era especialmente alto. Las imágenes y los videos de este tipo les permiten a los ciudadanos de todo el mundo poder crear sus propias impresiones de los hechos sin tener que depender completamente del contenido filtrado por los gobiernos, los medios sociales u otros medios de comunicación. El Consejo consideró la falta de libertad de los medios de comunicación de Rusia y el impacto que esto tiene en el acceso a la información relevante para su análisis, ya que subraya la importancia del contenido que puede facilitar que el público esté informado. El hecho de que, en las tres publicaciones, las víctimas podían verse, pero no identificarse, acentuó el interés público de este contenido, en comparación con los intereses de privacidad y dignidad que están en juego. Para conocer otro análisis y el punto de vista de la minoría, relevantes para la decisión del Consejo, consulta la sección sobre derechos humanos a continuación.

II. Transparencia

De acuerdo con Meta, la empresa cuenta con varios instrumentos en el protocolo de la política de crisis para afrontar los casos de "sobreaplicación de políticas, según sea necesario, durante las situaciones de crisis". Sin embargo, no usó estos instrumentos porque el ataque de Moscú no se había designado como una crisis conforme al protocolo. Meta creó el protocolo de la política de crisis en respuesta a una recomendación del Consejo en la que se indicó que la empresa debía desarrollar y publicar una política que rigiera la actuación de Meta ante las crisis o las situaciones sin precedentes (recomendación n.º 19 del caso Suspensión de la cuenta del expresidente de los EE. UU. Donald Trump). Luego, el Consejo le pidió a Meta que publicara más información sobre el protocolo de la política de crisis (recomendación n.º 1 del caso Consejo de comunicaciones de Tigray). Como respuesta, Meta publicó esta explicación en su Centro de transparencia, pero se negó a compartir públicamente el protocolo en su totalidad. El Consejo determinó que la explicación breve que se compartió de forma pública no es suficiente para permitirles al Consejo, los usuarios y el público en general comprender el protocolo de la política de crisis. El Consejo ya remarcó la importancia que tiene un protocolo de este tipo para garantizar una actuación efectiva y coherente por parte de Meta ante las crisis y las situaciones de conflictos. La "Declaración de principios para la gobernanza del contenido y las plataformas en tiempos de crisis" de 2022 (desarrollada por las ONG Access Now, Article 19, Mnemonic, Center of Democracy and Technology, JustPeace Labs, Digital Security Lab Ukraine, Center for Democracy and Rule of Law [CEDEM] y Myanmar Internet Project) identifica el desarrollo de un protocolo de crisis como una herramienta clave para la gobernanza efectiva del contenido durante las situaciones de crisis. No obstante, el Consejo y el público ignoran por completo los motivos por los que el protocolo de la política de crisis no se aplicó en este caso y de qué modo podría haber diferido el tratamiento del contenido si se hubiera hecho. Por lo tanto, se necesita una mayor transparencia en torno a cuándo y cómo se usa el protocolo, los resultados de las auditorías y las evaluaciones que la empresa lleva a cabo sobre la efectividad de este y todo cambio a las políticas o los sistemas que aborden deficiencias detectadas. De acuerdo con los Principios Rectores sobre las Empresas y los Derechos Humanos de las Naciones Unidas (UNGP), las empresas deberían "hacer un seguimiento de la eficacia de sus [medidas de mitigación]" (Principio 20) y "comunicarlas exteriormente" (Principio 21). Sin tales divulgaciones, es imposible para el Consejo, los usuarios de Meta o la sociedad civil comprender el funcionamiento del protocolo o cómo podría optimizarse su eficacia.

5.2 Cumplimiento de las responsabilidades de Meta en materia de derechos humanos

El Consejo determinó que, a pesar de que las publicaciones infringen la política de personas y organizaciones peligrosas de Meta, la eliminación de este contenido no fue coherente con las políticas de Meta, su compromiso con el valor de expresión o sus responsabilidades en materia de derechos humanos.

Libertad de expresión (artículo 19 del ICCPR)

El 16 de marzo de 2021, Meta anunció su Política corporativa de derechos humanos, en la que describe su compromiso con el respeto de los derechos de conformidad con los Principios Rectores sobre las empresas y los derechos humanos de las Naciones Unidas (UNGP). Estos principios, respaldados por el Consejo de Derechos Humanos de la ONU en 2011, establecen un marco voluntario que encuadra las responsabilidades de las empresas privadas en cuanto a estos derechos. Estas responsabilidades implican, entre otras cosas, que las empresas "deben abstenerse de infringir los derechos humanos de terceros y hacer frente a las consecuencias negativas sobre los derechos humanos en las que tengan alguna participación" (Principio 11, UNGP). Se espera que las empresas: "(a) eviten que sus propias actividades provoquen o contribuyan a provocar consecuencias negativas sobre los derechos humanos y hagan frente a esas consecuencias cuando se produzcan; (b) traten de prevenir o mitigar las consecuencias negativas sobre los derechos humanos directamente relacionadas con operaciones, productos o servicios prestados por sus relaciones comerciales, incluso cuando no hayan contribuido a generarlos" (Principio 13, UNGP).

Las prácticas de moderación de contenido de Meta pueden tener incidencias negativas en el derecho a la libertad de expresión. El artículo 19 del Pacto Internacional de Derechos Civiles y Políticos (ICCPR) protege ampliamente este derecho, dada su importancia para el discurso político, y el Comité de Derechos Humanos señaló que también protege la expresión que puede resultar "profundamente ofensiva" ( observación general n.º 34, párrafos 11, 13 y 38). Si un Estado impone restricciones sobre la libertad de expresión, estas deben cumplir los requisitos de legalidad, fin legítimo y necesidad y proporcionalidad (artículo 19, párrafo 3, del ICCPR). Se suele hacer referencia a estos requisitos como "prueba de tres partes". El Consejo usa este marco para interpretar los compromisos voluntarios de Meta con los derechos humanos, tanto respecto de la decisión sobre el contenido en particular en revisión como del enfoque más amplio de la empresa en relación con la gestión del contenido. Como indicó el Relator Especial de la ONU sobre libertad de opinión y expresión, "las empresas no tienen las obligaciones de los gobiernos, pero sus efectos son de un tipo que les obliga a evaluar el mismo tipo de cuestiones sobre la protección del derecho de sus usuarios a la libertad de expresión" (A/74/486, párrafo 41).

I. Legalidad (claridad y accesibilidad de las reglas)

El principio de legalidad exige que las reglas que limitan la expresión sean accesibles y claras, y estén formuladas con precisión suficiente para que una persona pueda regular su comportamiento de conformidad con ellas (observación general n.º 34, párrafo 25). Asimismo, estas reglas "no pueden conferir a los encargados de su aplicación una discrecionalidad sin trabas para restringir la libertad de expresión" y deben "proporcionar suficientes orientaciones a los encargados de su ejecución para que puedan distinguir cuáles expresiones pueden restringirse correctamente y cuáles no" (ibidem). El Relator Especial sobre la libertad de expresión de la ONU dijo que, cuando se aplican a la gobernanza del discurso online por parte de actores privados, las reglas deben ser claras y específicas (A/HRC/38/35, párrafo 46). Las personas que usan las plataformas de Meta deben ser capaces de acceder a las reglas y entenderlas, y los revisores de contenido deben tener pautas claras para su aplicación.

El Consejo determinó que la ubicación actual de la regla sobre imágenes de hechos violentos que infringen las normas en la política sobre personas y organizaciones peligrosas probablemente confunda a los usuarios. En la sección "Eliminamos" de la política, se indica: "Eliminamos la glorificación de las entidades de los niveles 1 y 2, así como de los hechos designados. Para el nivel 1 y los hechos designados, también podemos eliminar referencias poco claras o sin contexto si la intención del usuario no estaba claramente indicada". La parte que explica específicamente la prohibición sobre imágenes generadas por los responsables de los ataques y por terceros (que es una política aparte de lo anterior) figura en las "Bases de la política" y en la sección titulada "Tipos y niveles de organizaciones peligrosas" de la norma comunitaria. El texto de la sección "Eliminamos" implica que se permite el contenido condenatorio y la información periodística, mientras que el texto de otras secciones (bases de la política y tipos/niveles) indica que las imágenes generadas por los responsables de los ataques y las imágenes de terceros del momento de los ataques en víctimas visibles están prohibidas, y no se especifica que Meta eliminará tal contenido independientemente del motivo por el que se comparta o el marco en que se haga (p. ej., condena o concientización). La ubicación de la regla y la falta de claridad respecto del alcance de las excepciones aplicables generan una confusión innecesaria. Meta debería trasladar la regla sobre imágenes de hechos designados de la sección "Eliminamos" y crear una nueva sección para los hechos violentos que infringen las normas.

II. Fin legítimo

La política de personas y organizaciones peligrosas de Meta busca "evitar e impedir que se produzcan daños fuera de internet". En varias decisiones, el Consejo determinó que esta política tiene como fin legítimo proteger los derechos de los demás, como el derecho a la vida (artículo 6 del ICCPR) y el derecho a la no discriminación y a la igualdad (artículos 2 y 26 del ICCPR), porque abarca organizaciones que promueven el odio, la violencia y la discriminación, como así también hechos violentos motivados por el odio. Consulta las decisiones de los casos Referencia a personas peligrosas designadas como "shaheed", Cautivo en video de las Fuerzas de Apoyo Rápido de Sudán, Rehenes secuestrados de Israel y Campaña electoral 2023 en Grecia. Las políticas de Meta también procuran el fin legítimo de proteger el derecho a la privacidad de las víctimas identificables y sus familias (consulta la decisión del caso Video tras el ataque en una iglesia de Nigeria).

III. Necesidad y proporcionalidad

El principio de necesidad y proporcionalidad previsto en el artículo 19(3) del ICCPR exige que las restricciones que se apliquen a la expresión "deben ser adecuadas para desempeñar su función protectora; deben ser el instrumento menos perturbador de los que permitan conseguir el resultado deseado, y deben guardar proporción con el interés que debe protegerse" (observación general n.º 34, párrafo 34).

En estos tres casos, para la mayoría del Consejo, no existe un riesgo evidente ni real de que las publicaciones promuevan la radicalización e incitación. Cada una de las publicaciones incluía lenguaje claro que condenaba el ataque, mostraba solidaridad con las víctimas o preocupación por ellas, y procuraba informar al público. Los videos se publicaron inmediatamente después del ataque. El texto de la primera publicación mostraba de forma explícita apoyo a las víctimas e indicaba que la persona que había publicado el contenido lo hacía para compartir información y brindar mayor claridad sobre lo que había sucedido. La persona que realizó la segunda publicación manifestó solidaridad con las víctimas de Rusia y condenó la violencia. Y la tercera publicación proporcionaba información junto con una imagen fija y un video breve, además de comunicar que nadie había asumido la responsabilidad y que Ucrania había afirmado no tener nada que ver con el ataque, lo que contradecía la propaganda difundida extensamente por Rusia en los medios estatales. La supresión de contenido que trata asuntos de suma preocupación pública sobre la base de miedos infundados de que podría promover la radicalización no es coherente con las responsabilidades de Meta en materia de libertad de expresión, en especial, cuando millones de personas habían visto las mismas imágenes acompañadas por declaraciones de que el ataque podía atribuirse en parte a Ucrania. El Consejo remarcó la importancia de mantener el acceso a la información durante las situaciones de crisis y en el entorno de medios restringido de Rusia, donde las personas dependen de los medios sociales para poder acceder a información o concientizar a los públicos internacionales.

Permitir tales imágenes con una pantalla de advertencia en virtud de la norma comunitaria sobre contenido violento y gráfico de Meta ofrece un medio menos restrictivo de proteger los derechos de las demás personas (consulta el análisis sobre medios menos restrictivos en su totalidad a continuación). Dicha política permite, con una pantalla de advertencia que indique "contenido perturbador", "imágenes (videos e imágenes fijas) que muestran la muerte violenta de una persona (incluida su muerte o el momento posterior) o a una persona que experimenta un suceso fatal".

Asimismo, como el Consejo sostuvo anteriormente, cuando se puede identificar a las víctimas de tal violencia en la imagen, el contenido "más directamente compromete sus derechos de privacidad y los derechos de sus familiares" (consulta la decisión del caso Video tras el ataque en una iglesia de Nigeria). En esa decisión, en la que el contenido mostraba el horror generado tras un ataque terrorista, la mayoría del Consejo decidió que eliminar el contenido no era necesario ni proporcionado, y que se debía restaurar la publicación con una pantalla de advertencia con restricción de edad. Las imágenes en cuestión de estas tres publicaciones no tienen alta resolución, y si bien los atacantes y las personas pueden verse, no pueden identificarse con facilidad. En ciertas circunstancias, la eliminación de contenido que muestra víctimas identificables será una medida necesaria y proporcionada (p. ej., en conflictos armados, cuando las víctimas son prisioneros de guerra o rehenes sujetos a protecciones especiales conforme a leyes internacionales). Sin embargo, en estos tres casos, dado que no se puede identificar fácilmente a las víctimas ni se las ve de una forma humillante o degradante, la restauración de las publicaciones con una pantalla de advertencia con restricción de edad es más acorde a las responsabilidades de Meta en materia de derechos humanos.

Una minoría del Consejo estuvo en desacuerdo y sostendría la decisión de Meta de eliminar las tres publicaciones de Facebook. Esta minoría estuvo de acuerdo en que no es probable que el contenido de este caso, grabado por alguien en el lugar y compartido para informar sobre el ataque o condenarlo, incite a la violencia o promueva la radicalización. Sin embargo, para la minoría, la privacidad y la dignidad de las víctimas y sus familias exigen la eliminación del contenido por la naturaleza gráfica de las imágenes, con sonidos de disparos y gritos de las víctimas, y por mostrar el momento del ataque y la muerte de víctimas que pueden verse, aunque no puedan identificarse fácilmente. Luego de los ataques terroristas, cuando imágenes de violencia que pueden volver a traumatizar a los sobrevivientes y a las familias de los fallecidos se difunden rápida y ampliamente, la minoría cree que se justifica que Meta priorice la privacidad y la dignidad de las víctimas y sus familias por sobre el valor para el interés público de permitir a los ciudadanos acceder a contenido de interés periodístico. Para la minoría, el interés periodístico del contenido es un factor en contra de su permanencia en la plataforma. Según dicha minoría, el ataque del 22 de marzo tuvo amplia cobertura en Rusia, así como en los medios internacionales. Por lo tanto, según su perspectiva, permitir estas imágenes en las plataformas de Meta no fue necesario para garantizar el acceso a información sobre el ataque. Los usuarios que querían hacer comentarios sobre el ataque o cuestionar el relato del Gobierno que lo atribuía a Ucrania podrían haberlo hecho sin compartir los momentos más gráficos de las imágenes.

El Consejo entiende que, en el desarrollo y la implementación de su política de imágenes de ataques terroristas durante el proceso de desarrollo de la política reciente, Meta priorizó la seguridad y la privacidad, y adoptó un razonamiento similar al de la minoría en este caso particular. La empresa explicó que, con un enfoque más permisivo, los desafíos que existen en la aplicación de las políticas en la moderación de contenido a gran escala aumentarían el riesgo de comportamiento contradictorio (por ejemplo, que agentes violentos usen las imágenes de terceros para otros fines). La empresa también remarcó los riesgos para la privacidad y la dignidad de las víctimas de estos ataques y sus familias cuando las víctimas son visibles. El Congreso Judío Mundial envió un comentario del público destacando consideraciones parecidas a las formuladas por Meta. En referencia a la proliferación de videos en internet del ataque perpetrado por Hamas en Israel el 7 de octubre de 2023, el comentario indicaba que "en tales hechos, poder comprender quién es un 'transeúnte' y quién es un 'tercero' es problemático, ya que muchos cómplices estaban filmando y distribuyendo contenido terrorista" (PC-29651).

El Consejo reconoció que, en la era digital, la videografía y la fotografía son herramientas que algunos terroristas emplean para documentar y glorificar sus actos. Sin embargo, no todos los videos de ataques que involucran entidades designadas se crean con este propósito, se preparan para lograr tal objetivo ni los espectadores los interpretan como tal. La imágenes no producidas por los responsables del ataque o sus colaboradores no se crean con este fin de glorificación o promoción del terrorismo. Cuando las graban transeúntes, una víctima, un periodista independiente o alguien con una cámara de CCTV, las imágenes en sí no tienen la finalidad de imprimir sensacionalismo y fetichismo al hecho violento (es decir, las imágenes grabadas por uno de los responsables con una cámara de cabeza son diferentes de aquellas captadas por una cámara de CCTV o un transeúnte). Captarán el horror de la violencia, pero en su presentación, no la trivializarán ni promoverán. Si bien existen riesgos de que las imágenes de los ataques se usen con otros fines para fomentar la glorificación de la violencia o el terrorismo, y la imitación del comportamiento, cuando no hay señales de una reconstrucción de ese tipo, una prohibición absoluta ignora la capacidad potencial de los videos de documentar ataques violentos para generar compasión hacia las víctimas; fomentar el sentido de responsabilidad y generar conciencia pública de hechos importantes; dirigir potencialmente el enojo o el desprecio hacia los responsables; e informar al público sobre la naturaleza brutal de los grupos y movimientos terroristas.

En la opinión de asesoramiento normativo correspondiente al caso Referencia a personas peligrosas designadas como "shaheed", el Consejo remarcó varias resoluciones del Consejo de Seguridad de las Naciones Unidas en las que pidió a los Estados abordar la incitación a actos terroristas y mostró preocupación por el uso de internet por parte de organizaciones terroristas. Consulta la Resolución 1624 del Consejo de Seguridad de las Naciones Unidas (2005), la Resolución 2178 del UNSC (2014) y la Resolución 2396 de la UNSC (2017). El enfoque de Meta puede entenderse como una iniciativa para abordar estas preocupaciones. Sin embargo, como el Consejo también indicó en esa opinión de asesoramiento normativo, la Relatora Especial sobre la promoción y protección de los derechos humanos y las libertades fundamentales en la lucha contra el terrorismo advirtió sobre la adopción de reglas demasiado amplias y habló sobre las consecuencias de centrarse en el contenido del discurso en lugar de la "relación causal o de riesgo real de que se produzca el resultado prohibido" (informe A/HRC/40/52, párrafo 37). Consulta también la Declaración Conjunta Sobre Internet y sobre Medidas Anti-Terroristas de la Relatora Especial de la ONU sobre la libertad de expresión, el representante de la OSCE para la libertad de los medios y el Relator Especial para la libertad de expresión de la OEA (2005).

El Consejo estuvo de acuerdo en que, al crear excepciones a la política, existe el riesgo de dar lugar a la subaplicación de las políticas en contenido que muestra ataques terroristas y de que las imágenes se reutilicen con fines maliciosos y Meta no pueda identificarlas ni eliminarlas de forma efectiva. El Consejo elogia a Meta por intentar abordar el riesgo de que agentes violentos usen sus plataformas para reclutar y radicalizar a personas, y considerar los daños a la privacidad y la dignidad de las víctimas. Sin embargo, como demuestran las tres publicaciones de estos casos, las imágenes de ataques pueden usarse con varios fines, y surgen riesgos para la libertad de expresión, el acceso a la información y la participación del público si una política prioriza la sobreaplicación, cuando existen medios menos restrictivos que ofrecen resultados más proporcionados.

Cuando Meta aplica una pantalla de advertencia con restricción de edad, el contenido no está disponible para los usuarios de menos de 18 años y los demás usuarios deben hacer clic para ver el contenido. Además, el contenido se elimina de las recomendaciones a los usuarios que no siguen la cuenta (consulta las decisiones de los casos Hospital Al-Shifa y Rehenes secuestrados de Israel). Meta puede usar bancos de MMS para aplicar de forma automática una pantalla de advertencia que indique "contenido perturbador" a todo el contenido que incluya imágenes identificadas. Estas medidas pueden mitigar los riesgos de que el contenido se haga viral o llegue a usuarios particularmente vulnerables o impresionables que no lo hayan buscado. Por lo tanto, las pantallas de advertencia disminuyen la probabilidad de que el contenido sirva de inspiración no intencionada y promueva la imitación de los actos. Las pantallas de advertencia no mitigan por completo los riesgos de que agentes malintencionados usen las imágenes con otros fines. Sin embargo, cuando se haya mitigado el riesgo de viralidad, Meta cuenta con otras herramientas más específicas para identificar este accionamiento por parte de agentes malintencionados y eliminar tal contenido de la plataforma (p. ej., equipos internos que busquen proactivamente dicho contenido y canales de socios de confianza). Sin duda, un enfoque más específico requerirá recursos adicionales. Dada la extensión de los recursos de Meta y el impacto en la expresión y el acceso a la información del enfoque actual, se justifica un enfoque más específico.

Las imágenes de ataques pueden comunicar y evocar indignación moral, generar un sentido de solidaridad con las víctimas y proporcionar un mecanismo para compartir información con públicos locales o internacionales. Hay indicios de que las personas son más propensas a ayudar o a tener una respuesta emocional más contundente cuando ven una imagen o un video de una víctima específica en comparación con la presentación de información mediante descripciones abstractas o meros números. En un país con un entorno de medios restringido, en el que el Gobierno ejerce un control significativo sobre lo que las personas ven y sobre cómo se presenta la información, la accesibilidad en los medios sociales a contenido de gran interés para la concientización del público y de mucha prominencia política es incluso más importante. La mayoría concluyó que la prohibición y la eliminación de las imágenes generadas por terceros de ataques en víctimas visibles que no pueden identificarse de forma personal cuando se comparten para brindar información periodística, concientizar y condenar no es una medida necesaria ni proporcionada. Cuando el responsable del ataque es quien genera la imagen o el video, las víctimas aparecen de una forma en que se las puede identificar personalmente en circunstancias degradantes, se muestran víctimas particularmente vulnerables (como rehenes o menores) o no hay una finalidad clara de generar conciencia, brindar información o condenar, podría ser apropiado que Meta priorice la eliminación. Sin embargo, una regla que prohíba todas las imágenes de terceros de ataques en víctimas visibles, sin importar el motivo por el que se compartió ni el contexto en que se hizo, deja de lado un enfoque más proporcionado y menos restrictivo, cuando no es claro si tal enfoque tan estricto es necesario.

Meta debería permitir, con un recurso intersticial que indique que es "contenido perturbador", las imágenes de terceros que muestran el momento de ataques en víctimas visibles, pero que no pueden identificarse, cuando se compartan en contextos de información periodística y condena. Esta medida sería coherente con las bases de la política sobre personas y organizaciones peligrosas, que indican que las políticas de Meta están diseñadas para dar lugar a "referencias a personas y organizaciones […] designadas en el contexto del discurso social y político. Esto incluye reportarlas, condenarlas o hablar sobre ellas o sus actividades en un tono neutral". Sin embargo, dado los diferentes tipos de ataques violentos que cumplen los requisitos para la designación y que el contexto de una situación en particular puede presentar riesgos especialmente altos de imitación del comportamiento o uso malicioso, Meta debería emplear revisión manual por parte de expertos a la hora de evaluar situaciones específicas y aplicar la excepción a la política recomendada por el Consejo.

Para la minoría, la política actual de Meta que prohíbe todas las imágenes de ataques designados que muestran víctimas visibles es coherente con las responsabilidades de la empresa en materia de derechos humanos y con los principios de necesidad y proporcionalidad. Cuando imágenes gráficas de un ataque muestran víctimas visibles, incluso si las víctimas no pueden identificarse con facilidad, el fin de proteger el derecho a la privacidad y la dignidad de los sobrevivientes y las víctimas supera en gran medida el valor de expresión, según la minoría. Incluso el contenido grabado por terceros puede perjudicar la privacidad y la dignidad de las víctimas y sus familias. Y el uso de una pantalla de advertencia en contenido que muestra la muerte de una persona, como la mayoría recomienda, no protege la privacidad ni la dignidad de las víctimas ni de sus familias de aquellos que deciden ver el contenido a pesar de la pantalla. Como indicó la minoría en la decisión del caso Video tras el ataque en una iglesia de Nigeria, cuando ocurre un ataque terrorista, los videos de esta naturaleza suelen volverse virales, lo que agrava el daño y aumenta el riesgo de causar un nuevo trauma. Meta debería actuar con rapidez y a gran escala para evitar y mitigar los daños a los derechos humanos de las víctimas, los sobrevivientes y sus familias. Esto también tiene el propósito público más amplio de contrarrestar el terror generalizado que los perpetradores de dichos ataques buscan sembrar, sabiendo que los medios sociales amplificarán sus impactos psicológicos. Asimismo, como el Consejo indicó en decisiones anteriores, Meta podría aliviar la carga de los usuarios y mitigar los riesgos a la privacidad al proporcionarles instrucciones más específicas o acceso en sus productos a, por ejemplo, herramientas de difuminado facial para videos que muestren víctimas visibles de violencia (consulta la decisión del caso Documental periodístico sobre abuso infantil en Pakistán).

6. La decisión del Consejo asesor de contenido

El Consejo asesor de contenido anuló las decisiones de Meta de eliminar las tres publicaciones y solicitó que se restaurara el contenido con una pantalla de advertencia que indicara que era "contenido perturbador".

7. Recomendaciones

Política de contenido

1. Para garantizar que su norma comunitaria sobre personas y organizaciones peligrosas sea adecuada para favorecer sus fines, Meta debería permitir, con una pantalla de advertencia que indique "contenido perturbador", imágenes de terceros de un hecho designado que muestren el momento del ataque contra víctimas visibles, pero que no puedan identificarse de forma personal, cuando se compartan en contextos periodísticos, condenatorios o de concientización.

El Consejo considerará implementada esta recomendación cuando Meta actualice la norma comunitaria sobre personas y organizaciones peligrosas según lo indicado anteriormente.

2. Para proporcionar claridad, Meta debería agregar una regla en la sección "Eliminamos" de la norma comunitaria sobre personas y organizaciones peligrosas y trasladar la explicación sobre cómo Meta trata el contenido que representa hechos designados de la sección "Bases de la política" a esta sección.

El Consejo considerará implementada esta recomendación cuando Meta actualice la norma comunitaria sobre personas y organizaciones peligrosas y traslade la regla sobre imágenes de hechos designados a la sección "Eliminamos" de la política.

* Nota de procedimiento:

  • La preparación de las decisiones del Consejo asesor de contenido está a cargo de paneles conformados por cinco miembros, quienes deben aprobarlas por mayoría. Las decisiones del Consejo no necesariamente representan las opiniones de todos los miembros.
  • En virtud de su acta constitutiva, el Consejo asesor de contenido tiene la facultad de revisar apelaciones de usuarios cuyo contenido fue eliminado por Meta, apelaciones de usuarios que reportaron contenido que Meta mantuvo publicado y decisiones que Meta le presente (artículo 2, sección 1, del acta constitutiva). El Consejo tiene autoridad vinculante para ratificar o anular las decisiones sobre contenido de Meta (artículo 3, sección 5 y artículo 4 del acta constitutiva). El Consejo podrá emitir recomendaciones no vinculantes a las que Meta deberá responder (artículo 3, sección 4 y artículo 4 del acta constitutiva). Cuando Meta se compromete a tomar medidas respecto de las recomendaciones, el Consejo supervisa su implementación.
  • En cuanto a la decisión del caso, se encargó una investigación independiente en nombre del Consejo. El Consejo recibió asistencia de Duco Advisors, una empresa asesora dedicada a la intersección de geopolítica, confianza, seguridad y tecnología. Memetica, un grupo de investigaciones digitales que brinda asesoría en materia de riesgos y servicios de inteligencia sobre amenazas para mitigar los riesgos online, también colaboró en la investigación.

Volver a Decisiones de casos y opiniones consultivas sobre políticas