Imágenes del ataque terrorista en Moscú
19 de noviembre de 2024
El Consejo anuló las decisiones de Meta de eliminar tres publicaciones de Facebook con imágenes del ataque terrorista de marzo de 2024 en Moscú y solicitó que el contenido se restaurara con una pantalla de advertencia que indicara que era "contenido perturbador".
Si bien las publicaciones infringían las reglas de Meta sobre mostrar el momento de ataques designados en víctimas visibles, la eliminación no fue coherente con las responsabilidades de la empresa en materia de derechos humanos. Las publicaciones, que tratan un hecho de gran reconocimiento mundial, tienen mucho valor para el interés público y deben protegerse conforme a la concesión de interés periodístico, según la mayoría del Consejo. En un país como Rusia con un entorno de medios restringido, la accesibilidad a ese tipo de contenido en los medios sociales es incluso más importante. Todas las publicaciones incluyen lenguaje claro que condena el ataque y muestra solidaridad con las víctimas o preocupación por ellas, sin riesgo evidente de que promuevan la radicalización o incitación.
La supresión de asuntos de suma preocupación pública sobre la base de miedos infundados de que podrían promover la radicalización no es coherente con las responsabilidades de Meta en materia de libertad de expresión. En tal sentido, Meta debe permitir, con una pantalla de advertencia que indique "contenido perturbador", imágenes de terceros de un hecho designado que muestren el momento del ataque en víctimas visibles, pero no identificables, cuando se compartan con el fin de informar, condenar o concientizar.
Información de los casos
El Consejo revisó tres casos juntos sobre contenido que distintos usuarios publicaron en Facebook inmediatamente después del ataque terrorista del 22 de marzo de 2024 en un auditorio y complejo comercial de Moscú.
El primer caso mostraba un video en el que se veía parte del ataque en el interior del complejo comercial, filmado aparentemente por un transeúnte. Si bien los atacantes y las personas a quienes se les disparó se veían, pero no podían identificarse con facilidad, sí se podía identificar a otras personas que salían del edificio. En el texto, se preguntaba qué estaba sucediendo en Rusia y había oraciones por los afectados.
El segunda caso exhibía un clip más corto de las mismas imágenes, con un texto que advertía a las personas sobre el contenido e indicaba que, en el mundo, no hay lugar para el terrorismo.
El tercer caso consistía en una publicación que un administrador había compartido en la página de un grupo de Facebook. En la descripción del grupo, había una expresión de apoyo al excandidato a presidente de Francia Éric Zemmour. La publicación incluía una imagen fija del ataque, que posiblemente había sido tomada del mismo video, en la que se observaba a los tiradores y las víctimas. Además, había un video corto del complejo comercial en llamas, filmado por alguien que pasaba en auto. En el texto, se indicaba que Ucrania había afirmado no tener nada que ver con el ataque y se señalaba que nadie había asumido la responsabilidad. También había una declaración de apoyo al pueblo ruso.
Meta eliminó las tres publicaciones por infringir su política de personas y organizaciones peligrosas, que prohíbe categóricamente las imágenes de terceros que muestran el momento de tales ataques en víctimas visibles. Meta designó el ataque de Moscú como un ataque terrorista el día en que sucedió. De acuerdo con Meta, otro usuario ya había publicado el mismo video que se compartió en los dos primeros casos, y este había se había remitido a expertos en la materia o en las políticas de la empresa para una revisión adicional ese mismo día. Luego de dicha revisión, Meta decidió eliminar el video y lo agregó a un banco de Media Matching Service (MMS). Posteriormente, el banco de MMS determinó que el contenido de los dos primeros casos coincidía con el video incluido en el banco que se había etiquetado para su eliminación y lo borró de forma automática. En el tercer caso, Meta eliminó el contenido tras una revisión manual.
El ataque sucedido el 22 de marzo de 2024 en el centro Crocus City Hall de Moscú terminó con la vida de, al menos, 143 personas. Poco después del ataque, un afiliado del Estado Islámico, ISIS-K, asumió la responsabilidad. De acuerdo con los expertos a quienes consultó el Consejo, decenas de millones de rusos vieron el video del ataque en canales de medios estatales, así como en plataformas de medios sociales rusos. Si bien el presidente ruso Vladimir Putin afirmó que el ataque estuvo vinculado a Ucrania y respaldado por inteligencia occidental, Ucrania negó todo tipo de involucramiento.
Conclusiones principales
Si bien las publicaciones informaban sobre los ataques, concientizaban acerca de estos o los condenaban, Meta no aplica estas excepciones en virtud de la política de personas y organizaciones peligrosas a "imágenes de terceros que muestren el momento de ataques [designados] en víctimas visibles". En tal sentido, para el Consejo, queda claro que las tres publicaciones infringían las reglas de Meta.
No obstante, la mayoría del Consejo determinó que la eliminación de este contenido no fue coherente con las responsabilidades de Meta en materia de derechos humanos y que el contenido debería haberse protegido en virtud de la concesión de interés periodístico. Las tres publicaciones incluían un tema de debate público apremiante relacionado con un hecho periodístico de gran reconocimiento mundial. No existía riesgo evidente de que las publicaciones promovieran la radicalización o incitación. Cada una de las publicaciones incluía lenguaje claro que condenaba el ataque, mostraba solidaridad con las víctimas o preocupación por ellas, y procuraba informar al público. La ausencia de libertad mediática de Rusia y el hecho de que las víctimas no pudieran identificarse con facilidad remarcaban el interés público propio de estas publicaciones.
La supresión de contenido que trata asuntos de suma preocupación pública sobre la base de miedos infundados de que podría promover la radicalización no es coherente con las responsabilidades de Meta en materia de libertad de expresión. Esto es especialmente relevante cuando millones de personas vieron las imágenes acompañadas por declaraciones de que el ataque podía atribuirse en parte a Ucrania. El Consejo destacó la importancia de mantener el acceso a la información durante situaciones de crisis, en especial, en Rusia, donde las personas dependen de los medios sociales para poder acceder a información o concientizar a los públicos internacionales.
En ciertas situaciones, eliminar el contenido que muestra víctimas identificables es necesario y proporcionado (p. ej., en conflictos armados en que las víctimas son prisioneros de guerra). Sin embargo, como las víctimas de estos casos no pueden identificarse con facilidad, la restauración de las publicaciones con una pantalla de advertencia con restricción de edad concuerda mejor con las responsabilidades de Meta en materia de derechos humanos. Por lo tanto, Meta debería modificar su política para permitir imágenes de terceros con víctimas visibles que no puedan identificarse personalmente cuando se compartan explícitamente con fines informativos, condenatorios o de concientización.
Una minoría del Consejo estuvo en desacuerdo y sostendría las decisiones de Meta de eliminar las publicaciones de Facebook. Para dicha minoría, la naturaleza gráfica de las imágenes y el hecho de que mostraban el momento del ataque y, en este caso, la muerte de víctimas visibles, exige la eliminación por la dignidad de las víctimas y sus familias.
Además, el Consejo determinó que la ubicación actual de la regla sobre imágenes de hechos violentos que infringen las normas en la política sobre personas y organizaciones peligrosas confunde a los usuarios. Si bien la sección "Eliminamos" implica que se permite el contenido condenatorio y la información periodística, en otras secciones, se indica que las imágenes generadas por los responsables de los ataques y las imágenes de terceros del momento de los ataques en víctimas visibles están prohibidas, y no se especifica que Meta eliminará tal contenido incluso si condena los ataques o concientiza acerca de ellos.
La decisión del Consejo asesor de contenido
El Consejo asesor de contenido anuló las decisiones de Meta de eliminar las tres publicaciones y solicitó que se restaurara el contenido con una pantalla de advertencia que indicara que era "contenido perturbador".
Asimismo, el Consejo le recomendó a Meta:
- Permitir, con una pantalla de advertencia que indique "contenido perturbador", imágenes de terceros de un hecho designado que muestren el momento del ataque en víctimas visibles, pero que no puedan identificarse de forma personal, cuando se compartan en contextos periodísticos, condenatorios o de concientización.
- Incluir en la sección "Eliminamos" de la norma comunitaria sobre personas y organizaciones peligrosas una regla que trate los hechos violentos designados. Además, debería trasladar la explicación sobre cómo Meta trata el contenido que muestra hechos designados de la sección "Bases de la política" a esta sección.
Para obtener más información
To read public comments for this case, click here.