Enregistrement de l’attaque terroriste de Moscou
19 novembre 2024
Le Conseil a annulé la décision de Meta visant à supprimer les trois publications Facebook affichant un enregistrement de l’attaque terroriste survenue en mars 2024 à Moscou, et a demandé de restaurer le contenu en le masquant par un écran d’avertissement « contenu dérangeant ».
Bien que les publications aient enfreint les règles de Meta concernant la présentation de victimes visibles au moment des attaques désignées, leur suppression n’était pas conforme aux responsabilités de l’entreprise en matière de droits humains. Selon la majorité des membres du Conseil, les publications, qui portent sur un évènement faisant la une des journaux du monde entier, ont une valeur d’intérêt public importante et doivent être protégées au titre de la tolérance d’intérêt médiatique. Dans un pays comme la Russie, caractérisé par un environnement médiatique censuré, il est d’autant plus important d’avoir accès à de tels contenus sur les réseaux sociaux. Les publications, en affichant de la solidarité ou de l’inquiétude à l’égard des victimes, contiennent toutes des termes précis visant à condamner l’attaque. Elles ne semblent pas clairement risquer de conduire à de la radicalisation ou à de l’incitation à la violence.
La suppression de contenus d’intérêt public vital sur la base de craintes non fondées selon lesquelles ils pourraient conduire à de la radicalisation ne correspond pas aux responsabilités de Meta en matière de liberté d’expression. À ce titre, Meta devrait autoriser la diffusion d’images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes clairement visibles, mais non identifiables, à des fins d’information, de condamnation et de sensibilisation, à condition qu’elles soient masquées par un écran d’avertissement « contenu dérangeant ».
À propos des cas
Le Conseil a examiné trois cas de manière simultanée, chacun d’eux impliquant un contenu publié sur Facebook par différents utilisateurs directement après l’attaque terroriste du 22 mars 2024 menée dans une salle de concert, elle-même située dans un complexe commercial à Moscou.
Le premier cas se composait d’une vidéo affichant un moment de l’attaque à l’intérieur du complexe commercial, visiblement filmée par un témoin. Alors que les assaillants et les personnes visées par les tirs étaient visibles mais difficilement identifiables, les autres personnes qui sortaient du bâtiment étaient identifiables. La légende se composait d’une question sur ce qu’il se passait en Russie et de prières à l’égard des personnes touchées.
Le deuxième cas se composait d’un clip plus court du même enregistrement, accompagné d’une légende mettant en garde les spectateurs contre le contenu et affirmant que le terrorisme n’a pas sa place dans le monde.
Le troisième cas impliquait une publication partagée sur la page d’un groupe Facebook par un administrateur. La description de groupe exprime son soutien à Éric Zemmour, ancien candidat à l’élection présidentielle française. La publication incluait une photo de l’attaque, qui provenait probablement de la même vidéo, affichant des hommes armés et des victimes. Elle incluait également une courte vidéo du complexe commercial en feu, filmé par une personne qui passait devant en voiture. La légende précisait que l’Ukraine avait déclaré qu’elle n’avait aucun lien avec l’attaque, tout en soulignant que personne n’avait revendiqué la responsabilité de l’attaque. La légende incluait également une déclaration de soutien à l’égard de la population russe.
Meta a supprimé les trois publications pour avoir enfreint sa politique relative aux Organismes et individus dangereux, qui interdit les images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes visibles. Meta a désigné l’attaque de Moscou comme attaque terroriste le jour même. Selon Meta, la vidéo partagée dans les deux premiers cas avait déjà été publiée par différents utilisateurs, avant de faire l’objet, plus tôt dans la journée, d’une remontée aux spécialistes en la matière et aux spécialistes des politiques de l’entreprise, afin d’être soumise à un examen supplémentaire. Suite à cet examen, Meta a décidé de supprimer la vidéo et de l’ajouter à la banque du service de mise en correspondance du contenu multimédia (MMS). À son tour, la banque MMS a déterminé que le contenu des deux premiers cas correspondait à la vidéo mise en banque qui avait été identifiée comme vidéo à supprimer et l’a automatiquement supprimée. Dans le troisième cas, le contenu a été supprimé par Meta à la suite d’un examen manuel.
L’attaque menée le 22 mars 2024 au Crocus City Hall de Moscou a causé le décès d’au moins 143 personnes. L’une des branches de l’État islamique, ISIS-K, a revendiqué l’attaque peu de temps après qu’elle ait eu lieu. Selon les experts consultés par le Conseil, des dizaines de millions de Russes regardaient la vidéo de l’attaque sur des canaux de médias gérés par l’État, ainsi que sur des plateformes de réseaux sociaux russes. Alors que le président russe Vladimir Poutine incriminait l’existence de liens avec l’Ukraine et le soutien des services de renseignement occidentaux pour cette attaque, l’Ukraine a nié toute implication.
Principales observations
Même si les publications avaient pour but de signaler, de sensibiliser ou de condamner l’attaque, Meta n’applique pas les exceptions prévues dans sa politique relative aux Organismes et individus dangereux aux « images tierces dépeignant le moment des attaques [désignées] avec des victimes visibles. » En ce sens, le Conseil reconnaît clairement que les trois publications enfreignent les règles de Meta.
Cependant, la majorité du Conseil estime que la suppression du contenu ne correspond pas aux responsabilités de Meta en matière de droits humains et que le contenu aurait dû être protégé en vertu de la tolérance d’intérêt médiatique. Les trois publications traitaient d’un sujet de débat public urgent lié à un évènement qui a fait la une des journaux dans le monde entier. Les publications ne semblent pas risquer de conduire à de la radicalisation ou à de l’incitation à la violence. Chaque publication est rédigée dans un langage clair qui condamne l’attaque, exprime de la solidarité ou de l’inquiétude à l’égard des victimes et cherche à informer le public. Associé à l’absence de liberté des médias en Russie et au fait que les victimes ne sont pas facilement identifiables, cet élément confère à ces publications un caractère d’intérêt public.
La suppression de contenus d’intérêt public vital sur la base de craintes non fondées selon lesquelles ils pourraient conduire à de la radicalisation ne correspond pas aux responsabilités de Meta en matière de liberté d’expression. Cela vaut tout particulièrement lorsque l’enregistrement a été vu par des millions de personnes et qu’il a été accompagné d’allégations selon lesquelles l’attaque a été en partie attribuée à l’Ukraine. Le Conseil note qu’il est important de maintenir l’accès à l’information durant les crises, et particulièrement dans un pays comme la Russie, dans lequel les personnes comptent sur les réseaux sociaux pour accéder à l’information ou pour sensibiliser les audiences internationales.
Si, dans certaines circonstances, la suppression du contenu dépeignant des victimes est nécessaire et proportionnée (par exemple, en cas de conflit armé, lorsque les victimes sont des prisonniers de guerre), les victimes en question n’étant pas facilement identifiables dans ces cas, le fait de restaurer les publications et de les masquer par un écran d’avertissement avec restriction d’âge est plus en phase avec les responsabilités de Meta en matière de droits humains. Par conséquent, Meta devrait modifier sa politique pour permettre la diffusion d’images tierces dépeignant des victimes visibles n’étant pas personnellement identifiables lorsqu’elles sont clairement partagées à des fins de diffusion d’information, de condamnation ou de sensibilisation.
Une minorité de membres du Conseil désapprouve et souhaiterait confirmer la décision de Meta de supprimer ces publications de Facebook. La minorité estime que la nature explicite de l’enregistrement, ajouté au fait qu’il montre le moment de l’attaque, et, dans le cas présent, le décès des victimes visibles, rend sa suppression nécessaire afin de préserver la dignité des victimes et de leur famille.
En outre, le Conseil estime que l’emplacement actuel de la règle sur les enregistrements d’évènements violents dans le cadre de la politique relative aux Organismes et individus dangereux prête à confusion pour les utilisateurs. Alors que la section « Nous supprimons » laisse entendre que la condamnation et la diffusion d’informations sont permises, d’autres sections indiquent que les images générées par des auteurs et des tiers du moment des attaques qui dépeignent des victimes visibles sont interdites et ne spécifient pas que Meta supprimera ce type de contenu, même si celui-ci vise à condamner les attaques ou à les faire connaître.
Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta visant à supprimer les trois publications et demande à ce que le contenu soit restauré et masqué par un écran d’avertissement « contenu dérangeant ».
Le Conseil recommande également à Meta les actions suivantes :
- Autoriser la diffusion d’images tierces dépeignant le moment d’attaques désignées avec des victimes clairement visibles mais qui ne sont pas personnellement identifiables, lorsqu’elles sont partagées dans un contexte d’information, de condamnation et de sensibilisation, à condition qu’elles soient masquées par un écran d’avertissement « contenu dérangeant ».
- Inclure une règle à propos des évènements violents désignés dans la section « Nous supprimons » des Standards de la communauté sur les Organismes et les individus dangereux. Aussi, l’explication de Meta sur sa manière de traiter le contenu dépeignant les évènements désignés doit être supprimée de la justification de la Politique et ajoutée dans la section « Nous supprimons ».
Pour plus d'informations
To read public comments for this case, click here.