Décision sur plusieurs affaires
Enregistrement de l’attaque terroriste de Moscou
Le Conseil a annulé la décision de Meta visant à supprimer les trois publications Facebook affichant un enregistrement de l’attaque terroriste survenue en mars 2024 à Moscou, et a demandé de restaurer le contenu en le masquant par un écran d’avertissement « contenu dérangeant ».
3 cas inclus dans ce lot
FB-A7NY2F6F
Cas de contenu violent et explicite sur Facebook
FB-G6FYJPEO
Cas de contenu violent et explicite sur Facebook
FB-33HL31SZ
Cas de contenu violent et explicite sur Facebook
Pour lire l’intégralité de la décision en russe, cliquez ici.
Чтобы прочитать это решение на русском языке, нажмите здесь.
Pour télécharger le PDF de cette décision, cliquez ici.
Résumé
Le Conseil a annulé la décision de Meta visant à supprimer les trois publications Facebook affichant un enregistrement de l’attaque terroriste survenue en mars 2024 à Moscou, et a demandé de restaurer le contenu en le masquant par un écran d’avertissement « contenu dérangeant ».
Bien que les publications aient enfreint les règles de Meta concernant la présentation de victimes visibles au moment des attaques désignées, leur suppression n’était pas conforme aux responsabilités de l’entreprise en matière de droits humains. Selon la majorité des membres du Conseil, les publications, qui portent sur un évènement faisant la une des journaux du monde entier, ont une valeur d’intérêt public importante et doivent être protégées au titre de la tolérance d’intérêt médiatique. Dans un pays comme la Russie, caractérisé par un environnement médiatique censuré, il est d’autant plus important d’avoir accès à de tels contenus sur les réseaux sociaux. Les publications, en affichant de la solidarité ou de l’inquiétude à l’égard des victimes, contiennent toutes des termes précis visant à condamner l’attaque. Elles ne semblent pas clairement risquer de conduire à de la radicalisation ou à de l’incitation à la violence.
La suppression de contenus d’intérêt public vital sur la base de craintes non fondées selon lesquelles ils pourraient conduire à de la radicalisation ne correspond pas aux responsabilités de Meta en matière de liberté d’expression. À ce titre, Meta devrait autoriser la diffusion d’images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes clairement visibles, mais non identifiables, à des fins d’information, de condamnation et de sensibilisation, à condition qu’elles soient masquées par un écran d’avertissement « contenu dérangeant ».
À propos des cas
Le Conseil a examiné trois cas de manière simultanée, chacun d’eux impliquant un contenu publié sur Facebook par différents utilisateurs directement après l’attaque terroriste du 22 mars 2024 menée dans une salle de concert, elle-même située dans un complexe commercial à Moscou.
Le premier cas se composait d’une vidéo affichant un moment de l’attaque à l’intérieur du complexe commercial, visiblement filmée par un témoin. Alors que les assaillants et les personnes visées par les tirs étaient visibles mais difficilement identifiables, les autres personnes qui sortaient du bâtiment étaient identifiables. La légende se composait d’une question sur ce qu’il se passait en Russie et de prières à l’égard des personnes touchées.
Le deuxième cas se composait d’un clip plus court du même enregistrement, accompagné d’une légende mettant en garde les spectateurs contre le contenu et affirmant que le terrorisme n’a pas sa place dans le monde.
Le troisième cas impliquait une publication partagée sur la page d’un groupe Facebook par un administrateur. La description de groupe exprime son soutien à Éric Zemmour, ancien candidat à l’élection présidentielle française. La publication incluait une photo de l’attaque, qui provenait probablement de la même vidéo, affichant des hommes armés et des victimes. Elle incluait également une courte vidéo du complexe commercial en feu, filmé par une personne qui passait devant en voiture. La légende précisait que l’Ukraine avait déclaré qu’elle n’avait aucun lien avec l’attaque, tout en soulignant que personne n’avait revendiqué la responsabilité de l’attaque. La légende incluait également une déclaration de soutien à l’égard de la population russe.
Meta a supprimé les trois publications pour avoir enfreint sa politique relative aux Organismes et individus dangereux, qui interdit les images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes visibles. Meta a désigné l’attaque de Moscou comme attaque terroriste le jour même. Selon Meta, la vidéo partagée dans les deux premiers cas avait déjà été publiée par différents utilisateurs, avant de faire l’objet, plus tôt dans la journée, d’une remontée aux spécialistes en la matière et aux spécialistes des politiques de l’entreprise, afin d’être soumise à un examen supplémentaire. Suite à cet examen, Meta a décidé de supprimer la vidéo et de l’ajouter à la banque du service de mise en correspondance du contenu multimédia (MMS). À son tour, la banque MMS a déterminé que le contenu des deux premiers cas correspondait à la vidéo mise en banque qui avait été identifiée comme vidéo à supprimer et l’a automatiquement supprimée. Dans le troisième cas, le contenu a été supprimé par Meta à la suite d’un examen manuel.
L’attaque menée le 22 mars 2024 au Crocus City Hall de Moscou a causé le décès d’au moins 143 personnes. L’une des branches de l’État islamique, ISIS-K, a revendiqué l’attaque peu de temps après qu’elle ait eu lieu. Selon les experts consultés par le Conseil, des dizaines de millions de Russes regardaient la vidéo de l’attaque sur des canaux de médias gérés par l’État, ainsi que sur des plateformes de réseaux sociaux russes. Alors que le président russe Vladimir Poutine incriminait l’existence de liens avec l’Ukraine et le soutien des services de renseignement occidentaux pour cette attaque, l’Ukraine a nié toute implication.
Principales observations
Même si les publications avaient pour but de signaler, de sensibiliser ou de condamner l’attaque, Meta n’applique pas les exceptions prévues dans sa politique relative aux Organismes et individus dangereux aux « images tierces dépeignant le moment des attaques [désignées] avec des victimes visibles. » En ce sens, le Conseil reconnaît clairement que les trois publications enfreignent les règles de Meta.
Cependant, la majorité du Conseil estime que la suppression du contenu ne correspond pas aux responsabilités de Meta en matière de droits humains et que le contenu aurait dû être protégé en vertu de la tolérance d’intérêt médiatique. Les trois publications traitaient d’un sujet de débat public urgent lié à un évènement qui a fait la une des journaux dans le monde entier. Les publications ne semblent pas risquer de conduire à de la radicalisation ou à de l’incitation à la violence. Chaque publication est rédigée dans un langage clair qui condamne l’attaque, exprime de la solidarité ou de l’inquiétude à l’égard des victimes et cherche à informer le public. Associé à l’absence de liberté des médias en Russie et au fait que les victimes ne sont pas facilement identifiables, cet élément confère à ces publications un caractère d’intérêt public.
La suppression de contenus d’intérêt public vital sur la base de craintes non fondées selon lesquelles ils pourraient conduire à de la radicalisation ne correspond pas aux responsabilités de Meta en matière de liberté d’expression. Cela vaut tout particulièrement lorsque l’enregistrement a été vu par des millions de personnes et qu’il a été accompagné d’allégations selon lesquelles l’attaque a été en partie attribuée à l’Ukraine. Le Conseil note qu’il est important de maintenir l’accès à l’information durant les crises, et particulièrement dans un pays comme la Russie, dans lequel les personnes comptent sur les réseaux sociaux pour accéder à l’information ou pour sensibiliser les audiences internationales.
Si, dans certaines circonstances, la suppression du contenu dépeignant des victimes est nécessaire et proportionnée (par exemple, en cas de conflit armé, lorsque les victimes sont des prisonniers de guerre), les victimes en question n’étant pas facilement identifiables dans ces cas, le fait de restaurer les publications et de les masquer par un écran d’avertissement avec restriction d’âge est plus en phase avec les responsabilités de Meta en matière de droits humains. Par conséquent, Meta devrait modifier sa politique pour permettre la diffusion d’images tierces dépeignant des victimes visibles n’étant pas personnellement identifiables lorsqu’elles sont clairement partagées à des fins de diffusion d’information, de condamnation ou de sensibilisation.
Une minorité de membres du Conseil désapprouve et souhaiterait confirmer la décision de Meta de supprimer ces publications de Facebook. La minorité estime que la nature explicite de l’enregistrement, ajouté au fait qu’il montre le moment de l’attaque, et, dans le cas présent, le décès des victimes visibles, rend sa suppression nécessaire afin de préserver la dignité des victimes et de leur famille.
En outre, le Conseil estime que l’emplacement actuel de la règle sur les enregistrements d’évènements violents dans le cadre de la politique relative aux Organismes et individus dangereux prête à confusion pour les utilisateurs. Alors que la section « Nous supprimons » laisse entendre que la condamnation et la diffusion d’informations sont permises, d’autres sections indiquent que les images générées par des auteurs et des tiers du moment des attaques qui dépeignent des victimes visibles sont interdites et ne spécifient pas que Meta supprimera ce type de contenu, même si celui-ci vise à condamner les attaques ou à les faire connaître.
Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta visant à supprimer les trois publications et demande à ce que le contenu soit restauré et masqué par un écran d’avertissement « contenu dérangeant ».
Le Conseil recommande également à Meta les actions suivantes :
- Autoriser la diffusion d’images tierces dépeignant le moment d’attaques désignées avec des victimes clairement visibles mais qui ne sont pas personnellement identifiables, lorsqu’elles sont partagées dans un contexte d’information, de condamnation et de sensibilisation, à condition qu’elles soient masquées par un écran d’avertissement « contenu dérangeant ».
- Inclure une règle à propos des évènements violents désignés dans la section « Nous supprimons » des Standards de la communauté sur les Organismes et les individus dangereux. Aussi, l’explication de Meta sur sa manière de traiter le contenu dépeignant les évènements désignés doit être supprimée de la justification de la Politique et ajoutée dans la section « Nous supprimons ».
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
Le Conseil de surveillance a examiné trois cas de manière simultanée, chacun d’eux impliquant un contenu publié sur Facebook par différents utilisateurs directement après l’attaque terroriste du 22 mars 2024 menée dans une salle de concert, elle-même située dans un complexe commercial à Moscou. Les plateformes de Meta sont censurées en Russie depuis mars 2022, date à laquelle un ministère a qualifié l’entreprise d’« organisation extrémiste ». Cependant, les plateformes de Meta restent accessibles aux citoyens, via l’utilisation de réseaux privés virtuels (VPN).
Dans le premier cas, un utilisateur de Facebook a publié un court clip vidéo sur son profil accompagné d’une légende en anglais. La vidéo montre une partie de l’attaque depuis l’intérieur du complexe commercial. L’enregistrement semble avoir été réalisé par un témoin. Des personnes armées en train de tirer à bout portant sur d’autres personnes non armées étaient visibles. On y voyait également des victimes accroupies et d’autres qui fuyaient. L’enregistrement n’était pas filmé en haute résolution. Alors que les assaillants et les personnes visées par les tirs étaient visibles mais difficilement identifiables, les autres personnes qui sortaient du bâtiment étaient identifiables. L’audio laissait entendre un coup de feu et des cris. La légende se composait d’une question sur ce qu’il se passait en Russie et de prières à l’égard des personnes touchées. Lorsque Meta a supprimé la publication dans les minutes suivant le partage, elle comptait moins de 50 vues.
Dans le deuxième cas, un autre utilisateur de Facebook a publié un clip plus court du même enregistrement, également accompagné d’une légende en anglais, qui avertissait les spectateurs à propos du contenu et qui déclarait que le terrorisme n’avait pas sa place dans le monde. Lorsque Meta a supprimé la publication dans les minutes suivant le partage, elle comptait moins de 50 vues.
Le troisième cas implique une publication partagée sur la page d’un groupe par un administrateur. La description de groupe exprime son soutien à Éric Zemmour, ancien candidat à l’élection présidentielle française. La publication incluait une photo de l’attaque, qui provenait probablement de la même vidéo, affichant des hommes armés et des victimes. Elle incluait également une courte vidéo du complexe commercial en feu, filmé par une personne qui passait devant en voiture. La légende en français comprenait le mot « Alerte » et s’accompagnait de commentaires sur l’attaque, notamment sur le nombre de décès enregistrés. La légende précisait aussi que l’Ukraine avait déclaré qu’elle n’avait aucun lien avec l’attaque, tout en soulignant que personne n’avait revendiqué la responsabilité de l’attaque. La légende se terminait par une comparaison avec l’attaque terroriste du Bataclan à Paris et une déclaration de soutien à l’égard du peuple russe. Au moment où Meta a supprimé la publication, le lendemain du partage, elle comptabilisait environ 6 000 vues.
L’entreprise a supprimé les trois publications conformément à ses Standards de la communauté sur les Organismes et les individus dangereux, qui interdit le partage de tout contenu généré par des auteurs en lien avec les attaques désignées ainsi que le partage d’enregistrements ou d’images provenant de tiers (par exemple, des témoins ou des journalistes) dépeignant le moment de l’attaque terroriste avec des victimes visibles. Meta a désigné l’attaque de Moscou comme attaque terroriste le jour où elle s’est produite. Selon Meta, la vidéo partagée dans les deux premiers cas avait déjà été publiée par différents utilisateurs, avant de faire l’objet, plus tôt dans la journée, d’une remontée aux spécialistes en la matière et aux spécialistes des politiques de l’entreprise, afin d’être soumise à un examen supplémentaire. Suite à cet examen, Meta a décidé de supprimer la vidéo et de l’ajouter à la banque du service de mise en correspondance du contenu multimédia (MMS). À son tour, la banque MMS a déterminé que le contenu des deux premiers cas correspondait à la vidéo mise en banque qui avait été identifiée comme vidéo à supprimer et l’a automatiquement supprimée. Meta n’a pas appliqué de pénalité ou de restrictions quant à l’utilisation des fonctionnalités au profil des utilisateurs, car la banque était configurée pour supprimer le contenu sans imposer de pénalité. Dans le troisième cas, le contenu a été supprimé par Meta à la suite d’un examen humain, et l’entreprise a appliqué une pénalité qui s’est traduite par une restriction d’utilisation des fonctionnalités de 30 jours. La restriction d’utilisation des fonctionnalités appliquée à l’utilisateur les a empêchés de créer du contenu sur la plateforme, de créer et de rejoindre des salons Messenger, et de faire de la publicité ou de créer des vidéos en direct. La raison pour laquelle le système MMS n’a pas identifié ce contenu n’est pas claire.
Dans les trois cas, les utilisateurs ont fait appel de la décision prise par Meta. L’équipe d’examen manuel a jugé que les publications étaient en infraction. Après que le Conseil a sélectionné ces cas pour les examiner, Meta a confirmé que sa décision de supprimer les publications était correcte, mais a supprimé la pénalité imposée dans le troisième cas.
Le Conseil fait remarquer le contexte suivant en parvenant à sa décision.
L’attaque menée le 22 mars 2024 au Crocus City Hall de Moscou a causé le décès d’au moins 143 personnes. L’une des branches de l’État islamique, ISIS-K, a revendiqué l’attaque peu de temps après qu’elle ait eu lieu. Les enquêteurs russes ont rapidement inculpé quatre hommes. Les agents russes ont déclaré avoir placé 11 personnes en garde à vue, dont les quatre hommes présumés coupables, et ont affirmé avoir trouvé un lien entre les assaillants et l’Ukraine, même si l’Ukraine a nié toute implication.
ISIS-K a fait son apparition en 2015 et se compose de combattants talibans pakistanais révoltés. Le groupe a combattu les talibans en Afghanistan et a mené des attaques ciblées en Iran, en Russie et au Pakistan. Selon les rapports, le groupe a « released a flood of anti-Russian propaganda, denouncing the Kremlin for its interventions in Syria and condemning the Taliban for engaging with the Russian authorities decades after the Soviet Union invaded Afghanistan » (diffusé une vague de propagande anti-russe, accusant le Kremlin d’avoir mené des interventions en Syrie et condamnant les talibans pour avoir collaboré avec les autorités russes des décennies après l’invasion de l’Afghanistan par l’Union soviétique).
Selon les experts consultés par le Conseil, des dizaines de millions de Russes regardaient la vidéo de l’attaque sur des canaux de médias gérés par l’État, ainsi que sur des plateformes de réseaux sociaux russes. Le président russe Vladimir Poutine incriminait l’existence de liens avec l’Ukraine et le soutien des services de renseignement occidentaux pour cette attaque. D’après un sondage d’opinion publique réalisé par le centre analytique Levada en Russie du 18 au 24 avril, presque toutes les personnes interrogées ont déclaré qu’elles avaient entendu parler de l’attaque et qu’elles suivaient les actualités de près, alors que la moitié d’entre elles croyaient que les services de renseignement ukrainiens étaient impliqués.
Selon les recherches commandées par le Conseil, la vidéo partagée dans ces cas a été largement diffusée en ligne, y compris par des comptes de médias russes et internationaux. Les chercheurs ont découvert que certaines publications sur Facebook qui contenaient l’enregistrement et des instances isolées provenaient de comptes possiblement affiliés à ISIS ou qui soutenaient l’organisation en célébrant l’attaque. Les chercheurs rapportent que les plateformes de réseaux sociaux qui imposent une modération du contenu moins rigoureuse contiennent beaucoup plus de contenus générés par les auteurs.
En 2024, VK, WhatsApp et Telegram étaient les plateformes les plus largement utilisées en Russie. Le gouvernement exerce un contrôle important sur l’environnement médiatique et une autorité directe ou indirecte sur « toutes les chaînes de télévision nationales et la plupart des stations de radio et des journaux » Depuis l’invasion de l’Ukraine, « government also began restricting access to [a] wide variety of websites, including those of domestic and foreign news outlets. More than 300 media outlets have been forced to suspend their activities.» (Le gouvernement a également commencé à restreindre l’accès à un large éventail de sites Web, notamment ceux qui appartiennent à des organes de presse nationaux et étrangers. Plus de 300 organes de presse ont été forcés de suspendre leurs activités.) De plus, le gouvernement restreint fortement l’accès aux signalements aux organes de presse étrangers et a porté de fausses accusations contre des journalistes affiliés, les a fait arrêter et emprisonner.
2. Soumissions de l’utilisateur
Dans les trois cas, les utilisateurs ont fait appel auprès du Conseil. Ils déclaraient qu’ils avaient partagé la vidéo pour inviter les personnes qui se trouvaient en Russie à rester prudentes. Ils expliquaient qu’ils condamnaient le terrorisme et que Meta ne devait pas les empêcher d’informer les personnes sur des évènements réels.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
Standards de la communauté sur les Organismes et les individus dangereux
La justification de la politique sur les Organismes et les individus dangereux, stipule qu’afin d’éviter et d’empêcher tout danger réel, les organismes ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur les plateformes de Meta. Les Standards de la communauté interdisent « les contenus qui glorifient, soutiennent ou représentent des évènements que Meta désigne comme des évènements violents en infraction » en ce compris des attaques terroristes. Ils n’autorisent pas non plus « (1) les glorifications, les soutiens et les représentations du ou des auteurs de telles attaques ; (2) le contenu généré par les auteurs de telles attaques ; ou (3) les images de tiers illustrant le moment de telles attaques sur des victimes visibles, » (mise en avant ajoutée). Les Standards de la communauté fournissent les exemples d’évènements désignés suivants : « attaques terroristes, les évènements de haine, la violence faisant plusieurs victimes ou la tentative de violence faisant plusieurs victimes, les meurtres en série ou les crimes de haine ». Cependant, ils ne fournissent pas de critère de désignation spécifique ni de liste d’évènements désignés.
D’après les règles internes que doivent respecter les examinateurs, Meta supprime les images dépeignant le moment des attaques sur des victimes visibles « quel que soit le contexte du partage ».
Standards de la communauté en matière de contenu violent et explicite
La justification de la Politique Contenu violent et explicite déclare que l’entreprise comprend « que les gens n’expriment pas la même sensibilité quant aux images violentes et explicites » et que Meta supprime les contenus les plus explicites, mais ajoute également un message d’avertissement aux autres contenus explicites afin d’avertir les gens. La politique autorise les « images (au format vidéo ou photo) représentant la mort violente d’une personne (notamment le moment ou les suites de son décès) ou une personne confrontée à un évènement potentiellement mortel » à condition qu’elle soit accompagnée d’un écran d’avertissement « contenu dérangeant ». La politique interdit de telles images lorsqu’elles dépeignent un démembrement, des entrailles visibles, des corps brûlés ou une gorge tranchée.
Tolérance d’intérêt médiatique
Dans certaines circonstances, l’entreprise autorisera le contenu pouvant enfreindre ses politiques à rester sur la plateforme s’il est « pertinent et si le fait de le garder visible est dans l’intérêt du public » Pour évaluer la pertinence d’un contenu, « [Meta] évalue si le contenu présente une menace imminente pour la santé ou la sécurité publique, ou s’il exprime une opinion actuellement débattue dans le cadre d’un processus politique ». L’analyse s’appuie sur les circonstances propres à chaque pays, en tenant compte de la nature du discours et de la structure politique du pays concerné. « En ce qui concerne le contenu que nous autorisons, nous y ajoutons un écran d’avertissement lorsqu’il peut être sensible ou choquant pour certaines personnes. Nous pouvons également réserver ces types de contenu aux adultes de 18 ans et plus. La tolérance d’intérêt médiatique peut être « restreinte », lorsqu’elle s’applique à un seul élément du contenu, ou « mise à l’échelle », lorsqu’elle s’applique plus largement à un élément (par exemple, une phrase). »
II. Soumissions de Meta
Ensuite, Meta a estimé que les trois publications enfreignaient sa politique relative aux Organismes et individus dangereux qui interdit catégoriquement les images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes clairement visibles. Meta estime que « supprimer le contenu contribue à limiter les comportements d’imitation et éviter la diffusion de contenu qui renforce la visibilité du profil de l’auteur et qui peut avoir une valeur de propagande pour ce dernier. » De plus, l’entreprise a pour but de « protéger la dignité de toute victime qui ne consent pas à être exposée à la curiosité du public et de l’attention des médias. » Selon Meta, comme pour tous les forums sur les politiques, l’entreprise tiendra compte d’une série de sources pour prendre une décision, y compris des travaux de recherche universitaire, des commentaires des parties prenantes externes et des informations fournies par les équipes chargées de la politique interne et des opérations.
Meta a également expliqué qu’un tel contenu en infraction serait autorisé conformément à la tolérance d’intérêt médiatique. Cependant, dans les trois cas présents, l’entreprise n’a pas appliqué la tolérance, car selon ses conclusions, la valeur d’intérêt public de l’autorisation de diffusion du contenu ne l’emportait pas sur le risque de préjudice. Meta a pris en compte le fait que l’enregistrement exposait des victimes visibles et qu’il avait été partagé peu de temps après les attaques. De son point de vue, la diffusion de l’enregistrement n’était pas nécessaire aux fins de condamnation ou de sensibilisation.
Meta reconnaît que supprimer ce type de contenu sans tenir compte du contexte « peut entraîner un risque d’application excessive des règles relatives à la liberté d’expression et peut limiter l’information et la sensibilisation à des évènements d’intérêt public, en particulier lorsqu’ils sont associés à des commentaires condamnant, sensibilisant ou discutant de manière neutre de telles attaques ». L’approche actuelle par défaut est la suivante : l’entreprise configure la banque MMS de manière à ce qu’elle supprime tout le contenu qui correspond au contenu présent dans la banque, sans tenir compte de la légende et sans appliquer de pénalité. Cette approche empêche la diffusion du contenu en infraction mais ne prévoit pas de pénalité, car elle tient compte du fait que de nombreux utilisateurs sont susceptibles de partager des représentations d’une crise pour des raisons légitimes ou sans motifs malveillants. Meta a mené un processus d’élaboration de règles formel concernant les images d’attaques violentes désignées, notamment les vidéos dépeignant des attaques terroristes. Ce processus s’est achevé cette année, après que le contenu de ces trois cas a été publié. En vertu de ce processus, Meta a adopté l’approche suivante : dès lors qu’un évènement est désigné, Meta supprime toutes les images en infraction de cet évènement (qu’elles aient été générées par les auteurs ou par des tiers et qui illustrent le moment de ces attaques sur des victimes) sans appliquer de pénalité, quel que soit le contexte du partage et pour une période plus longue que celle du protocole actuel. À l’issue de cette période, seules les images partagées à des fins de glorification, de soutien ou de représentation seront supprimées et feront l’objet d’une pénalité sévère. L’entreprise a déclaré que cette approche était la moins restrictive qui soit pour atténuer les atteintes aux droits d’autrui, notamment le droit au respect de la vie privée et la protection de la dignité des victimes et de leurs familles.
Le Conseil a demandé à Meta si l’entreprise prenait en compte l’impact de l’interdiction de toutes les images générées par les auteurs ou par des tiers illustrant le moment des attaques sur des victimes visibles dans les pays où l’environnement médiatique est censuré, si l’entreprise disposait de leviers d’action au sein de son protocole de politique de crise en lien avec les évènements désignés, et quel était le résultat de ce processus d’élaboration des règles sur les images des évènements désignés. Meta a répondu à toutes les questions.
4. Commentaires publics
Le Conseil de surveillance a reçu six commentaires publics qui répondent aux critères de soumission : Cinq de ces commentaires ont été soumis par les États-Unis et le Canada et un par l’Afrique de l’Ouest. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les commentaires soumis couvraient les thèmes suivants : risques d’application excessive, utilisation de vidéos explicites par des entités désignées et risque de radicalisation, dangers sur le plan psychologique associés à la prolifération de contenu explicite, difficulté à distinguer les enregistrements produits par des auteurs ou par des tiers, l’importance des réseaux sociaux en tant qu’outil de diffusion d’informations en temps opportun en cas de crise, la valeur de ce contenu pour la documentation du public, des journalistes et des chercheurs, l’option de l’écran d’avertissement avec restriction d’âge, et le besoin de clarification des définitions au sein des politiques relatives aux Organismes et individus dangereux et aux Contenu violent et explicite.
5. Analyse du Conseil de surveillance
Le Conseil a analysé les décisions de Meta dans ces cas, en les comparant à ses politiques relatives au contenu, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ces cas pour l’approche plus globale de Meta dans le cadre de la gouvernance du contenu.
5.1 Respect des politiques de Meta relatives au contenu
I. Règles relatives au contenu
Pour le Conseil, il est clair que les trois publications (deux vidéos et une image) violent la règle d’interdiction de Meta sur les « images de tiers illustrant le moment de telles attaques [désignées] sur des victimes visibles. » Meta a désigné l’attaque du 22 mars à Moscou dans sa politique sur les Organismes et les individus dangereux avant que les publications aient été partagées. La règle, telle que définie dans ses Standards de la communauté et détaillée dans ses règles internes, interdit tous les enregistrements de ce type, quel que soit le contexte et quelle que soit la légende associée à la publication (voir la décision Otages enlevés en Israël).
La vidéo affichait des personnes armées en train de tirer à bout portant sur d’autres personnes non armées. On y voyait également des victimes accroupies et d’autres qui fuyaient. L’audio de la vidéo laissait entendre des coups de feu et des personnes en train de crier. La troisième publication capturait le même évènement au sein d’une image fixe. Même si les publications avaient pour but de signaler, de sensibiliser ou de condamner l’attaque, Meta n’applique pas les exceptions prévues à ces effets dans sa politique relative aux Organismes et individus dangereux aux images tierces dépeignant le moment des attaques avec des victimes visibles.
Cependant, la majorité du Conseil estime que les trois publications constituent l’essence même de ce que la tolérance d’intérêt médiatique vise à protéger. Le contenu dépeint un évènement qui a fait la une des journaux du monde entier. Chaque exemple de contenu a été partagé peu de temps après l’attaque et comprenait des informations destinées au public. Pendant ce temps, alors que les faits sur ce qui était arrivé, sur les responsables éventuels et sur la réaction du gouvernement russe faisaient l’objet de discussions et de débats urgents, ce contenu présentait une valeur d’intérêt public particulièrement élevée. Les images et les vidéos de ce type permettent aux citoyens du monde entier de se faire leur propre impression sur les évènements sans avoir à se fier uniquement à du contenu filtré par les gouvernements, les médias ou d’autres organes de presse. Le Conseil prend en considération le manque de liberté médiatique en Russie et son impact sur l’accès aux informations en lien avec son analyse, dans la mesure où il souligne l’importance du contenu pouvant contribuer à faciliter l’information du public. Le fait que les victimes soient visibles, mais non identifiables, sur les trois publications, contribue à faire pencher davantage ce contenu du côté de l’intérêt public, par opposition aux intérêts en jeu en matière de vie privée et de dignité. Vous trouverez une analyse supplémentaire et l’avis de la minorité à propos de la décision du Conseil dans la section Droits humains ci-dessous.
II. Transparence
Selon Meta, l’entreprise dispose d’un ensemble de leviers dans le cadre de son protocole de politique de crise pour prendre des mesures appropriées quant à « l’application excessive dans les situations de crise ». Cependant, elle n’a pas utilisé ces leviers, étant donné que l’attaque de Moscou n’avait pas été désignée comme une crise conformément au protocole. Meta a créé le protocole de politique de crise en réponse à une recommandation du Conseil préconisant le développement et la publication d’une politique qui gouverne la réponse de Meta face aux crises ou aux situations inédites (recommandation n°19 sur la Suspension de l’ancien président américain Trump). Le Conseil a ensuite invité Meta à publier davantage d’informations sur son protocole de politique de crise (recommandation n°1 sur le Bureau des affaires de communication du Tigré). En guise de réponse, Meta a publié cette explication sur son Espace modération, mais a refusé de partager publiquement le protocole dans son intégralité. Le Conseil trouve que la courte explication partagée de manière publique n’est pas suffisante pour permettre au Conseil, aux utilisateurs et au public de comprendre son protocole de politique de crise. Le Conseil a déjà souligné qu’il était important pour Meta d’utiliser un tel protocole, afin de veiller à apporter une réponse efficace et cohérente en cas de crises et de situations de conflit. Une « Declaration of principles for content and platform governance in times of crisis » (Déclaration de principes pour la gouvernance des contenus et des plateformes en temps de crise) datant de 2022 et développée par les ONG Access Now, Article 19, Mnemonic, Center of Democracy and Technology, JustPeace Labs, Digital Security Lab Ukraine, Center for Democracy and Rule of Law (CEDEM) et le Myanmar Internet Project, identifie que le développement d’un protocole de crise est un outil clé qui permet de régir le contenu de manière efficace en période de crise. Le Conseil et le public sont toutefois dans le flou quant aux raisons pour lesquelles le protocole de politique de crise n’a pas été appliqué dans ce cas, et quant à la manière dont le traitement du contenu aurait pu être différent s’il l’avait été. Il est donc nécessaire de faire preuve d’une plus grande transparence sur les modalités d’utilisation du protocole, sur les résultats des audits et des évaluations de l’efficacité du protocole effectués par l’entreprise et sur les changements apportés aux politiques ou aux systèmes pour remédier aux lacunes identifiées. Conformément aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (PDNU), les entreprises devraient « contrôler l’efficacité des mesures qu’elles ont prises [pour remédier à l’incidence] (principe 20) et « communiquer l’information en externe » (principe 21). Sans ces divulgations, il est impossible pour le Conseil, la base d’utilisateurs Meta ou la société civile de déterminer à quel point le protocole fonctionne ou comment son efficacité pourrait être améliorée.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que, même si les publications enfreignent la politique relative aux Organismes et individus dangereux, le fait de supprimer le contenu n’était pas conforme aux politiques de Meta, à son engagement en faveur de l’expression d’opinion ou à ses responsabilités en matière de droits humains.
Liberté d’expression (article 19 du PIDCP)
Le 16 mars 2021, Meta a annoncé sa Politique d’entreprise en matière de droits humains, dans laquelle elle souligne son engagement à respecter les droits conformément aux principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains (PDNU). Les PDNU, soutenus par le Conseil des droits humains des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités des entreprises privées en matière de droits humains. Cette responsabilité signifie, entre autres choses, que les entreprises « doivent éviter de porter atteinte aux droits humains d’autrui et doivent remédier aux effets négatifs sur les droits humains dans lesquels elles sont impliquées » (principe 11 des PDNU). Les entreprises sont censées : « (a) éviter de causer ou de contribuer à des impacts négatifs sur les droits humains par leurs propres activités, et traiter ces impacts lorsqu’ils se produisent ; (b) chercher à prévenir ou à atténuer les impacts négatifs sur les droits humains qui sont directement liés à leurs opérations, produits ou services par leurs relations d’affaires, même si elles n’ont pas contribué à ces impacts » (principe 13 des PDNU).
Les pratiques de modération de contenu de Meta peuvent nuire au droit à la liberté d’expression. L’article 19, du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une protection plus large de ce droit, compte tenu de son importance pour le discours politique, et le Comité des droits de l’homme a remarqué qu’il protège également les formes d’expression susceptibles d’être particulièrement offensantes( observation générale 34, paragraphes 11, 13 et 38). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits humains, à la fois pour les décisions relatives au contenu individuel en cours d’examen et l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression et d’opinion, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » ( A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid.). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil estime que l’emplacement actuel de la règle sur les enregistrements d’évènements violents dans le cadre de la politique relative aux Organismes et individus dangereux est susceptible de prêter à confusion pour les utilisateurs. La section « Nous supprimons » de la politique indique : « Nous supprimons les glorifications des entités, ainsi que des évènements désignés, des niveaux 1 et 2. En ce qui concerne le niveau 1 et les évènements désignés, nous sommes également susceptibles de supprimer les références équivoques ou sans contexte si l’intention de l’utilisateur ou de l’utilisatrice n’est pas clairement indiquée. » La ligne qui explique spécifiquement que l’interdiction associée aux images générées par les auteurs ou par des tiers (qui ne se trouve pas dans la même politique que celle mentionnée ci-dessus) apparaît dans la « justification de la politique » et dans la section appelée « Types et niveaux d’organisations dangereuses » des Standards de la communauté. Le langage utilisé dans la section « Nous supprimons » sous-entend que la condamnation et le partage d’information sont permis alors que le langage utilisé dans les autres sections (justification de la politique et types/niveaux) indique que les images générées par les auteurs et des tiers dépeignant le moment de l’attaque sur des victimes visibles sont interdites, et ne spécifie pas que Meta prévoit de supprimer un tel contenu, quel que soit le motif ou le cadre dans lequel le contenu est partagé (par exemple, pour motif de condamnation ou de sensibilisation). L’emplacement de la règle et le manque de clarté quant à la portée des exceptions applicables sont source de confusion inutile. Meta devrait déplacer la règle relative aux enregistrements d’évènements désignés dans la section « Nous supprimons », en créant une nouvelle section consacrée à la violation de la règle relative aux évènements violents.
II. Objectif légitime
La politique de Meta relative aux Organismes et individus dangereux vise à « prévenir et arrêter les dommages dans le monde réel ». Dans le cadre de plusieurs décisions, le Conseil a estimé que cette politique contribuait à l’objectif légitime de protection des droits d’autrui, tels que le droit à la vie (PIDCP, article 6) et le droit à la non-discrimination et à l’égalité (PIDCP, articles 2 et 26), car elle traite des organisations qui encouragent la haine, la violence et la discrimination, ainsi que des évènements violents motivés par la haine. Voir les décisions suivantes : Référence à des personnes dangereuses désignées sous le terme « chahid »,Vidéo d’un prisonnier des Forces de soutien rapide au Soudan, Otages enlevés en Israël et Campagne électorale 2023 en Grèce. Les politiques de Meta poursuivent également l’objectif légitime de protéger le droit à la vie privée des victimes identifiables et de leurs familles (voir la décision sur la Vidéo après l’attaque d’une église au Nigeria).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Dans ces trois cas, la majorité du Conseil estime qu’il n’y a pas de risque précis et réel que ces trois publications conduisent à de la radicalisation et à de l’incitation à la violence. Chaque publication est rédigée dans un langage clair qui condamne l’attaque, exprime de la solidarité ou de l’inquiétude à l’égard des victimes et cherche à informer le public. Les vidéos ont été publiées immédiatement après l’attaque. La légende de la première publication affiche, de manière explicite, son soutien aux victimes et indique que la personne qui a publié le contenu avait pour but de partager l’information pour permettre au public de mieux comprendre ce qu’il s’était passé. La personne qui a partagé la deuxième publication a exprimé sa solidarité auprès des victimes en Russie, en condamnant la violence. Et la troisième publication fournissait des informations accompagnées d’une image fixe et d’une courte vidéo, signalant que personne n’avait encore revendiqué la responsabilité et que l’Ukraine avait affirmé n’avoir aucun lien avec l’attaque, un contenu en contradiction avec la propagande largement diffusée par les médias d’État russes. La suppression de contenus d’intérêt public vital sur la base de craintes non fondées selon lesquelles ils pourraient conduire à de la radicalisation ne correspond pas aux responsabilités de Meta en matière de liberté d’expression, en particulier lorsque les mêmes images ont été visionnées par des millions de personnes, accompagnées d’allégations selon lesquelles l’attaque était en partie imputable à l’Ukraine. Le Conseil prend note de l’importance de maintenir l’accès à l’information durant les crises et de l’environnement médiatique censuré de la Russie, dans lequel les personnes comptent sur les réseaux sociaux pour accéder à l’information ou pour sensibiliser les audiences internationales.
Conformément aux Standards de la communauté de Meta sur le contenu violent et explicite, l’autorisation d’un tel contenu avec un écran d’avertissement est une mesure de protection des droits d’autrui moins restrictive (voir l’analyse complète des mesures moins restrictives ci-dessous). Cette politique autorise les « images (au format vidéo ou photo) représentant la mort violente d’une personne (notamment le moment ou les suites de son décès) ou une personne confrontée à un évènement potentiellement mortel » à condition qu’elle soit accompagnée d’un écran d’avertissement « contenu dérangeant ».
De plus, comme le Conseil l’a déjà indiqué, lorsque les victimes de telles violences sont identifiables sur l’image, « le respect de leur vie privée et les droits de leurs familles sont plus directement mis à mal » à cause du contenu (voir la décision Vidéo après l’attaque d’une église au Nigeria). Dans cette décision, dans laquelle le contenu montre les conséquences abominables de l’attaque terroriste, la majorité du Conseil a décidé que la suppression du contenu n’était pas nécessaire ni proportionnée et que la publication devait être restaurée avec un écran d’avertissement et une restriction d’âge. L’enregistrement qui pose problème dans ces trois publications n’est pas en haute résolution, et les assaillants ainsi que les personnes visées par les tirs sont visibles, mais pas facilement identifiables. Dans certaines circonstances, la suppression du contenu dépeignant des victimes identifiables est une mesure nécessaire et proportionnée (par exemple, en cas de conflit armé, lorsque les victimes sont des prisonniers de guerre ou des otages qui font l’objet d’une protection spéciale en vertu du droit international). Cependant, dans les cas présents, étant donné que les victimes ne sont pas facilement identifiables, ou affichées de manière humiliante ou dégradante, le fait de restaurer ces publications en y ajoutant un écran d’avertissement et une restriction d’âge correspond davantage aux responsabilités de Meta en matière de droits humains.
Une minorité de membres du Conseil désapprouve et souhaiterait confirmer la décision de Meta de supprimer les trois publications de Facebook. La minorité est d’accord sur le fait que, dans ce cas, le contenu capturé par une personne présente sur le lieu et partagé pour signaler ou condamner l’attaque n’est pas susceptible d’inciter à la violence ou de promouvoir la radicalisation. Cependant, pour la minorité, la nature explicite de l’enregistrement, qui comporte des bruits de coups de feu et des cris des victimes, qui montre le moment de l’attaque, et dans ce cas, le décès de victimes visibles mais pas facilement identifiables, rend la suppression nécessaire, car la vie privée et la dignité des victimes et de leur famille sont impliquées. Si, suite aux attaques terroristes, des enregistrements violents sont rapidement et largement diffusés et qu’ils peuvent retraumatiser les survivants et les familles des personnes décédées, la minorité pense qu’il est justifié de prioriser la vie privée et la dignité des victimes et de leurs familles au lieu d’autoriser les citoyens à accéder à du contenu pertinent en raison de sa valeur d’intérêt médiatique. Pour la minorité, le fait que le contenu soit d’intérêt médiatique joue en défaveur de son maintien sur la plateforme. La minorité maintient que l’attaque du 22 mars a été largement couverte médiatiquement en Russie ainsi qu’au niveau international. Cependant, à ses yeux, le fait d’autoriser cet enregistrement sur les plateformes de Meta n’était pas nécessaire pour assurer l’accès à l’information concernant l’attaque. Les utilisateurs qui souhaitaient commenter l’attaque ou contester la version du gouvernement qui impute la responsabilité de l’attaque à l’Ukraine auraient pu le faire sans partager les moments les plus explicites de l’enregistrement.
Le Conseil comprend qu’en développant et en adoptant sa politique sur les images d’attaques terroristes au cours de son récent processus de développement de la politique, Meta a commis une erreur en privilégiant la question de la sécurité et de la vie privée, en adoptant un raisonnement similaire à la minorité sur ce dernier point. L’entreprise a expliqué qu’il y avait un risque de comportement antagoniste, qui pourrait se traduire, par exemple, par la réutilisation de l’enregistrement d’un tiers par des acteurs violents, et qu’il existe des difficultés d’application en termes de modération du contenu à l’échelle, ce qui signifie qu’une approche plus permissive augmenterait ces risques. L’entreprise a également souligné les risques associés à la vie privée et à la dignité des victimes de ces attaques et de leur famille, lorsque les victimes sont visibles. Un commentaire public soumis par le Congrès juif mondial souligne des considérations similaires à celles exprimées par Meta. En référence à la prolifération en ligne des vidéos de l’attaque du Hamas contre Israël du 7 octobre 2023, le commentaire soumis note qu’« au cours de tels évènements, la définition de “témoin” ou de “tiers” est problématique, étant donné que de nombreux complices filmaient et diffusaient des contenus terroristes » (PC-29651).
Le Conseil reconnaît qu’à l’ère numérique, la vidéographie et la photographie sont des outils employés par certains terroristes dans le but de documenter et de glorifier leurs actes. Mais toutes les vidéos des attaques impliquant des entités désignées ne sont pas créées dans ce but, calibrées pour produire cet effet ou perçues comme telles par les spectateurs. Les images qui ne sont pas produites par les acteurs ou les personnes qui les soutiennent ne sont pas créées dans le but de glorifier ou de promouvoir le terrorisme. Lorqu’elles sont enregistrées par un témoin, une victime, un journaliste indépendant ou via une caméra de surveillance, les images elles-mêmes ne sont pas destinées à dramatiser et à fétichiser la violence et sont généralement moins susceptibles de l’être (par exemple, un enregistrement qui provient de la caméra embarquée de l’auteur est différent d’un enregistrement capturé par une caméra de surveillance ou un témoin). Elles rendent compte de l’horreur de la violence, mais ne doivent pas, en la présentant, la banaliser ou l’encourager. Bien qu’il existe des risques que les images des attaques soient réutilisées pour encourager la glorification de la violence ou du terrorisme et les comportements d’imitation, en l’absence de signes d’un tel remaniement, une interdiction générale ne tient pas compte du fait que les vidéos documentant des attaques violentes peuvent susciter de la sympathie pour les victimes, encourager la responsabilisation et sensibiliser le public à des évènements importants, en dirigeant potentiellement la colère ou le mépris vers les auteurs, et en mettant le public en garde contre la nature brutale des groupes et des mouvements terroristes.
Dans l’avis consultatif en matière de politique sur la Référence à des personnes dangereuses désignées sous le terme « chahid », le Conseil a rappelé que plusieurs résolutions du Conseil de sécurité des Nations Unies appelaient les États à lutter contre l’incitation aux actes terroristes et soulevaient des inquiétudes quant à l’utilisation d’Internet par des organisations terroristes. Voir la résolution du Conseil de sécurité de l’ONU 1624 (2005), la résolution du Conseil de sécurité de l’ONU 2178 (2014) et la résolution du Conseil de sécurité de l’ONU 2396 (2017). L’approche de Meta peut être considérée comme une tentative de répondre à ces préoccupations. Cependant, le Conseil a également noté que dans un avis consultatif en matière de politique, le Rapporteur spécial des Nations Unies sur la promotion et la protection des droits de l’homme et des libertés fondamentales dans la lutte antiterroriste a mis en garde contre l’adoption de règles trop larges et a parlé des conséquences liées au fait de se concentrer sur le contenu du discours plutôt que sur le « lien de causalité ou le risque réel que l’infraction se produise » (rapport A/HRC/40/52, paragraphe 37). Voir aussi la Joint Declaration on the Internet and on Anti-Terrorism Measures (Déclaration commune sur Internet et sur les mesures antiterroristes) du Rapporteur spécial des Nations Unies sur la liberté d’expression, le Représentant de l’OSCE pour la liberté des médias et le Rapporteur spécial sur la liberté d’expression de l’OEA (2005).
Le Conseil reconnaît que la création d’exceptions à la politique risque de conduire à une application insuffisante des règles relatives aux contenus décrivant des attaques terroristes et à la réutilisation d’enregistrements à des fins malveillantes que Meta ne sera pas en mesure d’identifier et de supprimer de manière efficace. Le Conseil félicite Meta d’avoir cherché à réduire le risque que des acteurs violents utilisent ses plateformes pour recruter et radicaliser des individus, et de s’être attaqué aux préjudices causés à la vie privée et à la dignité des victimes. Cependant, comme le démontrent les trois publications en question, les images d’attaques peuvent avoir des fonctions multiples et il existe des risques liés à la liberté d’expression, à l’accès à l’information et à la participation du public si la politique adoptée tend vers une application excessive, alors que des moyens moins restrictifs sont disponibles pour parvenir à un résultat plus proportionné.
Lorsque Meta applique un écran d’avertissement avec restriction d’âge, le contenu n’est pas accessible aux utilisateurs qui ont moins de 18 ans. Les autres utilisateurs doivent cliquer sur l’écran pour visualiser le contenu et le contenu est ensuite supprimé des recommandations pour les utilisateurs qui ne suivent pas le compte (voir les décisions sur l’Hôpital Al-Shifa et les Otages enlevés en Israël) Meta peut avoir recours à la banque MMS pour appliquer automatiquement un écran d’avertissement « Contenu dérangeant » à tous les contenus qui contiennent des images identifiées. Ces mesures peuvent atténuer le risque que le contenu devienne viral ou qu’il atteigne des utilisateurs particulièrement vulnérables ou influençables qui ne l’ont pas recherché. Un écran d’avertissement réduit donc la probabilité que le contenu inspire involontairement des actes d’imitation. Toutefois, il ne permet pas d’atténuer totalement les risques de réutilisation de l’enregistrement par des acteurs malveillants. Cependant, une fois les risques liés au caractère viral du contenu réduits, Meta dispose d’autres outils, plus ciblés, pour identifier les réutilisations par de mauvais acteurs et supprimer ce contenu de la plateforme (par exemple, les équipes internes qui recherchent proactivement ce type de contenu et les canaux pour les partenaires de confiance). Une approche plus ciblée nécessitera sans aucun doute des ressources supplémentaires. Compte tenu de l’étendue des ressources de Meta et de l’impact de l’approche actuelle sur la liberté d’expression et l’accès à l’information, une approche plus ciblée est justifiée.
Les images des attaques peuvent communiquer et évoquer une indignation morale, créer un sentiment de solidarité avec les victimes et constituer un mécanisme de partage d’informations avec les personnes sur le terrain ou les audiences internationales. Il semblerait également que les gens soient plus enclins à aider ou à avoir une réaction émotionnelle plus forte lorsqu’ils peuvent voir une photo ou une vidéo d’une victime spécifique que lorsque l’information est présentée sous la forme d’une description abstraite ou de simples chiffres. Dans un pays où l’environnement médiatique est censuré et où le gouvernement exerce un contrôle important sur ce que la population voit et sur la manière dont les informations sont présentées, il est encore plus important que les médias sociaux rendent accessibles des contenus qui suscitent une forte prise de conscience du public et qui ont une importance politique. La majorité conclut que l’interdiction et le retrait de toutes les images de tiers montrant des attaques avec des victimes visibles, mais non identifiables personnellement, lorsqu’elles sont partagées à des fins d’information, de sensibilisation et de condamnation, ne sont pas des mesures nécessaires ni proportionnées. Lorsque la vidéo ou l’image est générée par l’auteur, qu’elle montre des victimes personnellement identifiables dans des circonstances dégradantes ou des victimes particulièrement vulnérables (par exemple, des otages ou des mineurs), ou qu’elle n’a pas d’objectif clair de sensibilisation, de signalement ou de condamnation, il peut être approprié pour Meta de privilégier la suppression de la vidéo. Mais une règle qui interdit les images tierces des attaques avec des victimes visibles, sans tenir compte de la raison et du contexte associé au partage de la publication, évite une approche plus proportionnée et moins restrictive, étant donné qu’il n’est pas évident qu’une approche si autoritaire soit nécessaire.
Meta devrait autoriser la diffusion d’images tierces dépeignant le moment d’attaques avec des victimes clairement visibles, mais non identifiables, à condition qu’elles soient partagées dans un contexte d’information et de condamnation, et qu’elles soient accompagnées d’un interstitiel « contenu dérangeant ». Cela serait conforme à la justification de la Politique Organismes et individus dangereux qui indique : Les politiques de Meta sont conçues pour laisser la place aux … références aux Organismes et individus dangereux désignés dans le contexte de partage de contenus faisant état, discutant de manière neutre ou condamnant des personnes et organisations dangereuses ou leurs activités dans le cadre d’un discours social et politique. » Toutefois, au vu des différents types d’attaques violentes susceptibles d’être désignées et du fait que le contexte d’une situation donnée peut présenter des risques particulièrement élevés d’imitation ou d’utilisation malveillante, Meta devrait faire appel à des experts humains pour évaluer les situations spécifiques et appliquer l’exception recommandée par le Conseil.
Pour la minorité, la politique actuelle de Meta interdisant toutes les images d’attaques désignées dépeignant des victimes visibles est conforme aux responsabilités de l’entreprise en matière de droits humains et aux principes de nécessité et de proportionnalité. Lorsqu’un enregistrement explicite d’une attaque montre des victimes visibles, même lorsque les victimes ne sont pas facilement identifiables, l’objectif de protection du droit à la vie privée et à la dignité des survivants et des victimes l’emporte de loin sur la valeur d’expression d’opinion, aux yeux de la minorité. Même un contenu filmé par un tiers peut porter atteinte à la vie privée et à la dignité des victimes et de leur famille. Et en appliquant un écran d’avertissement aux contenus montrant le décès d’une personne, comme le recommande la majorité, la vie privée ou la dignité des victimes ou de leurs familles n’est pas protégée par ceux qui choisissent d’afficher l’écran. Comme dans la décision Vidéo après l’attaque d’une église au Nigeria, la minorité a mentionné que lorsqu’une attaque terroriste a lieu, les vidéos de cette nature deviennent fréquemment virales, ce qui aggrave la situation et augmente le risque de retraumatisation. Meta devrait agir rapidement et à grande échelle afin de prévenir et d’atténuer les atteintes aux droits humains des victimes, des survivants et de leurs familles. Cela sert également l’objectif public plus large qui vise à empêcher les auteurs de telles attaques de semer une terreur généralisée, sachant que les médias sociaux amplifieront leurs impacts psychologiques. De plus, si l’on reprend ce que le Conseil a déjà indiqué dans de précédentes décisions, Meta pourrait alléger la charge qui pèse sur les utilisateurs et atténuer les risques en matière de vie privée en leur fournissant des instructions ou des accès plus spécifiques à ses produits (outil qui permet de flouter les visages dans les vidéos qui dépeignent des victimes visibles de violence, par exemple) (voir la décision Documentaire sur des abus sexuels d’enfants au Pakistan).
6. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta visant à retirer les trois publications et demande que le contenu soit restauré et masqué par un écran d’avertissement « contenu dérangeant ».
7. Recommandations
Politique de contenu
1. Afin de veiller à ce que ses Standards de la communauté sur les Organismes et les individus dangereux soient adaptés à ses objectifs, Meta devrait autoriser la diffusion d’images tierces dépeignant le moment d’attaques terroristes désignées avec des victimes clairement visibles mais qui ne sont pas personnellement identifiables, lorsqu’elles sont partagées dans un contexte de partage d’information, de condamnation et de sensibilisation, à condition qu’elles soient masquées par un écran d’avertissement « contenu dérangeant ».
Le Conseil considérera que cette recommandation aura été implémentée lorsque Meta mettra à jour ses Standards de la communauté en matière d’organismes et d’individus dangereux destinés au public en y ajoutant ce qui a été mentionné précédemment.
2. Pour garantir la clarté, Meta devrait inclure une règle dans la section « Nous supprimons» des Standards de la communauté relatifs aux Organismes et individus dangereux et déplacer l’explication de Meta sur sa manière de traiter le contenu dépeignant des évènements désignés, en la supprimant de la justification de la politique et en l’insérant dans la section susmentionnée.
Le Conseil considérera que cette recommandation aura été implémentée lorsque Meta mettra à jour ses Standards de la communauté en matière d’Organismes et d’individus dangereux destinés au public en déplaçant la règle sur l’enregistrement des évènements désignés dans la section « Nous supprimons » de la politique.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, un groupe d’investigations numériques fournissant des services de conseil en matière de risques et de renseignements sur les menaces pour atténuer les préjudices en ligne, a également fourni des recherches.
Retour aux décisions de cas et aux avis consultatifs politiques