Confirmé

Publication sur les armes liée au conflit soudanais

Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication montrant une cartouche d’arme, accompagnée d’une légende expliquant comment créer et lancer un cocktail Molotov, qui a été partagée lors du conflit armé au Soudan.

Type de décision

Standard

Politiques et sujets

Sujet
Guerre et conflits, Violence
Norme communautaire
Violence et incitation

Régions/Pays

Emplacement
Soudan

Plate-forme

Plate-forme
Facebook

Résumé

Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication montrant une cartouche d’arme, accompagnée d’une légende expliquant comment créer et lancer un cocktail Molotov. Selon le Conseil, la publication a enfreint le Standard de la communauté de Facebook relatif à la violence et à l’incitation, en présentant un risque de préjudice imminent susceptible d’exacerber la violence en cours au Soudan. Le présent cas a soulevé de vives inquiétudes quant aux responsabilités de Meta en matière de droits de l’homme sur le partage de contenu qui donne des instructions sur les armes lors de conflits armés. Afin d’observer ces responsabilités, Meta doit veiller à clarifier les exceptions qui s’appliquent à ses règles sur la violence et l’incitation. Elle doit par ailleurs élaborer des outils afin de corriger ses propres erreurs en cas d’envoi d’une notification erronée à ses utilisateurs spécifiant le Standard de la communauté que son contenu a enfreint.

À propos du cas 

En juin 2023, un utilisateur de Facebook a publié l’illustration d’une cartouche d’arme, avec une liste en arabe des composants qui la constituent. La légende de la publication explique comment créer un cocktail Molotov à l’aide des composants listés et que le port du casque est requis pour lancer ce dispositif incendiaire. Elle conclut avec un appel à la victoire du peuple soudanais et des Forces armées soudanaises (FAS).

Deux mois avant la publication du contenu, des combats ont éclaté au Soudan entre les FAS et les Forces de soutien rapide (FSR), un groupe paramilitaire que Meta a désigné comme une organisation dangereuse en août 2023. Ce conflit armé n’en finit pas au Soudan et s’est répandu dans tout le pays, les deux parties belligérantes ont par ailleurs eu recours à des armes explosives dans des zones densément peuplées par des civils.

Les systèmes automatisés de Meta ont détecté le contenu et ont conclu qu’il enfreignait le Standard de la communauté de Facebook sur la violence et l’incitation. Meta a supprimé la publication, puis appliqué une pénalité standard au profil de l’utilisateur. L’utilisateur a immédiatement fait appel de cette décision. Après analyse, l’un des membres de l’équipe d’examen manuel de Meta a jugé que la publication enfreignait la politique relative aux biens et services restreints. L’utilisateur a ensuite déposé un appel auprès du Conseil, suite à quoi Meta a déterminé que le contenu aurait dû être supprimé mais, comme stipulé dans sa décision initiale, en vertu du Standard de la communauté sur la violence et l’incitation.

Principales observations 

Le Conseil considère que la publication a enfreint la politique relative à la violence et à l’incitation sur la base de deux critères. Tout d’abord, l’effet combiné de l’image et de la légende a enfreint la règle qui interdit les « instructions expliquant comment créer ou utiliser des armes et indiquant sans ambiguïté que l’objectif est de blesser gravement des personnes ou de les tuer ». Sans tenir compte de l’intention de l’auteur de la publication, le guide détaillé pour créer un cocktail Molotov et la recommandation du « port d’un casque » montrent que le contenu appelle les personnes à suivre ces instructions. Par ailleurs, le recours à la violence en soutien aux FAS dans le cadre du conflit armé en cours ne relève pas d’un objectif non violent. La politique sur la violence et l’incitation interdit d’expliquer comment confectionner des armes, à moins d’un « contexte qui montrerait que l’objectif du contenu est non violent ».

La règle qui interdit d’expliquer comment créer et utiliser des armes prévoit une exception lorsque le contenu est partagé dans le cadre de « cours d’autodéfense, à des fins d’entraînement militaire, pour des publicités de jeux vidéo ou pour des reportages ». Les parties prenantes que le Conseil a consultées ainsi que des reportages ont soutenu que Meta autorise de telles instructions dans l’exercice de l’autodéfense lors de certains conflits armés. Meta a nié ces déclarations. Le Conseil n’est pas en mesure de déterminer la véracité de ces affirmations contradictoires.

Il est cependant essentiel que les règles de Meta sur un sujet aussi important soient claires, et que leur mise en application soit cohérente et rigoureuse. Compte tenu de l’utilisation des plateformes de Meta par les combattants et les civils lors des conflits en vue de partager des informations sur l’usage des armes, ou du contenu violent pour l’autodéfense, Meta doit définir plus clairement les exceptions liées aux « cours d’autodéfense » et à l’« entraînement militaire ». Le Conseil ne partage pas l’avis de Meta selon lequel ces termes utilisés dans le langage public du Standard de la communauté sur la violence et l’incitation revêtent un « sens évident ». À des fins de clarté, Meta doit désigner quels acteurs peuvent bénéficier d’une exception liée aux « cours d’autodéfense » et dans quel cadre elle s’applique. En outre, le langage public de la politique sur les instructions expliquant comment créer ou utiliser des armes ou des explosifs ne stipule pas expressément que les contextes d’autodéfense ne sont pas pris en compte lors de conflits armés.

Ce cas souligne également une autre exception peu claire concernant le Standard de la communauté sur la violence et l’incitation, qui autorise les menaces proférées contre les terroristes et d’autres acteurs violents. Son manque de clarté provient du fait que Meta ne précise pas si elle s’applique à toutes les organisations et personnes désignées en vertu de sa politique sur les organisations et personnes dangereuses. Ce cas relève de cette exception, car les FSR faisaient partie de cette catégorie pendant la période concernée en 2023. Les utilisateurs ne peuvent néanmoins pas savoir si leur publication pourrait être supprimée ou non pour ce motif, car la liste des organisations et personnes désignées n’a pas été communiquée au public. Le Conseil a déjà fait part de ses préoccupations sur ce manque de clarté dans notre décision relative à la Vidéo d’un poste de police haïtien.

Il s’inquiète également que le système de notification de Meta ne soit pas configuré pour permettre à l’entreprise de rectifier ses propres erreurs lorsqu’elle n’indique pas correctement quel Standard de la communauté un utilisateur a enfreint. Il est essentiel de pouvoir informer correctement les utilisateurs de leur infraction, au nom de l’impartialité. Les notifications erronées empêchent l’utilisateur de faire appel et d’accéder à un recours. Dans le cas présent, l’utilisateur a été informé par erreur que sa publication a été supprimée conformément à la politique sur le discours haineux, alors que sa suppression relevait en réalité du Standard de la communauté sur la violence et l’incitation. Le Conseil encourage toutefois Meta à étudier les moyens techniquement faisables qui s’offrent à elle pour corriger les notifications envoyées à l’utilisateur.

Décision du Conseil de surveillance 

Le Conseil de surveillance a confirmé la décision de Meta de supprimer la publication.

Le Conseil recommande à Meta ce qui suit :

  • Modifier sa politique sur la violence et l’incitation afin d’inclure une définition de « cours d’autodéfense » et d’« entraînement militaire » en tant qu’exceptions à ses règles qui interdisent aux utilisateurs d’expliquer comment créer ou utiliser des armes, et préciser qu’elle n’autorise aucune exception liée à l’autodéfense pour de telles instructions dans le cadre d’un conflit armé.
  • Élaborer des outils afin de rectifier ses propres erreurs lors de l’envoi de messages notifiant les utilisateurs du Standard de la communauté qu’ils ont enfreint, afin de les aider à identifier les politiques que leur contenu n’a pas observées.

* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance confirme la décision de Meta de supprimer une publication contenant l’image d’une cartouche d’arme, accompagnée d’une liste en arabe de ses différents composants. La publication était accompagnée d’une légende en arabe qui explique comment retirer les plombs d’une cartouche, et en utiliser les composants afin de créer un cocktail Molotov. Elle recommande également aux personnes de porter un casque pour éviter de se blesser lorsqu’elles lancent un tel dispositif incendiaire. La légende se termine par l’appel suivant : « Victoire au peuple soudanais / Victoire aux Forces armées soudanaises / En avant, ô, mon pays ». Un classificateur de discours hostile a détecté ce contenu et a conclu qu’il enfreignait le Standard de la communauté de Facebook sur la violence et l’incitation.

D’après le Conseil, la publication a enfreint le Standard de la communauté sur la violence et l’incitation, qui interdit les instructions expliquant comment créer ou utiliser des armes et indiquant sans ambiguïté que l’objectif est de blesser gravement des personnes ou de les tuer. Il conclut par ailleurs que la publication enfreint une autre ligne politique en vertu du Standard de la communauté sur la violence et l’incitation, qui interdit d’expliquer comment créer ou utiliser des explosifs, à moins d’un contexte qui montrerait que l’objectif du contenu est non violent. Le Conseil estime que le contenu présente un risque de préjudice imminent susceptible d’exacerber la violence en cours au Soudan.

Le présent cas soulève de vives inquiétudes quant aux instructions sur les armes qui pourraient être partagées lors d’un conflit armé et des responsabilités de Meta en matière de droits de l’homme dans ce contexte. Pour mettre en application ces responsabilités, Meta doit assurer une meilleure cohérence des règles en définissant clairement les exceptions aux lignes politiques relatives à la création ou à l’utilisation d’armes ou d’explosifs conformément au Standard de la communauté sur la violence et l’incitation. En outre, Meta doit élaborer des outils lui permettant de corriger les erreurs commises en informant les utilisateurs du Standard de la communauté qu’ils ont enfreint.

2. Description du cas et contexte

En juin 2023, un utilisateur de Facebook a publié l’illustration d’une cartouche d’arme à feu. Les différents composants de la cartouche sont listés en arabe. La légende de la publication, également en arabe, explique comment retirer les plombs de la cartouche d’une arme et d’en utiliser les composants pour créer un cocktail Molotov, c’est-à-dire un dispositif incendiaire, généralement dans une bouteille, facile à fabriquer. La légende recommande également aux personnes de porter un casque, afin de les protéger lorsqu’elles lancent le dispositif, et conclut « Victoire au peuple soudanais », « Victoire aux Forces armées soudanaises » et « En avant, ô, mon pays ». Les spécialistes en langue que le Conseil a consultés ont déclaré que ces phrases, en elles-mêmes, n’appelaient pas les civils à commettre des actes de violence. Le contenu n’avait été vu que quelques fois avant que Meta ne finisse par le supprimer sans examen manuel, 7 minutes après sa publication. Lors de la publication du contenu en juin 2023, les Forces armées soudanaises (FAS) et les Forces de soutien rapide (FSR), un groupe paramilitaire, avaient pris part à un conflit armé depuis mi-avril, toujours en cours aujourd’hui. Les FSR ont été désignées organisation dangereuse en vertu de la politique de Meta sur les organisations et personnes dangereuses le 11 août 2023, quelques mois après l’aggravation du conflit.

Un classificateur de discours hostile, un algorithme que Meta utilise afin d’identifier les éventuelles infractions aux Standards de la communauté sur le discours haineux, la violence et l’incitation et l’intimidation et le harcèlement, a détecté le contenu et a conclu qu’il enfreignait le Standard de la communauté relatif à la violence et l’incitation. Meta a supprimé le contenu et appliqué une pénalité standard au profil du créateur du contenu, ce qui l’a empêché d’interagir avec des groupes et de créer ou de rejoindre des salons de messagerie pendant 3 jours. L’utilisateur a immédiatement fait appel de la décision de Meta. Après analyse, un membre de l’équipe d’examen manuel de Meta a jugé que la publication enfreignait la politique relative aux biens et services restreints. L’utilisateur a alors fait appel auprès du Conseil. Après que le Conseil a porté l’affaire à l’attention de Meta, l’entreprise a déterminé que sa décision initiale de supprimer le contenu en vertu du Standard de la communauté relatif à la violence et à l’incitation était correcte, et que la publication n’enfreignait pas la politique sur les biens et services restreints.

Le Conseil a pris en considération le contexte ci-dessous pour parvenir à sa décision.

En avril 2023, des combats ont éclaté dans la capitale du Soudan entre les FAS et les FSR. L’utilisateur à l’origine de la publication du contenu qui nous préoccupe semble soutenir les FAS. Les combats se sont d’abord concentrés sur Khartoum, la capitale du Soudan, puis se sont étendus dans tout le pays, notamment au Darfour et au Kordofan. Les deux groupes belligérants ont utilisé des armes explosives, notamment des bombes aériennes, de l’artillerie et du mortier, des roquettes et des missiles, dans des zones densément peuplées par des civils. Les Nations Unies estiment qu’en janvier 2024 plus de 7 millions de personnes avaient été déplacées depuis mi-avril et que plus de 1,2 million ont fui le pays. On estime à 9 000 le nombre de morts. Certaines des attaques perpétrées contre des civils reposent sur des motivations ethniques. En octobre 2023, la Rapporteuse spéciale des Nations Unies sur la traite des êtres humains a exprimé son inquiétude face au risque accru de recrutement et de recours aux enfants soldats par des forces et groupes armés. Tandis que les combats continuent de faire rage dans tout le pays, les spécialistes ont également noté la participation accrue d’autres groupes armés.

D’après les spécialistes consultés par le Conseil au sujet du conflit au Soudan, les FAS et les FSR s’appuient sur les réseaux sociaux afin de « diffuser des informations et de la propagande » sur leur situation respective. Bien que la pénétration d’Internet reste faible au Soudan, les médias et les groupes de lasociétécivile ont signalé que ces deux parties belligérantes utilisent les réseaux sociaux afin d’essayer de contrôler les informations sur le conflit. Par exemple, elles ont proclamé publiquement leur victoire dans des zones de combats en cours, mettant ainsi en danger les civils qui décident de revenir chez eux sur la base d’informations inexactes.

3. Champ d’application et autorité du Conseil de surveillance

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.

4. Sources d’autorité et conseils

Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :

l. Décisions du Conseil de surveillance

Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent les cas suivants :

II. Règles de Meta relatives au contenu

Le Standard de la communauté de Meta en matière de violence et d’incitation a pour but de « prévenir la violence hors ligne potentielle qui peut être liée au contenu sur nos plateformes ». Meta déclare qu’elle supprime les « propos qui incitent ou facilitent la violence grave » et les « menaces à la sécurité publique ou des personnes ». L’entreprise fait la distinction entre les déclarations informelles, autorisées par la politique, et celles qui présentent un « véritable risque de blessures physiques ou de menaces directes à la sécurité publique ».

Le Standard de la communauté relatif à la violence et à l’incitation interdit les « menaces qui pourraient conduire à la mort (ou à d’autres formes de violence de haute gravité »). Il stipule également que Meta autorise les menaces « dirigées contre certains acteurs violents, tels que les groupes terroristes ». Meta a mis à jour sa politique le 6 décembre 2023 afin d’indiquer qu’elle n’interdit pas les menaces lorsqu’elles sont partagées afin de sensibiliser, conformément à la recommandation du Conseil dans le cas relatif au Poème russe. Suite à des échanges avec le Conseil, Meta a précisé que « tous les appels à la violence ainsi que toutes les menaces aspirationnelles et conditionnelles de violence de haute et moyenne gravité sont autorisés s’ils ciblent une entité désignée comme une organisation ou personne dangereuse. Les déclarations d’intention, quant à elles, constituent systématiquement une infraction à la politique ».

Le Standard de la communauté sur la violence et l’incitation prévoit également deux règles liées aux instructions sur la création et l’utilisation d’armes.

La première règle interdit le contenu qui fournit des « instructions expliquant comment créer ou utiliser des armes et indiquant sans ambiguïté que l’objectif est de blesser des personnes gravement ou de les tuer » ou des « images qui montrent ou simulent le résultat final ». Ce type de contenu n’est autorisé que s’il est partagé dans un contexte de « cours d’autodéfense, d’entraînement militaire national, de publicités de jeux vidéo ou pour des reportages (publiée par une Page ou avec un logo de reportages) ».

La seconde règle interdit le contenu qui explique comment créer ou utiliser des explosifs, « à moins que le contexte ne démontre que l’objectif du contenu est non violent ». Cet objectif non violent inclut par exemple les « publicités de jeux vidéo, les fins scientifiques ou pédagogiques bien établies, les feux d’artifice ou notamment la pêche ».

L’analyse du Conseil s’est également appuyée sur l’engagement de Meta en faveur de la liberté d’expression que l’entreprise qualifie de « primordiale », et sur sa valeur de sécurité.

III. Responsabilités de Meta en matière de droits de l’homme

16. Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits de l’homme au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. Les PDNU ont signalé le renforcement des responsabilités relatives aux droits de l’homme des entreprises opérant dans un contexte de conflit (« Entreprises, droits de l’homme et régions touchées par des conflits : vers une action renforcée », A/75/212).

En l’espèce, l’analyse du Conseil sur les responsabilités de Meta en matière de droits de l’homme s’est appuyée sur les standards internationaux suivants :

5. Soumissions de l’utilisateur

Dans son appel auprès du Conseil, l’utilisateur à l’origine du contenu a indiqué que Meta ne l’a pas compris et qu’il partageait simplement des faits.

6. Soumissions de Meta

Meta affirme que la publication a enfreint deux lignes politiques du Standard de la communauté relatif à la violence et à l’incitation. Tout d’abord, elle a enfreint la ligne politique qui interdit le contenu qui explique comment confectionner ou utiliser des armes s’il est clair que son objectif est de blesser gravement ou de tuer des personnes. Meta a déclaré que la publication était en infraction, car la « légende qui l’accompagne suggère que l’objectif visé est de lancer le cocktail Molotov contre une cible… ». Cependant, les instructions sont partagées « dans le cadre d’un conflit armé et manifestement en soutien aux FAS ». Meta a estimé que la publication ne relevait d’aucune de ces exceptions conformément à la ligne politique, qui évoque les « cours d’autodéfense », l’« entraînement militaire » ou les « reportages ». Dans sa réponse au Conseil concernant la signification de « cours d’autodéfense » et d’« entraînement militaire », Meta a expliqué qu’aucune définition de ces termes n’existait « au-delà du sens évident qu’ils revêtaient ».

Le contenu a également enfreint la ligne politique qui interdit d’expliquer comment créer ou utiliser des explosifs, en l’absence d’un contexte démontrant clairement que l’objectif du contenu est non violent. Meta considère que les cocktails Molotov sont des explosifs conformément à ce que la politique stipule. Elle a par ailleurs conclu que le contenu « était partagé avec l’intention d’aggraver ce violent conflit ».

Si l’on se réfère à ses règles internes relatives à l’application de la politique sur la violence et l’incitation alors en vigueur au moment de la publication du contenu, Meta autorise le contenu en infraction « lorsqu’il est partagé dans un contexte de sensibilisation ou de condamnation ». Suite aux mises à jour opérées sur les Standards de la communauté rendus publics le 6 décembre 2023, la politique tient maintenant compte de ces conseils : « [Meta] n’interdit pas les menaces partagées dans un contexte de sensibilisation ou de condamnation ». Meta indique néanmoins que la légende « indique sans ambiguïté que l’intention n’est pas de sensibiliser l’opinion publique, mais de faciliter des actes de violence ». À la question du Conseil portant sur une éventuelle exemption accordée à certains pays ou conflits de l’application des lignes politiques sur la violence et l’incitation interdisant d’expliquer comment créer ou utiliser des armes ou des explosifs, Meta a affirmé n’avoir appliqué aucune exception ou tolérance à la politique selon les pays, « indépendamment des conflits en cours ».

D’après son Standard de la communauté mis à jour sur la violence et l’incitation, Meta n’interdit pas les menaces dirigées contre « certains acteurs violents, tels que les groupes terroristes ». En d’autres termes, certaines menaces proférées contre des organisations ou personnes dangereuses désignées, dont les FSR, sont autorisées sur les plateformes de Meta. Cette dernière a toutefois précisé que cette exception ne s’applique pas aux deux lignes politiques du Standard de la communauté sur la violence et l’incitation relatif aux instructions sur la création ou l’utilisation d’armes ou d’explosifs. Cela signifie que le contenu qui explique comment créer ou utiliser des armes est interdit, même s’il vise une organisation ou une personne dangereuse désignée.

Meta n’a pas mis en place un Espace intégrité pour les opérations sur les produits, afin de répondre aux menaces en temps réel, et de résoudre le déchaînement de violence au Soudan en avril 2023. Meta a déclaré être en capacité de « gérer les risques identifiés dans les contenus en appliquant ses processus actuellement en vigueur ». Les initiatives prises par l’entreprise en vue de répondre au conflit actuel se poursuivent et s’appuient sur le travail déjà évoqué dans le cas du Conseil sur la Vidéo explicite au Soudan. En réponse au coup d’État militaire survenu au Soudan en octobre 2021, Meta a mis en place « une équipe interfonctionnelle de réponse aux crises afin de surveiller la situation et de communiquer les tendances et les risques émergents », actuellement en fonction. Par ailleurs, Meta a pris les mesures suivantes, entre autres, afin de résoudre d’éventuels risques posés par le contenu lié au conflit de 2023 au Soudan : suppression des pages et des comptes représentant les FSR, après que Meta a désigné ce groupe comme une organisation dangereuse ; enquête sur les éventuels faux comptes susceptibles d’induire en erreur le discours public relatif au conflit ; et désignation du Soudan comme un lieu temporairement à haut-risque (pour comprendre cette désignation et son lien avec le Standard de la communauté sur la violence et l’incitation, voir la décision sur le Discours d’un général brésilien, article 8.1). Meta a informé le Conseil qu’elle œuvre pour établir une coordination de crise à plus long terme « afin de surveiller les activités dédiées tout au long du déroulement des crises imminentes et émergentes », suite à la recommandation du Conseil dans le cas relatif au Bureau des affaires de communication du Tigré.

Le 30 mai 2023, le Soudan a atteint le plus haut pallier en matière de crise interne défini par Meta. Depuis lors, Meta maintient un niveau accru de gestion des risques et surveille les éventuels risques liés au contenu dans le cadre de ce travail. Le Protocole de politique de crise est le cadre adopté par Meta pour élaborer des réponses politiques spécifiques limitées dans le temps à une crise émergente. Le Protocole de politique de crise est composé de trois catégories de crise : la catégorie 1 étant la moins grave et la catégorie 3 étant la plus grave. La désignation du Soudan en catégorie 3 a été décidée en raison de la montée de la crise ainsi que d’autres critères, tels que l’existence d’un « conflit interne majeur » et d’une « intervention militaire ».

Le Conseil a posé 16 questions par écrit à Meta. Les questions portaient sur le classificateur de Meta sur le discours hostile ; la définition de Meta du concept d’autodéfense en lien avec le Standard de la communauté sur la violence et l’incitation ; les mesures prises en réponse au conflit au Soudan ; et la mise en application des lignes politiques liées aux armes du Standard de la communauté sur la violence et l’incitation dans les conflits armés. Meta a répondu à toutes les questions.

7. Commentaires publics

Le Conseil de surveillance a reçu 10 commentaires publics pertinents pour ce cas. Trois commentaires provenaient des États-Unis et du Canada, deux d’Asie-Pacifique et d’Océanie, deux d’Europe, un d’Amérique latine et des Caraïbes, un du Moyen-Orient et d’Afrique du Nord, et un d’Afrique subsaharienne. Ce total comprend des commentaires publics qui étaient soit des doublons, soit des commentaires soumis sans autorisation de publication, soit des commentaires soumis avec autorisation de publication, mais qui ne remplissaient pas les conditions de publication du Conseil. Les commentaires publics peuvent être soumis au Conseil avec ou sans autorisation de publication, et avec ou sans attribution. Les soumissions abordaient les thèmes suivants : les dynamiques de conflit au Soudan ; les responsabilités de Meta en matière de droits de l’homme dans des situations de conflit armé, notamment en ce qui concerne la préservation du contenu en ligne en vue de responsabiliser l’opinion publique à la question des droits de l’homme ; et l’impact que l’élaboration du classificateur de Meta a eu sur la modération du contenu lié au conflit.

Pour lire les commentaires publics envoyés dans ce cas-ci, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

Le Conseil a sélectionné ce cas pour évaluer les politiques de Meta en matière de contenu relatif aux armes et les pratiques de mise en application de l’entreprise dans le contexte de conflits armés. Ce cas relève de la priorité stratégique « Situations de crise et de conflit » du Conseil.

8.1 Respect des politiques relatives au contenu de Meta

I. Règles relatives au contenu

Le Conseil considère que la publication enfreint la politique de Meta relative à la violence et à l’incitation. L’effet combiné de l’image et de la légende dans la publication répond aux critères de l’énoncé « indiquant sans ambiguïté l’objectif » conformément à l’interdiction des « instructions expliquant comment créer ou utiliser des armes et indiquant sans ambiguïté que l’objectif est de blesser gravement des personnes ou de les tuer ». D’après Meta, les cocktails Molotov sont des armes interdites en vertu de la politique sur la violence et l’incitation. La publication explique étape par étape comment confectionner et utiliser un cocktail Molotov. Ce guide détaillé et la recommandation sur le « port du casque » pour protéger la personne qui lance le dispositif incendiaire démontrent l’intention de blesser gravement ou de tuer des personnes, la publication appelle donc les utilisateurs à agir selon ces instructions. Les spécialistes consultés par le Conseil ont indiqué que les appels à la victoire émis à la fin de la légende sont la manifestation évidente d’un soutien à l’une des deux parties du conflit armé.

Le contenu enfreint par ailleurs l’interdiction énoncée dans la politique sur la violence et l’incitation quant aux « instructions sur la création ou l’utilisation d’explosifs, à moins que le contexte ne démontre que l’objectif du contenu est non violent ». Le recours à la violence pour soutenir les FAS ne relève pas d’un objectif non violent ; de tels objectifs, comme le prévoit la politique, sont limités aux « publicités de jeux vidéo, aux fins scientifiques ou pédagogiques bien établies, aux feux d’artifice ou notamment la pêche ». Le Conseil remarque que, selon Meta, cette interdiction s’applique que Meta ait désigné ou non l’entité visée par le contenu comme une organisation ou une personne dangereuse en vertu du Standard de la communauté relatif aux organisations et personnes dangereuses. Meta a expliqué au Conseil qu’« une partie du préjudice causé par le partage de ces instructions vient du fait qu’elles peuvent être suivies par d’autres personnes qui souhaitent blesser d’autres cibles ». Le Conseil estime que cette règle a été appliquée conformément aux politiques de Meta sur le contenu au moment de supprimer le contenu en l’espèce.

II. Mesures de mise en application

Bien que le classificateur de discours hostile ait correctement identifié le contenu comme étant en infraction avec le Standard de la communauté sur la violence et l’incitation, l’utilisateur a été informé par erreur que sa publication avait été supprimée en vertu de la politique sur le discours haineux. Meta a avancé l’argument d’un bug dans ses systèmes. Elle a expliqué au Conseil ne pas avoir pu envoyer de nouveaux messages dans le même fil de discussion de l’assistance après s’être rendu compte de son erreur. Le Conseil émet des inquiétudes quant au fait que le système de notification de Meta pour ses utilisateurs ne soit pas configuré pour lui permettre de rectifier ses propres erreurs lorsqu’elle n’indique pas correctement à l’utilisateur quel Standard de la communauté il a enfreint. Les utilisateurs ne sauraient ainsi comprendre la véritable raison pour laquelle leur contenu a été supprimé. Comme le Conseil l’a précédemment souligné dans plusieurs cas (par exemple, Arméniens d’Azerbaïdjan, Breuvage à base d’ayahuasca, Citation nazie), Meta doit informer ses utilisateurs en toute transparence des politiques liées au contenu qu’ils ont enfreint.

8.2 Respect des responsabilités de Meta en matière des droits de l’homme

Le Conseil considère que la décision initiale de Meta de supprimer la publication était conforme aux responsabilités de l’entreprise en matière de droits de l’homme.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du Pacte international relatif aux droits civils et politiques prévoit une large protection de la liberté d’expression, en particulier de l’expression politique. Ce droit inclut la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». Ces protections restent actives pendant les conflits armés et devraient continuer à informer les responsabilités de Meta en matière de droits de l’homme, parallèlement aux règles du droit international humanitaire qui se renforcent mutuellement et se complètent et qui s’appliquent pendant ces conflits ( Observation générale 31, Comité des droits de l’homme, 2004, paragraphe 11 ; Commentaire sur les principes directeurs des Nations Unies, Principe 12 ; voir également le rapport du Rapporteur spécial des Nations Unies sur la désinformation et la liberté d’opinion et d’expression pendant les conflits armés, rapport A/77/288, paragraphes  33-35 (2022) ; et le rapport du HCDH sur la protection juridique internationale des droits de l’homme dans les conflits armés (2011), p. 59).

Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que « pendant les conflits armés, les personnes sont les plus vulnérables et ont le plus grand besoin d’informations exactes et fiables pour assurer leur propre sécurité et leur bien-être. Pourtant, c’est précisément dans ces situations que leur liberté d’opinion et d’expression, qui comprend « la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, est le plus limitée par les circonstances de la guerre et les actions des parties au conflit et d’autres acteurs visant à manipuler et à restreindre l’information à des fins politiques, militaires et stratégiques » (Rapport A/77/288, paragraphe 1). Le Conseil reconnaît l’importance de garantir aux personnes le libre partage d’informations relatives aux conflits, notamment lorsque les réseaux sociaux sont la dernière source d’informations accessible, tout en s’assurant que le contenu susceptible d’alimenter la violence hors ligne ne devienne pas viral.

Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits de l’homme, à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. À l’instar de cas précédents (par exemple, Arméniens d’Azerbaïdjan, Vidéo de prisonniers de guerre arméniens), le Conseil partage l’avis du Rapporteur spécial des Nations Unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les initier à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41). En faisant cela, le Conseil tente de tenir compte des cas où les responsabilités d’une entreprise de réseaux sociaux privée en matière de droits de l’homme peuvent différer de la façon dont un gouvernement applique ses obligations dans ce domaine.

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité nécessite que les règles qui limitent la liberté d’expression soient accessibles et claires, aussi bien pour les personnes qui appliquent ces règles que pour celles qu’elles touchent (observation générale n° 34, paragraphe 25). Les utilisateurs doivent être en capacité de prévoir les conséquences de la publication de contenu sur Facebook et Instagram. Le Rapporteur spécial des Nations Unies sur la liberté d’expression a souligné la nécessité d’assurer la « clarté et la spécificité » dans les politiques de modération du contenu ( A/HRC/38/35, paragraphe 46).

Le Conseil estime que la règle générale qui interdit les instructions sur la création ou l’utilisation d’armes ou d’explosifs dans certaines circonstances est suffisamment claire et observe les obligations légales. Il remarque également toutefois que Meta pourrait préciser les exceptions à sa politique en expliquant certains concepts tels que « cours d’autodéfense » et « entraînement militaire national » dans le langage public du Standard de la communauté sur la violence et l’incitation. Il ne partage pas l’avis de Meta qui affirme que ces termes revêtent un « sens évident ».

En ce qui concerne le terme « cours d’autodéfense », le Conseil considère que Meta doit identifier les acteurs qui peuvent en bénéficier, et dans quels cadres les exceptions s’appliquent. Il n’est cependant pas expressément indiqué dans le Standard de la communauté sur la violence et l’incitation rendu public que ce terme ne tient pas compte des contextes d’autodéfense lors de conflits armés. Par ailleurs, Meta ne précise pas si le terme « entraînement militaire national » est limité aux militaires d’États reconnus ni comment l’entreprise considère les armées de gouvernements de facto.

Les parties prenantes que le Conseil a consultées ainsi que des rapports publics ont soutenu que Meta autorise les instructions sur la création ou l’utilisation d’armes dans l’exercice de l’autodéfense lors de certains conflits armés. En réponse aux questions du Conseil, Meta a nié l’exactitude de ces rapports. Le Conseil n’est pas en mesure de déterminer la véracité de ces affirmations contradictoires. En tout état de cause, il est fondamental que Meta applique ses règles à tout moment et avec rigueur sur un sujet aussi important que celui-ci. Compte tenu de l’utilisation des plateformes de Meta en vue d’échanger des informations lors de conflits armés, alors que les combattants et les civils peuvent en partager sur l’usage des armes, ou du contenu violent d’autodéfense, Meta doit définir plus clairement les exceptions liées aux « cours d’autodéfense » et à l’« entraînement militaire » dans le Standard de la communauté sur la violence et l’incitation.

En outre, le Conseil estime que l’exception à la politique de Meta prévue dans le Standard de la communauté sur la violence et l’incitation, qui autorise les menaces « dirigées contre certains acteurs violents, tels que les groupes terroristes », n’est pas suffisamment claire, et ne répond donc pas à l’obligation légale. Elle ne précise pas si cette ligne politique s’applique à toutes les personnes et organisations dangereuses désignées en vertu du Standard de la communauté relatif aux organisations et personnes dangereuses. Par ailleurs, la liste des organisations et personnes désignées en vertu de la politique sur les organisations et personnes dangereuses n’a pas été rendue publique. Cela aggrave le manque de clarté pour les utilisateurs dont les publications seront supprimées ou conservées en fonction de l’inclusion ou non de l’entité évoqué dans leur publication sur la liste non communiquée par Meta des organisations dangereuses. Le Conseil réitère ses inquiétudes soulevées dans la décision relative à la Vidéo d’un poste de police haïtien sur cette exception à la politique.

II. Objectif légitime

Les restrictions à la liberté d’expression (article 19 du Pacte international relatif aux droits civils et politiques) doivent poursuivre un but légitime. La politique en matière de violence et d’incitation vise à « prévenir les préjudices hors ligne potentiels » en supprimant les contenus qui présentent « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique ». Comme l’a déjà conclu le Conseil dans le cas relatif aux crimes présumés de Raya Kobo, cette politique sert l’objectif légitime de protéger les droits d’autrui, tels que les droits à la vie (article 6 du PIDCP).

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » [et] elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34). Le Conseil a également pris en compte les facteurs du Plan d’action de Rabat, sur ce qui constitue une incitation à la violence ( Plan d’action de Rabat, HCDH, A/HRC/22/17/Ann.4,2013), tout en tenant compte des différences entre les obligations juridiques des États et les responsabilités des entreprises en matière de droits de l’homme. Bien que la publication en l’espèce ne prône pas la haine sur la base de la nationalité, de l’origine ethnique ou de la religion, le Plan d’action de Rabat offre néanmoins un cadre utile pour évaluer si le contenu incite ou non d’autres personnes à la violence.

Dans le cas présent, le Conseil estime que la suppression par Meta du contenu de Facebook observait les exigences de nécessité et de proportionnalité. En utilisant le test en 6 parties du Plan d’action de Rabat pour éclairer son analyse, le Conseil trouve un soutien pour la suppression de cette publication, comme expliqué ci-après.

En dépit de l’intention du créateur de contenu au moment de sa publication, le guide détaillé qui explique comment créer et utiliser un cocktail Molotov présentait un véritable risque de préjudice imminent dans un contexte sécuritaire déjà explosif. L’arme incendiaire évoquée dans la publication est interdite conformément à la Convention relative à certaines armes classiques, car elle peut causer des blessures extrêmement graves et être utilisée lors d’attaques sans discrimination. L’impact d’une explosion ne présente pas seulement un risque élevé de blessures contre des civils, il peut également infliger des « souffrances inutiles » ou des « blessures superflues » aux combattants, ce qui est interdit par le droit international humanitaire coutumier. Encourager les civils sans entraînement militaire à déployer et à utiliser des armes incendiaires ne fait qu’exacerber ces risques.

Un risque réel de préjudice imminent existe, bien que l’utilisateur soit un particulier peu influent qui compte un nombre limité d’amis et de followers. Le Conseil remarque que le classificateur de Meta pour le discours hostile a détecté et supprimé le contenu quelques minutes après sa publication.

Il constate également que le contenu a été publié dans un contexte de conflit armé en cours. Au moment de sa publication, deux mois après le début des hostilités, des rapports et des analysesd’experts ont mis en lumière la généralisation des violations des droits de l’homme perpétrées aussi bien par les FAS que les FSR. D’après les Nations Unies, les groupes de défense des droits de l’homme, les spécialistes consultés par le Conseil ainsi que les soumissions de commentaires publics, notamment de Genocide Watch (PC-19006, PC-19001), les deux parties au conflit armé ont commis diverses violations du droit humanitaire international et des droits de l’homme, parmi lesquelles le déplacement de millions de personnes, les arrestations arbitraires, les agressions sexuelles ou les assassinats. Le conflit est toujours en cours et ne montre aucun signe d’amélioration, malgré la condamnation du Conseil de sécurité des Nations Unies, des groupes de la société civile et des organisations de défense des droits de l’homme. Dans ce contexte, le Conseil estime que le contenu en l’espèce incitait à la violence, car il présentait un risque imminent que des civils prennent directement part aux hostilités en utilisant une arme illégale particulièrement pernicieuse, aggravant ainsi le conflit.

Meta n’autorise pas les contenus similaires à la publication examinée dans un contexte d’autodéfense lorsqu’elle applique la politique sur la violence et l’incitation. Le Conseil considère qu’il s’agit d’une approche sensible et enjoint Meta à la mettre en place de façon cohérente. Conformément aux PDNU, les responsabilités de Meta en matière de droits de l’homme incluent l’observation des « normes du droit humanitaire international dans un conflit armé » (commentaire sur le principe 12 des PDNU). Le droit humanitaire international énonce les normes que les parties prenantes de conflits armés doivent respecter afin de protéger les civils (par exemple, le Protocole additionnel II aux Conventions de Genève relatif à la protection des civils lors de conflits armés ; article 2, le Protocole III à la Convention relatif à certaines armes classiques interdisant l’usage d’armes incendiaires). Le Conseil considère que ces normes peuvent également aider les entreprises de réseaux sociaux à atteindre cet objectif lorsque leurs plateformes sont utilisées dans des contextes de conflit armé. En vertu de ces normes, Meta doit élaborer une politique visant à mieux protéger les civils et leur propriété en cas de conflits. Appliquée à la politique sur la violence et l’incitation, cela implique qu’elle interdit les menaces crédibles indépendamment de la cible.

Accès au recours

Le Conseil est préoccupé par l’incapacité technique de Meta à corriger les notifications erronées qu’elle envoie aux utilisateurs lorsqu’elle les informe de la règle qu’ils ont enfreinte dans leur contenu. La capacité à informer correctement les utilisateurs de leur infraction représente un élément essentiel de l’application des Standards de la communauté de Meta et garantit l’équité et la légitimité de la procédure à l’utilisateur. L’envoi d’une notification erronée aux utilisateurs les empêche de faire appel et d’accéder à un recours sur les plateformes de Meta. Le Conseil encourage Meta à étudier les moyens techniquement faisables qui s’offrent à elle pour corriger les notifications envoyées aux utilisateurs.

9. Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta de retirer le contenu.

10. Recommandations

Politique de contenu

1. Afin que les utilisateurs identifient plus facilement quel contenu est interdit sur ses plateformes, Meta doit modifier sa politique sur la violence et l’incitation afin d’y inclure une définition de « cours d’autodéfense » et d’« entraînement militaire » en tant qu’exceptions à ses règles interdisant aux utilisateurs d’expliquer comment créer ou utiliser des armes, et préciser qu’elle n’autorise aucune exception liée à l’autodéfense quant aux instructions sur la création ou l’utilisation d’armes dans le cadre d’un conflit armé.

Le Conseil considérera que cette recommandation a été suivie lorsque le Standard de la communauté relatif à la violence et à l’incitation aura été mis à jour pour refléter cette évolution.

Mise en application

2. Afin de s’assurer que les utilisateurs sont à même de savoir quelles politiques leur contenu a enfreintes, Meta doit élaborer des outils afin de corriger ses erreurs dans les notifications qu’elle leur adresse au sujet du Standard de la communauté qu’ils n’ont pas observé.

Le Conseil considérera que cette recommandation a été suivie lorsque les systèmes d’examen et de notification concernés auront été mis à jour en conséquence.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur six continents ainsi que 3 200 experts nationaux du monde entier. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques