Renversé

Menace de violence contre la population rohingya

Un utilisateur a fait appel de la décision de Meta de conserver un commentaire sur une publication Facebook qui affirmait que les Rohingyas provoquent le désordre et sont des « tricksters » (fripouilles). Le commentaire appelait également à la mise en place de mesures de contrôle contre cette population.

Type de décision

Résumé

Politiques et sujets

Sujet
Communautés marginalisées, Guerre et conflits, Origine ou identité ethnique
Norme communautaire
Violence et incitation

Régions/Pays

Emplacement
Myanmar

Plate-forme

Plate-forme
Facebook

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de conserver un commentaire sur une publication Facebook qui affirmait que les Rohingyas provoquent le désordre et sont des « tricksters » (fripouilles). Il appelait également à la mise en place de mesures de contrôle contre cette population ainsi qu’à son « total erasure » (effacement pur et simple). Ce cas met en évidence un problème récurrent de mise en application insuffisante de la politique de l’entreprise en matière de violence et d’incitation, notamment lorsque des menaces sont proférées contre des groupes vulnérables. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.

À propos du cas

En janvier 2024, un utilisateur de Facebook a commenté une publication évoquant la population rohingya au Myanmar. Ce commentaire était accompagné d’une légende recouvrant l’image d’un cochon en train de déféquer. La légende affirmait que « this group » (les membres de ce groupe, à savoir les Rohingyas) sont des « tricksters » (fripouilles) qui « continue to cause various social problems » (continuent d’être à l’origine de divers problèmes sociaux). Elle déclare que le Gouvernement du Myanmar a pris la bonne décision en « curbing » (réfrénant) les Rohingyas et appelle à leur « absolute erasure from the face of the Earth » (effacement pur et simple de la surface de la Terre) au nom de la « national security and well-being » (sécurité et du bien-être nationaux).

L’utilisateur à l’origine du signalement auprès du Conseil a indiqué résider au Myanmar et ressentir de la frustration quant à l’inaction de Meta contre les commentaires appelant au génocide, comme dans le cas qui nous préoccupe. Il a expliqué avoir personnellement constaté comment l’incapacité de Meta à modérer efficacement le discours haineux proféré contre les Rohingyas a entraîné des actes de violence hors ligne, et comment les Rohingyas dépérissent dans des camps de réfugiés.

En vertu de la politique de Meta relative à la violence et l’incitation, l’entreprise interdit les « menaces de violence pouvant entraîner la mort (ou d’autres formes de violence de haute gravité) ». Après que l’utilisateur a fait appel auprès de Meta, cette dernière a tout d’abord laissé le contenu sur la plateforme.

Le Conseil ayant porté ce cas à l’attention de Meta, l’entreprise a conclu que le commentaire « prône des violences meurtrières en “effaçant” les Rohingyas de la surface de la Terre » et enfreint ainsi le Standard de la communauté sur la violence et l’incitation. L’entreprise a ensuite supprimé le contenu de la plateforme.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Signification du cas

Ce cas montre bien les erreurs que Meta a commises à plusieurs reprises en appliquant insuffisamment sa politique sur le discours violent et incendiaire contre la population rohingya. Il s’agit d’un problème récurrent bien connu : en 2018, Meta a commandé une évaluation indépendante sur les droits humains afin d’établir son degré d’implication dans l’exacerbation des campagnes de désinformation et dans les préjudices causés aux Rohingyas. L’incapacité de Meta à modérer le contenu qui promeut le génocide et l’épuration ethnique de la population marginalisée des Rohingyas a été documentée par d’autres groupes de la société civile, tels que Amnesty International dans un rapport détaillant le rôle de Meta dans la perpétuation des atrocités contre cette communauté.

Dans une décision précédente, le Conseil a recommandé à Meta de « reformuler [sa] valeur de “sécurité” afin de refléter que les discours en ligne peuvent créer un risque pour la sécurité physique des personnes et le droit à la vie, en plus des risques d’intimidation, d’exclusion et de réduction au silence (cas relatif aux Crimes présumés à Raya Kobo, recommandation n° 1). Meta a partiellement mis en application cette recommandation.

Le Conseil exhorte Meta à améliorer ses systèmes de détection et de mise en application des discours qui appellent à la violence contre la population rohingya.

Décision

Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise.

Retour aux décisions de cas et aux avis consultatifs politiques