Renversé

Bande dessinée représentant le viol

Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook consistant en une bande dessinée représentant un individu en train de droguer une autre personne, suggérant un viol imminent.

Type de décision

Résumé

Politiques et sujets

Sujet
Égalité des sexes et des genres, Sécurité, Violence
Norme communautaire
Exploitation sexuelle d’adultes

Régions/Pays

Emplacement
Mexique

Plate-forme

Plate-forme
Facebook

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de conserver une publication Facebook consistant en une bande dessinée représentant un individu en train de droguer une autre personne, suggérant un viol imminent. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.

À propos du cas

En avril 2024, un utilisateur du Mexique a partagé une publication Facebook contenant une bande dessinée représentant un viol. La bande dessinée montre deux personnes, qui semblent être des hommes, qui entrent dans une maison. L’habitant de la maison s’excuse du désordre, mais lorsqu’ils entrent, tout est parfaitement rangé. L’autre individu explique ne faire le ménage que lorsqu’il compte avoir un rapport sexuel. L’habitant de la maison lui répond « me too, my friend » (moi aussi, mon ami) en couvrant la bouche de l’autre personne avec un tissu. La victime se débat. La légende de la publication dit « I’m sorry my friend » (Pardon, mon ami) et comporte un emoji triste.

L’utilisateur qui a signalé la publication explique que les blagues sur le viol ne sont « not funny » (pas drôles) et que « men are less likely to report they have been raped and it’s because of these kinds of images » (les hommes ont moins tendance à signaler qu’ils ont été violés à cause de ce genre d’images).

La politique de Meta relative à l’exploitation sexuelle des adultes interdit explicitement « le contenu représentant, faisant l’apologie ou se moquant des attouchements sexuels non consentis » y compris le « contenu se moquant des personnes rescapées ou du concept d’attouchement sexuel non consenti ». L’absence de consentement est définie par Meta grâce au contexte, y compris les expressions verbales, les gestes ou l’incapacité.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait la politique relative à l’exploitation sexuelle des adultes et que sa décision initiale de laisser le contenu sur la plateforme était incorrecte. L’entreprise a ensuite supprimé le contenu de Facebook.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Signification du cas

Ce cas illustre les manquements dans la mise en application de la politique de Meta relative à l’exploitation sexuelle des adultes. Depuis de nombreuses années, des groupes de la société civile ont exprimé leurs préoccupations quant à la sous-application des politiques de Meta pour des contenus faisant des blagues sur le viol ou se moquant des victimes et des survivants de violence sexuelle. Le Conseil a déjà pris des mesures appropriées concernant les difficultés inhérentes aux blagues et tentatives d’humour ayant fait l’objet d’une modération incorrecte. Dans la décision relative au meme aux deux boutons, le Conseil souligne l’importance d’évaluer soigneusement le contenu et le contexte de ce qui semble être une blague lorsque Meta évalue les publications. Alors que la décision relative au meme aux deux boutons abordait un contenu satirique qui avait été supprimé par erreur, ce cas illustre les erreurs commises lorsque les publications supposées être des blagues ne sont pas prises assez au sérieux et sont laissées sur la plateforme par erreur. Comme Meta le reconnaît désormais, cette publication est fondée sur des prémices homophobes et se moque du viol, enfreignant de manière évidente la politique relative à l’exploitation sexuelle des adultes. Au vu de la grande probabilité d’erreurs dans ce type de cas, le Conseil a recommandé à Meta de s’assurer que ses processus permettent suffisamment de « se renseigner davantage ou à faire remonter le cas lorsqu’un modérateur n’est pas certain qu’un mème est satirique ou non » (décision relative au meme aux deux boutons, recommandation n° 3). Meta a témoigné de la mise en œuvre de cette recommandation, mais n’a pas publié d’informations pour le prouver.

Le Conseil a émis des recommandations visant à réduire le nombre d’erreurs d’application par Meta. Le Conseil a exhorté à Meta d’« implémente[r] une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (décision sur les Symptômes du cancer du sein et nudité, recommandation n° 5). Meta a reformulé la recommandation dans sa réponse et dans sa mise en application et n’a pas pris de mesures appropriées à l’objectif de la recommandation du Conseil. Le Conseil a également insisté à plusieurs reprises sur l’importance pour Meta d’allouer des ressources supplémentaires à l’amélioration de sa capacité d’évaluation du contenu potentiellement nuisible qui critique ou légitime les problèmes systémiques, y compris la violence fondée sur le genre ou sur la sexualité dans des cas tels que ceux abordés dans les décisions relatives à la vidéo de harcèlement sexuel en Inde et à l’image de violence sexiste.

Décision

Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques