Renversé
Discours déshumanisant à l’encontre d’une femme [Résumé de la décision].
Un utilisateur a fait appel de la décision de Meta de laisser en ligne une publication Facebook qui attaquait une femme identifiable et la comparait à un véhicule à moteur (« truck » [camion]). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
Il s’agit d’un résumé de la décision Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’application de sa politique pourrait être améliorée.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de laisser en ligne une publication Facebook qui attaquait une femme identifiable et la comparait à un véhicule à moteur (« truck » [camion]). Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé la publication.
Description du cas et contexte
En décembre 2022, un utilisateur de Facebook a publié la photo d’une femme clairement identifiable. La légende au-dessus de la photo, en anglais, la décrit comme un camion d’occasion à vendre. La description de la femme se poursuit en utilisant la métaphore du « truck » (camion), qui doit être peint pour cacher les dégâts, qui dégage des odeurs inhabituelles et qui n’est que rarement lavé. L’utilisateur a ajouté que la femme était « advertised all over town » (annoncée dans toute la ville). Un autre utilisateur a signalé le contenu au Conseil, affirmant qu’il était misogyne et offensant pour la femme. La publication a été vue plus de deux millions de fois et a été signalée à Meta plus de 500 fois par des utilisateurs de Facebook.
Avant que Meta ne revienne sur sa décision initiale, l’utilisateur qui avait publié le contenu a modifié la publication originale pour superposer un emoji « vomissant » sur le visage de la femme. La légende a été mise à jour en précisant que l’identité de la victime avait été dissimulée par gêne « to say that I owned this pile of junk. » (pour dire que ce tas de ferraille m’appartenait). Des informations ont également été ajoutées sur divers sites de rencontres sur lesquels la femme était censée avoir un profil.
En vertu de la politique de Meta en matière d’intimidation et de harcèlement, l’entreprise supprime les contenus qui ciblent des personnalités privées par le biais de « descriptions physiques négatives » ou qui font des « allégations sur l’activité sexuelle ».
Meta a d’abord laissé le contenu sur Facebook. Lorsque le Conseil a porté cette affaire à l’attention de Meta, il a examiné à la fois la publication originale et la publication mise à jour. L’entreprise a noté que les deux versions du contenu comprennent une description physique négative d’une personne privée en la comparant à un camion et qu’elles font toutes deux des déductions sur son activité sexuelle en affirmant qu’elle est « advertised all over town »(annoncée dans toute la ville), bien que la publication modifiée soit plus explicite avec des références à des sites de rencontres. Par conséquent, Meta a déterminé que les deux versions enfreignaient sa politique en matière d’intimidation et de harcèlement, et que sa décision initiale de laisser le contenu en place était incorrecte. L’entreprise a ensuite retiré le contenu de Facebook.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.
Importance du cas
Ce cas met en évidence un problème lié au fait que Meta n’applique pas sa politique lorsqu’une publication contient des intimidations et du harcèlement, ce qui peut dissuader les femmes et d’autres groupes marginalisés de s’exprimer ouvertement en ligne. Meta n’a pas supprimé le contenu qui enfreint deux éléments du Standard de la Communauté relatif à l’intimidation et au harcèlement, à savoir une attaque avec une « description physique négative » et des « allégations concernant une activité sexuelle », bien que la publication ait été vue des millions de fois et ait fait l’objet de centaines de signalements de la part d’utilisateurs de Facebook.
Précédemment, le Conseil a émis une série de recommandations à l’intention de Meta afin de clarifier plusieurs points d’ambiguïté dans sa politique en matière d’intimidation et de harcèlement (« Manifestation pro-Navalny en Russie », recommandations n° 1 à 4), dont la moitié a été suivie par Meta et l’autre moitié a été rejetée par l’entreprise après une évaluation de la faisabilité. Le Conseil craint que ce cas ne soit le signe d’un problème plus répandu de sous-application du standard relatif au harcèlement, qui a probablement un impact disproportionné sur les femmes et les membres d’autres groupes vulnérables. Le Conseil souligne la nécessité pour Meta de prendre en compte de manière globale les préoccupations que le Conseil inclut dans ses décisions sur les cas et de suivre les recommandations pertinentes afin de réduire le taux d’erreur dans la modération des contenus à caractère intimidant ayant un impact sur tous les utilisateurs, tout en conciliant les valeurs de l’entreprise que sont la « sécurité », la « dignité » et la « liberté d’expression ».
Décision
Le Conseil a annulé la décision initiale de Meta de laisser le contenu sur la plateforme. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de Meta.
Retour aux décisions de cas et aux avis consultatifs politiques