Renversé

Commentaire ciblant les personnes porteuses de trisomie 21

Un utilisateur a fait appel de la décision de Meta de conserver un commentaire Facebook qui cible les individus porteurs de trisomie 21 et d’autres handicaps.

Type de décision

Résumé

Politiques et sujets

Sujet
Communautés marginalisées, Discrimination
Norme communautaire
Discours incitant à la haine, Intimidation et harcèlement

Régions/Pays

Emplacement
États-Unis

Plate-forme

Plate-forme
Facebook

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Un utilisateur a fait appel de la décision de Meta de conserver un commentaire Facebook qui cible les individus porteurs de trisomie 21 et d’autres handicaps. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a supprimé le commentaire.

À propos du cas

En février, un utilisateur de Facebook a commenté une publication incluant une publicité Netflix pour l’émission « Histoires d’amour et d’autisme ». Dans son commentaire, l’utilisateur déclarait qu’il considérait les personnes présentant un trouble du spectre de l’autisme comme « a different species of human » (une espèce humaine différente). Dans ce même commentaire, l’utilisateur mentionne également une personne de sa connaissance par son nom et déclare à son sujet : « this girl … was also the only fat kid in class » (cette fille... était aussi la seule grosse de la classe). L’utilisateur ajoute qu’il est « difficult to interact with [people like this individual] … they are a different kind. A different form of human » (difficile d’interagir avec [les personnes comme cet individu] … elles sont différentes. Une forme d’humains différente).

L’utilisateur qui a fait appel auprès du Conseil de la décision initiale de Meta de laisser ce commentaire en ligne l’a qualifié de « literal tirade against individuals with Down syndrome » (véritable diatribe à l’encontre des personnes porteuses de trisomie 21). Il fait remarquer que « this should not require an entire essay to explain why this comment should have been flagged by the Facebook system » (pas besoin de grandes dissertations pour expliquer pourquoi ce commentaire aurait dû être signalé par le système de Facebook) et enjoint à Meta de « do better » (faire mieux).

En vertu de la politique de Meta sur les comportements haineux, l’entreprise supprime les discours déshumanisants qui ciblent les personnes sur la base de caractéristiques protégées, telles que le handicap. Cela inclut les comparaisons ou les généralisations concernant : « des sous-hommes (notamment, les sauvages, les démons, les monstres). » Dans le commentaire, l’utilisateur généralise, en qualifiant les personnes porteuses de trisomie 21 de « a different species of human » (espèce humaine différente).

Par ailleurs, la politique de Meta sur l’intimidation et le harcèlement interdit les contenus qui ciblent une personne spécifique à travers des « déclarations d’infériorité sur son apparence physique ». La description, par l’utilisateur, d’une personne spécifique en tant que « the only fat kid » (la seule grosse de la classe) peut être qualifiée de déclaration d’infériorité sur la base de l’apparence physique. Cela constitue une infraction du niveau 1 de la politique, qui fournit « des mesures de protection pour tout le monde ». Il n’est pas nécessaire que la personne ciblée signale le contenu elle-même pour que celui-ci soit en infraction et soit supprimé.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu enfreignait aussi bien la politique sur les comportements haineux que celle sur l’intimidation et le harcèlement, et que sa décision initiale de conserver le commentaire était incorrecte. Meta a considéré que l’utilisateur avait enfreint la politique sur les comportements haineux en qualifiant les personnes porteuses de trisomie 21 de « a different species of human » (une espèce humaine différente) et la politique sur l’intimidation et le harcèlement par le fait de décrire un individu spécifique comme étant « the only fat kid » (la seule grosse de la classe). L’entreprise a ensuite supprimé le contenu de Facebook.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Importance du cas

Ce cas est un exemple flagrant de discours déshumanisant sur les personnes handicapées. Le message n’est ni subtil ni codé : il est ouvertement déclaré que la trisomie fait de celui qui en est porteur « a different species of human » (une espèce humaine différente). L’absence de suppression de ce commentaire laisse entrevoir un sérieux problème concernant les systèmes de mise en application des règlements de Meta.

Ce cas met ainsi en évidence l’incapacité de Meta à appliquer efficacement ses politiques de lutte contre les comportements haineux. De récents rapports indiquent que les cas de harcèlement en ligne des personnes en situation de handicap, telles que celles qui sont porteuses de trisomie 21, continuent de se multiplier. Selon le rapport du Haut-Commissariat des Nations Unies aux droits de l’homme (HCDH) sur la lutte contre le cyberharcèlement des personnes handicapées, les personnes atteintes de handicap sont « beaucoup plus susceptibles d’être victimes de cyberharcèlement » et « de se retirer complètement des espaces numériques à la suite de maltraitance en ligne ». La campagne pour la Journée mondiale de la trisomie 21 2024 tournait autour du thème « Appel dirigé aux personnes du monde entier pour mettre fin aux stéréotypes. #EndTheStereotypes ». Elle révélait la manière dont les stéréotypes empêchent les personnes porteuses de trisomie 21 ou ayant une déficience intellectuelle d’être traitées avec respect.

Le Conseil a émis des recommandations pour améliorer la mise en application des politiques de Meta et réduire les erreurs. Le Conseil a demandé à l’entreprise d’améliorer en permanence sa capacité à détecter les contenus enfreignant le Standard de la communauté sur le discours haineux (à présent dénommé « Standard sur les comportements haineux »).

Par exemple, le Conseil a recommandé à Meta de « partager [publiquement] les résultats des audits internes réalisés pour évaluer l’exactitude de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux [désormais dénommée « politique en matière de comportements haineux »] » (recommandation n° 2 du cas Allégations criminelles fondées sur la nationalité). Dans sa réponse initiale au Conseil, Meta a indiqué que l’entreprise appliquerait partiellement cette recommandation. Meta a déclaré que, bien que l’entreprise « continue[rait] de partager des données sur la quantité de contenus haineux traités par [ses] mécanismes de détection et de modération dans le Rapport d’application des Standards de la communauté, les données sur l’exactitude de ses mesures de modération à l’échelle mondiale seraient partagées confidentiellement avec le Conseil. Cette recommandation a été émise en septembre 2024. Elle est en cours d’application et les données correspondantes n’ont pas encore été partagées avec le Conseil.

Le Conseil est inquiet du fait que Meta n’a pas publiquement indiqué la diligence raisonnable appliquée en matière de droits humains, s’il y en a vraiment une, avant les changements en matière de politiques et de mise en application annoncés le 7 janvier 2025, tel que souligné par le Conseil dans ses décisions sur la critique des politiques d’immigration de l’UE et des immigrants, les publications affichant le drapeau de l’époque de l’apartheid en Afrique du Sud, les vidéos sur l’identité de genre et les publications soutenant les émeutes au Royaume-Uni. Une approche moins proactive en matière de mise en application pourrait se solder par une augmentation du nombre de contenus ciblant les membres de groupes vulnérables, comme c’est le cas de la publication examinée dans le cadre de la présente décision. Dans ces décisions, le Conseil a souligné que « [e]n ce qui concerne les changements en matière de mise en application, la diligence raisonnable doit également tenir compte de deux éventualités : l’application excessive (Appel à la manifestation des femmes à Cuba, Réappropriation de mots arabes) et l’application insuffisante des règles (Négationnisme, Violence homophobe en Afrique de l’Ouest, Publication en polonais ciblant les personnes trans) ». Par ailleurs, dans ces deux décisions, le Conseil a indiqué qu’il est crucial que Meta veille « à identifier, à atténuer et à prévenir les répercussions négatives de ces modifications sur les droits humains, sans oublier de les signaler publiquement ».

Décision

Le Conseil a annulé la décision initiale de Meta de conserver le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques