Renversé
Cour suprême en capuchon blanc
Un utilisateur a fait appel de la décision de Meta de supprimer de Facebook la publication d’une image modifiée de la Cour suprême des États-Unis, montrant six de ses neufs membres vêtus de robes du Ku Klux Klan.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer de Facebook la publication d’une image modifiée de la Cour suprême des États-Unis, montrant six de ses neufs membres vêtus de robes du Ku Klux Klan. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En juillet 2023, un utilisateur a publié sur Facebook une image modifiée montrant six juges de la Cour suprême des États-Unis vêtus de robes du Ku Klux Klan, tandis que les trois autres juges, considérés comme plus libéraux, apparaissent sans modification. La publication n’est accompagnée d’aucune légende et a été vue moins de 200 fois.
La publication a été supprimée pour infraction à la politique sur les personnes et organisations dangereuses de Meta. Cette politique interdit le contenu qui fait l’éloge, soutient ou représente de façon appuyée des personnes ou des organisations que Meta considère comme dangereuses.
Dans son appel auprès du Conseil, l’utilisateur a souligné que l’objectif de la publication était d’émettre une critique politique plutôt que de soutenir le Ku Klux Klan. L’utilisateur a déclaré que le contenu met en évidence ce qu’il pense de « l’attitude nuisible, haineuse et destructive contre les femmes, les droits des femmes à avoir recours à l’avortement, les communautés gays, lesbiennes, transgenres et homosexuelles, ainsi que la protection des autres groupes vulnérables » des six juges.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas sa politique relative aux personnes et organisations dangereuses et que sa suppression était injustifiée. L’entreprise a ensuite restauré le contenu sur Facebook.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en évidence une faille dans les pratiques de modération de Meta relatives à sa politique sur les personnes et organisations dangereuses, notamment en ce qui concerne le contenu partagé comme une critique politique. La persistance d’erreurs similaires pourrait considérablement entraver l’importante liberté d’expression des utilisateurs, et la réduction de ces erreurs devrait être une priorité pour l’entreprise.
Le Standard de la communauté sur les organisations et personnes dangereuses est la source de nombreux retraits injustifiés et a fait l’objet d’un grand nombre de décisions du Conseil par le passé. Dans une décision antérieure, le Conseil a demandé à Meta d’« expliquer dans les Standards de la communauté comment les utilisateurs peuvent faire comprendre à Facebook l’intention sous-entendue par leurs publications. » Dans le même esprit, le Conseil a également recommandé à l’entreprise de communiquer publiquement sa liste de personnes et d’organisations désignées, et de faire en sorte que « Facebook fournisse également des exemples illustrant la limite entre le contenu autorisé et le contenu interdit, notamment en lien avec l’application de la règle qui précise ce que le “soutien” exclut », (décision sur l’Isolement d’Öcalan, recommandation n° 6). Meta s’est engagée à mettre partiellement en application cette recommandation. Par ailleurs, le Conseil a exhorté Meta à « inclure des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux “éloges” et au “soutien” envers les personnes et organisations dangereuses », (décision sur l’Isolement d’Öcalan, recommandation n° 12). Meta a refusé d’appliquer cette recommandation suite à une évaluation de faisabilité.
Le Conseil insiste sur le fait que l’observation de toutes ces recommandations pourrait réduire le nombre d’erreurs d’application en vertu de la politique de Meta sur les personnes et les organisations dangereuses.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques