Décision sur plusieurs affaires

Dessins relatifs aux manifestations dans les universités

Dans le cadre de ces deux décisions sommaires, le Conseil a examiné deux publications contenant des dessins relatifs aux manifestations dans les universités.

2 cas inclus dans ce lot

Renversé

FB-TO38JZ4O

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Politique,Manifestations
Standard
Personnes et organisations dangereuses
Emplacement
États-Unis
Date
Publié le 12 septembre 2024
Renversé

FB-0F4BU4NY

Cas relatif à des personnes et organisations dangereuses sur Facebook

Plate-forme
Facebook
Sujet
Liberté d’expression,Politique,Manifestations
Standard
Personnes et organisations dangereuses
Emplacement
États-Unis
Date
Publié le 12 septembre 2024

Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.

Résumé

Dans le cadre de ces deux décisions sommaires, le Conseil a examiné deux publications contenant des dessins relatifs aux manifestations dans les universités. Lors de son examen initial, Meta a fait supprimer les deux publications. Toutefois, après que le Conseil a porté ces deux cas à l’attention de Meta pour un examen complémentaire, l’entreprise est revenue sur ses décisions initiales et a restauré les deux publications.

À propos des cas

Dans le premier cas, un utilisateur de Facebook a publié en mai 2024 un dessin représentant deux personnes. La première personne porte sur la tête un bandeau avec la mention « Hamas » et tient une arme. La personne dit qu’elle tuera des juifs jusqu’à ce qu’Israël soit « wiped off the map » (rayé de la carte). La deuxième personne porte un t-shirt avec la mention « college » (université), tient un livre et dit « It’s obvious they just want to live in peace » (Il est évident que tout ce qu’ils veulent, c’est vivre en paix). Dans le deuxième cas, un utilisateur de Facebook a publié en avril 2024 un dessin d’une famille prenant un repas ensemble. Le fils ressemble à Adolf Hitler et porte un t-shirt mentionnant « I [heart] Hamas » (J’[cœur] le Hamas). Le père se dit inquiet de la manière dont l’université a changé son fils. Les deux utilisateurs ont publié le contenu dans le contexte des manifestations liées au conflit entre Israël et Gaza dans plusieurs universités des États-Unis.

Meta a initialement supprimé les deux publications de Facebook, invoquant sa politique sur les organismes et individus dangereux (OID). En vertu de cette politique OID, l’entreprise supprime les « glorifications », les « soutiens » et les « représentations » d’entités désignées, de leurs dirigeants, de leurs fondateurs ou de leurs membres éminents, ainsi que toute référence équivoque à ceux-ci.

Dans leurs appels auprès du Conseil, les deux utilisateurs ont indiqué avoir publié un dessin politique qui n’enfreignait pas les Standards de la communauté de Meta. Après que le Conseil a porté ces deux cas à l’attention de Meta, l’entreprise a déterminé que les publications n’enfreignaient pas ses politiques et les a restaurées sur sa plateforme.

Autorité et champ de compétence du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.

Signification des cas

Ces cas mettent en évidence les erreurs de mise en application des exceptions à la politique relative aux organismes et individus dangereux qui autorise les contenus « qui apportent des informations, discutent en toute neutralité ou condamnent les personnes et les organisations dangereuses ou leurs activités » afin de protéger un espace pour le « discours social et politique ».

Le Conseil a émis plusieurs recommandations afin d’améliorer la transparence quant à la mise en application de la politique de Meta relative aux organismes et individus dangereux et de ses exceptions. Le Conseil a également émis des recommandations pour prendre des mesures appropriées quant aux difficultés de mise en application de cette politique. Cela inclut la recommandation d’« évaluer l’exactitude des examinateurs qui appliquent l’autorisation d’informer en vertu de la politique relative aux organismes et individus dangereux afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application. » Bien que Meta ait fait état de la mise en application de cette recommandation, elle n’a pas publié d’informations pour le démontrer (Mention des talibans dans les reportages d’actualité, recommandation n° 5).

Le Conseil a également recommandé à Meta d’« ajouter des critères et illustrations à la politique de Meta sur les personnes et les organisations dangereuses afin de mieux appréhender les exceptions, notamment concernant les discussions neutres et les reportages d’actualités », une recommandation dont Meta a justifié la mise en place en publiant des informations connexes (Publication partagée d’Al Jazeera, recommandation n° 1). En outre, dans un avis consultatif en matière de politique, le Conseil a demandé à Meta d’« expliquer les méthodes qu’elle utilise pour évaluer la précision des examens manuels et les performances des systèmes automatisés dans la mise en application de sa politique sur les personnes et organisations dangereuses » (voir le cas relatif aux personnes dangereuses désignées sous le terme « chahid », recommandation n° 6). Meta a reformulé cette recommandation. L’entreprise a fourni des informations relatives aux audits qu’elle réalise pour évaluer la précision de ses décisions de modération de contenu et la manière dont cela permet de détecter des domaines d’amélioration. Toutefois, Meta n’a pas expliqué les méthodes utilisées pour réaliser ces évaluations et ne s’est pas engagée à partager les résultats de ces évaluations.

De plus, le Conseil a émis une recommandation relative à la gestion du contenu satirique par Meta. Meta doit donc « s’assurer que les procédures adéquates sont mises en place pour évaluer correctement les contenus satiriques et leur contexte respectif. Cela nécessite notamment de fournir aux modérateurs de contenu : (i) la possibilité de contacter les équipes d’exploitation locales de Facebook afin de recueillir les informations culturelles et le contexte pertinents ; et (ii) suffisamment de temps pour consulter les équipes d’exploitation locales et pour procéder à l’évaluation. [Meta] doit s’assurer que ses politiques à l’attention des modérateurs de contenu encouragent ces derniers à se renseigner davantage ou à faire remonter le cas lorsqu’un modérateur n’est pas certain qu’un mème est satirique ou non. ». Meta a indiqué avoir mis en application cette recommandation, mais n’a publié aucune information pour le prouver (décision relative au meme aux deux boutons, recommandation n° 3). Le Conseil recommande aussi à Meta d’ajouter l’exception en matière de satire à la partie accessible au public de son standard de la communauté relatif au discours haineux, une recommandation pour laquelle Meta a publié des infirmations relatives à la mise en application (décision relative au meme aux deux boutons, recommandation n° 2).

Décision

Le Conseil a annulé les décisions initiales de Meta visant à supprimer les deux éléments de contenu. Le Conseil reconnaît que Meta a corrigé ses erreurs initiales une fois qu’il a porté ces cas à son attention.

Retour aux décisions de cas et aux avis consultatifs politiques