Allégations criminelles fondées sur la nationalité
25 septembre 2024
Le Conseil a examiné trois cas de manière simultanée, tous contenant des allégations criminelles portées à l’encontre de personnes sur la base de leur nationalité. Après avoir annulé l’une des décisions de Meta de supprimer une publication Facebook, le Conseil a examiné le problème plus général que posent ces cas : comment distinguer les contenus qui critiquent les actions et les politiques de l’État des attaques contre des personnes sur la base de leur nationalité ? En formulant des recommandations visant à modifier la politique de Meta relative au discours haineux et à résoudre les difficultés posées par la mise en application, le Conseil a opté pour une approche nuancée qui favorise la modération à grande échelle, tout en prévoyant des garde-fous pour éviter les conséquences négatives. Parmi les règles applicables au discours haineux, Meta devrait développer une exception relative à des sous-catégories plus étroites qui utilisent des signaux objectifs pour déterminer si la cible d’un tel contenu est un État ou ses politiques, ou encore un groupe de personnes.
À propos des cas
Dans le premier cas, une publication Facebook qualifiait les Russes et les Américains de « criminels », l’utilisateur qualifiant ces derniers de plus « honorables » dans la mesure où ils reconnaissent leurs crimes, par rapport aux Russes qui « veulent tirer profit des crimes » des Américains. Les systèmes automatisés de Meta ont soumis cette publication à un examen manuel, mais le signalement a été automatiquement fermé, si bien que le contenu est resté sur Facebook. Trois mois plus tard, lorsque Meta a choisi de transmettre ce cas au Conseil, les spécialistes en matière de politiques de Meta ont décidé que la publication enfreignait les Standards de la communauté en matière de discours haineux et l’ont supprimée. Bien que l’utilisateur ait fait appel et qu’un examen manuel supplémentaire ait été effectué, Meta a décidé que la suppression du contenu était correcte.
Dans le second cas, un utilisateur a répondu à un commentaire sur une publication Threads. La publication était une vidéo sur le conflit entre Israël et Gaza et comprenait un commentaire affirmant : « génocide des tunnels terroristes ? ». La réponse de l’utilisateur était la suivante : « Génocide…tous les Israéliens sont des criminels. » Les systèmes automatisés de Meta ont soumis ce contenu à un examen manuel, puis l’ont supprimé pour infraction aux Règles relatives au discours haineux.
Le troisième cas porte sur le commentaire d’un utilisateur sur une publication Instagram dans lequel il qualifie « tous les Indiens » de « violeurs ». La publication Instagram originale montre une vidéo sur laquelle une femme est entourée d’hommes qui semblent la regarder. Meta a supprimé le commentaire conformément à ses Règles sur les discours haineux.
Les trois cas ont été portés devant le Conseil par Meta. Les difficultés posées par le traitement des allégations criminelles dirigées contre des personnes sur la base de leur nationalité sont particulièrement importantes en période de crise et de conflit, car elles « peuvent être interprétées comme une attaque contre les politiques d’un pays, son gouvernement ou son armée plutôt que contre son peuple », selon l’entreprise.
Principales observations
Le Conseil estime que Meta a eu tort de supprimer la publication Facebook du premier cas, qui mentionne les Russes et les Américains, car certains signaux indiquent que le contenu cible des pays plutôt que des citoyens. Meta n’autorise pas les « discours déshumanisants consistant à cibler une personne ou un groupe de personnes » sur la base de leur nationalité en les comparant à des « criminels », conformément à ses Règles sur les discours haineux. Toutefois, les références aux crimes commis par les Russes et les Américains dans cette publication visent très probablement les États respectifs ou leurs politiques. Cette conclusion a été confirmée dans le rapport d’un expert mandaté par le Conseil.
Pour ce qui est du deuxième et du troisième cas, la majorité des membres du Conseil partage l’avis de Meta et considère qu’en ciblant des personnes sur la base de leur nationalité, le contenu a enfreint les règles. En effet, les références à « tous les Israéliens » et à « tous les Indiens » indiquent que des peuples sont ciblés. Aucun indice contextuel n’indique que les actions de l’État d’Israël ou les politiques du gouvernement indien sont critiquées dans le contenu. Le contenu aurait donc dû être supprimé dans les deux cas. Cependant, une minorité de membres du Conseil n’est pas d’accord et souligne que dans ces cas, parmi les mesures appropriées relatives aux préjudices potentiels, la suppression du contenu n’était pas la mesure la moins perturbatrice à la disposition de Meta. Les membres concernés notent qu’en supprimant le contenu, Meta n’a pas respecté les principes de nécessité et de proportionnalité.
Quant à la question plus générale des modifications de politiques, le Conseil estime qu’une approche nuancée et modulable est nécessaire, afin de protéger les discours politiques pertinents sans pour autant accroître le risque de préjudices causés à des groupes ciblés. Pour commencer, Meta devrait trouver des signaux spécifiques et objectifs qui réduiraient à la fois les suppressions injustifiées et les contenus nuisibles laissés en place.
Sans pour autant fournir de liste exhaustive de signaux, le Conseil estime que Meta devrait autoriser les allégations criminelles lorsqu’elles sont dirigées contre un groupe spécifique susceptible de représenter l’État, tel que la police, l’armée, les soldats, le gouvernement et d’autres représentants de l’État. Un autre signal objectif pourrait concerner la nature du crime allégué. Par exemple, les atrocités ou les violations graves des droits humains peuvent être plus généralement associées à des États. Cela signifierait que les publications dans lesquelles certains types de crimes sont liés à la nationalité seraient traitées comme des discours politiques critiquant les actions de l’État et qu’elles resteraient sur la plateforme.
De plus, Meta pourrait envisager de recourir à des signaux linguistiques permettant de faire la distinction entre les déclarations politiques et les attaques contre des personnes sur la base de leur nationalité. Bien que ces distinctions varient d’une langue à l’autre (ce qui rend le contexte des publications encore plus important), le Conseil suggère qu’un tel signal pourrait être la présence ou l’absence de l’article défini. Par exemple, des mots tels que « tous » (« tous les Américains commettent des crimes ») ou « les » (« les Américains commettent des crimes ») pourraient indiquer que l’utilisateur fait une généralisation à propos d’un groupe entier de personnes, plutôt qu’à propos de leur État-nation.
Selon ce qu’a souligné Meta et ce qu’admet le Conseil, l’adoption d’une approche plus nuancée en matière de politique posera des difficultés de mise en application. Le Conseil note que Meta pourrait créer des listes d’acteurs et de crimes très susceptibles de faire référence à des politiques ou aux acteurs d’un État. Une telle liste pourrait inclure la police, les militaires, l’armée, les soldats, le gouvernement et d’autres représentants de l’État. Pour les photos et les vidéos, les examinateurs pourraient rechercher des indices visuels dans le contenu, tels que des personnes portant un uniforme militaire. Lorsqu’un tel indice est associé à une généralisation des actes criminels, cela peut indiquer que l’utilisateur se réfère à des actions ou à des acteurs de l’État, au lieu de comparer des personnes à des criminels.
Le Conseil invite Meta à rechercher des mesures d’application visant à éduquer et à responsabiliser les utilisateurs dans les cas où la liberté d’expression est limitée. En réponse à l’une des recommandations précédentes du Conseil, Meta s’est déjà engagée à envoyer des notifications aux utilisateurs en cas de violation potentielle des Standards de la communauté. Le Conseil considère cette implémentation comme une étape importante du processus d’éducation et de responsabilisation des utilisateurs sur les plateformes de Meta.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu du premier cas et demande que la publication soit rétablie. Pour le deuxième et le troisième cas, le Conseil confirme les décisions de Meta de supprimer le contenu.
Le Conseil recommande à Meta de :
- Modifier les Standards de la communauté en matière de discours haineux, en particulier la règle qui n’autorise pas les « discours déshumanisants sous forme de comparaisons ou de généralisations sur les criminels » dirigés contre des personnes sur la base de leur nationalité, afin d’y inclure une exception qui pourrait être formulée de la manière suivante : « Sauf lorsque les acteurs (par exemple, la police, l’armée, les soldats, le gouvernement, les représentants de l’État) et/ou les crimes (par exemple, les atrocités ou les violations graves des droits humains, tels que ceux spécifiés dans le Statut de Rome de la Cour pénale internationale) impliquent une référence à un État au lieu de cibler des personnes sur la base de leur nationalité ».
- Publier les résultats des audits internes réalisés pour évaluer l’exactitude de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux. Les résultats doivent être fournis sous une forme qui permet de comparer ces examens d’une langue à l’autre et/ou d’une région à l’autre.
Note:
In July 2024, as part of its update on a policy forum about speech using the term “Zionist,” Meta stated it had referred cases to the Board to seek guidance on “how to treat comparisons between proxy terms for nationality (including Zionists) and criminals (e.g. ‘Zionists are war criminals’).” The Board takes this opportunity to clarify that none of the three cases that have been reviewed as part of this decision includes the term “Zionists” and neither does the decision discuss use of the term.
Pour plus d'informations
To read public comments for this case, click here.