Décision sur plusieurs affaires
Allégations criminelles fondées sur la nationalité
Le Conseil a examiné trois cas de manière simultanée, tous contenant des allégations criminelles portées à l’encontre de personnes sur la base de leur nationalité. Après avoir annulé l’une des décisions de Meta de supprimer une publication Facebook, le Conseil a examiné le problème plus général que posent ces cas : comment distinguer les contenus qui critiquent les actions et les politiques de l’État des attaques contre des personnes sur la base de leur nationalité ?
3 cas inclus dans ce lot
FB-25DJFZ74
Cas de discours haineux sur Facebook
IG-GNKFXL0Q
Cas de discours haineux sur Instagram
TH-ZP4W1QA6
Case about hate speech on Threads
Résumé
Le Conseil a examiné trois cas de manière simultanée, tous contenant des allégations criminelles portées à l’encontre de personnes sur la base de leur nationalité. Après avoir annulé l’une des décisions de Meta de supprimer une publication Facebook, le Conseil a examiné le problème plus général que posent ces cas : comment distinguer les contenus qui critiquent les actions et les politiques de l’État des attaques contre des personnes sur la base de leur nationalité ? En formulant des recommandations visant à modifier la politique de Meta relative au discours haineux et à résoudre les difficultés posées par la mise en application, le Conseil a opté pour une approche nuancée qui favorise la modération à grande échelle, tout en prévoyant des garde-fous pour éviter les conséquences négatives. Parmi les règles applicables au discours haineux, Meta devrait développer une exception relative à des sous-catégories plus étroites qui utilisent des signaux objectifs pour déterminer si la cible d’un tel contenu est un État ou ses politiques, ou encore un groupe de personnes.
À propos des cas
Dans le premier cas, une publication Facebook qualifiait les Russes et les Américains de « criminels », l’utilisateur qualifiant ces derniers de plus « honorables » dans la mesure où ils reconnaissent leurs crimes, par rapport aux Russes qui « veulent tirer profit des crimes » des Américains. Les systèmes automatisés de Meta ont soumis cette publication à un examen manuel, mais le signalement a été automatiquement fermé, si bien que le contenu est resté sur Facebook. Trois mois plus tard, lorsque Meta a choisi de transmettre ce cas au Conseil, les spécialistes en matière de politiques de Meta ont décidé que la publication enfreignait les Standards de la communauté en matière de discours haineux et l’ont supprimée. Bien que l’utilisateur ait fait appel et qu’un examen manuel supplémentaire ait été effectué, Meta a décidé que la suppression du contenu était correcte.
Dans le second cas, un utilisateur a répondu à un commentaire sur une publication Threads. La publication était une vidéo sur le conflit entre Israël et Gaza et comprenait un commentaire affirmant : « génocide des tunnels terroristes ? ». La réponse de l’utilisateur était la suivante : « Génocide…tous les Israéliens sont des criminels. » Les systèmes automatisés de Meta ont soumis ce contenu à un examen manuel, puis l’ont supprimé pour infraction aux Règles relatives au discours haineux.
Le troisième cas porte sur le commentaire d’un utilisateur sur une publication Instagram dans lequel il qualifie « tous les Indiens » de « violeurs ». La publication Instagram originale montre une vidéo sur laquelle une femme est entourée d’hommes qui semblent la regarder. Meta a supprimé le commentaire conformément à ses Règles sur les discours haineux.
Les trois cas ont été portés devant le Conseil par Meta. Les difficultés posées par le traitement des allégations criminelles dirigées contre des personnes sur la base de leur nationalité sont particulièrement importantes en période de crise et de conflit, car elles « peuvent être interprétées comme une attaque contre les politiques d’un pays, son gouvernement ou son armée plutôt que contre son peuple », selon l’entreprise.
Principales observations
Le Conseil estime que Meta a eu tort de supprimer la publication Facebook du premier cas, qui mentionne les Russes et les Américains, car certains signaux indiquent que le contenu cible des pays plutôt que des citoyens. Meta n’autorise pas les « discours déshumanisants consistant à cibler une personne ou un groupe de personnes » sur la base de leur nationalité en les comparant à des « criminels », conformément à ses Règles sur les discours haineux. Toutefois, les références aux crimes commis par les Russes et les Américains dans cette publication visent très probablement les États respectifs ou leurs politiques. Cette conclusion a été confirmée dans le rapport d’un expert mandaté par le Conseil.
Pour ce qui est du deuxième et du troisième cas, la majorité des membres du Conseil partage l’avis de Meta et considère qu’en ciblant des personnes sur la base de leur nationalité, le contenu a enfreint les règles. En effet, les références à « tous les Israéliens » et à « tous les Indiens » indiquent que des peuples sont ciblés. Aucun indice contextuel n’indique que les actions de l’État d’Israël ou les politiques du gouvernement indien sont critiquées dans le contenu. Le contenu aurait donc dû être supprimé dans les deux cas. Cependant, une minorité de membres du Conseil n’est pas d’accord et souligne que dans ces cas, parmi les mesures appropriées relatives aux préjudices potentiels, la suppression du contenu n’était pas la mesure la moins perturbatrice à la disposition de Meta. Les membres concernés notent qu’en supprimant le contenu, Meta n’a pas respecté les principes de nécessité et de proportionnalité.
Quant à la question plus générale des modifications de politiques, le Conseil estime qu’une approche nuancée et modulable est nécessaire, afin de protéger les discours politiques pertinents sans pour autant accroître le risque de préjudices causés à des groupes ciblés. Pour commencer, Meta devrait trouver des signaux spécifiques et objectifs qui réduiraient à la fois les suppressions injustifiées et les contenus nuisibles laissés en place.
Sans pour autant fournir de liste exhaustive de signaux, le Conseil estime que Meta devrait autoriser les allégations criminelles lorsqu’elles sont dirigées contre un groupe spécifique susceptible de représenter l’État, tel que la police, l’armée, les soldats, le gouvernement et d’autres représentants de l’État. Un autre signal objectif pourrait concerner la nature du crime allégué. Par exemple, les atrocités ou les violations graves des droits humains peuvent être plus généralement associées à des États. Cela signifierait que les publications dans lesquelles certains types de crimes sont liés à la nationalité seraient traitées comme des discours politiques critiquant les actions de l’État et qu’elles resteraient sur la plateforme.
De plus, Meta pourrait envisager de recourir à des signaux linguistiques permettant de faire la distinction entre les déclarations politiques et les attaques contre des personnes sur la base de leur nationalité. Bien que ces distinctions varient d’une langue à l’autre (ce qui rend le contexte des publications encore plus important), le Conseil suggère qu’un tel signal pourrait être la présence ou l’absence de l’article défini. Par exemple, des mots tels que « tous » (« tous les Américains commettent des crimes ») ou « les » (« les Américains commettent des crimes ») pourraient indiquer que l’utilisateur fait une généralisation à propos d’un groupe entier de personnes, plutôt qu’à propos de leur État-nation.
Selon ce qu’a souligné Meta et ce qu’admet le Conseil, l’adoption d’une approche plus nuancée en matière de politique posera des difficultés de mise en application. Le Conseil note que Meta pourrait créer des listes d’acteurs et de crimes très susceptibles de faire référence à des politiques ou aux acteurs d’un État. Une telle liste pourrait inclure la police, les militaires, l’armée, les soldats, le gouvernement et d’autres représentants de l’État. Pour les photos et les vidéos, les examinateurs pourraient rechercher des indices visuels dans le contenu, tels que des personnes portant un uniforme militaire. Lorsqu’un tel indice est associé à une généralisation des actes criminels, cela peut indiquer que l’utilisateur se réfère à des actions ou à des acteurs de l’État, au lieu de comparer des personnes à des criminels.
Le Conseil invite Meta à rechercher des mesures d’application visant à éduquer et à responsabiliser les utilisateurs dans les cas où la liberté d’expression est limitée. En réponse à l’une des recommandations précédentes du Conseil, Meta s’est déjà engagée à envoyer des notifications aux utilisateurs en cas de violation potentielle des Standards de la communauté. Le Conseil considère cette implémentation comme une étape importante du processus d’éducation et de responsabilisation des utilisateurs sur les plateformes de Meta.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu du premier cas et demande que la publication soit rétablie. Pour le deuxième et le troisième cas, le Conseil confirme les décisions de Meta de supprimer le contenu.
Le Conseil recommande à Meta ce qui suit :
- Modifier les Standards de la communauté en matière de discours haineux, en particulier la règle qui n’autorise pas les « discours déshumanisants sous forme de comparaisons ou de généralisations sur les criminels » dirigés contre des personnes sur la base de leur nationalité, afin d’y inclure une exception qui pourrait être formulée de la manière suivante : « Sauf lorsque les acteurs (par exemple, la police, l’armée, les soldats, le gouvernement, les représentants de l’État) et/ou les crimes (par exemple, les atrocités ou les violations graves des droits humains, tels que ceux spécifiés dans le Statut de Rome de la Cour pénale internationale) impliquent une référence à un État au lieu de cibler des personnes sur la base de leur nationalité ».
- Publier les résultats des audits internes réalisés pour évaluer l’exactitude de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux. Les résultats doivent être fournis sous une forme qui permet de comparer ces examens d’une langue à l’autre et/ou d’une région à l’autre.
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
Ces cas concernent trois décisions prises par Meta en matière de contenu (une sur Facebook, une sur Threads et une sur Instagram). Meta a transmis les trois cas au Conseil.
Le premier cas concerne une publication Facebook rédigée en arabe et datant de décembre 2023, qui affirme que les Russes et les Américains sont des « criminels ». Le contenu indique également que « les Américains sont plus honorables » parce qu’ils « admettent leurs crimes » alors que les Russes « veulent tirer profit des crimes » des Américains. Après que l’un des outils de classification automatique de Meta (un classificateur de discours hostiles) a identifié le contenu comme potentiellement violent, la publication a été soumise à un examen manuel. Cependant, le cas a été automatiquement fermé. Le contenu n’a donc pas été examiné et il est resté sur Facebook. En mars 2024, lorsque Meta a sélectionné ce contenu pour le transmettre au Conseil, les experts en politiques de l’entreprise ont déterminé que la publication enfreignait les Standards de la communauté en matière de discours haineux. Le contenu a ensuite été supprimé de Facebook. L’utilisateur à l’origine de la publication a fait appel de la décision de Meta. Suite à un autre examen manuel, l’entreprise a décidé que dans ce cas, la suppression du contenu était correcte.
Le deuxième cas porte sur une réponse à un commentaire rédigée en anglais sur une publication Threads en janvier 2024. La publication était une vidéo qui abordait le conflit entre Israël et Gaza. Elle était accompagnée d’un commentaire indiquant la phrase « génocide des tunnels terroristes » suivie d’un point d’interrogation. La réponse mentionnait le terme « génocide » et affirmait que « tous les Israéliens sont des criminels ». Les outils de classification automatique de Meta (un classificateur de discours hostiles) ont identifié que le contenu était potentiellement en infraction. Suite à un examen manuel, Meta a supprimé la réponse au commentaire pour infraction à ses Standards de la communauté en matière de discours haineux. Après avoir identifié ce cas comme devant être transmis au Conseil, les experts en politique de Meta ont également déterminé que la décision initiale de supprimer le contenu était correcte.
Le troisième cas porte sur le commentaire d’un utilisateur rédigé en anglais sur une publication datant de mars 2024, indiquant « en tant que Pakistanais », « tous les indiens sont des violeurs ». Ce commentaire a été publié en réponse à une vidéo montrant une femme entourée d’un groupe d’hommes qui semblent la regarder. Meta a supprimé le commentaire après que l’un des ses outils de classification automatique (un classificateur de discours hostiles) a identifié qu’il enfreignait potentiellement les Standards de la communauté en matière de discours haineux. Lorsque Meta a sélectionné ce contenu pour le transmettre au Conseil, les experts en politique de l’entreprise ont déterminé que la décision initiale de supprimer le contenu était correcte.
Dans les trois cas, aucun des utilisateurs n’a fait appel des décisions de Meta auprès du Conseil. Meta les a donc transmis tous les trois.
Selon les rapports des experts mandatés par le Conseil, « les accusations de comportement criminel à l’encontre de nations, d’entités étatiques et d’individus sont très répandues sur les plateformes de Meta et dans l’opinion publique en général ». Les attitudes négatives à l’égard de la Russie sur les réseaux sociaux ont augmenté depuis l’invasion russe de l’Ukraine en février 2022. Selon les experts, les citoyens russes sont souvent accusés, sur les réseaux sociaux, de soutenir la politique de leurs autorités, notamment les agressions de la Russie contre l’Ukraine. En revanche, les citoyens russes sont moins souvent accusés d’être des « criminels ». Le terme est plus souvent employé pour désigner les dirigeants politiques et les soldats de l’armée russe. Selon les experts linguistiques interrogés par le Conseil, la traduction en arabe des termes « Américains » et « Russes » dans le premier cas pourrait être utilisée pour exprimer respectivement un ressentiment à l’égard des politiques, des gouvernements et de la politique des États-Unis et de la Russie, plutôt qu’à l’égard du peuple lui-même.
Les experts signalent également que les mentions d’Israël et des Israéliens en relation avec le génocide ont connu une forte hausse sur les plateformes de Meta depuis le début des opérations militaires menées par le pays à Gaza, qui ont fait suite à l’attaque terroriste du Hamas contre Israël en octobre 2023. Le discours relatif aux accusations d’actes de génocide s’est intensifié, en particulier après l’ordonnance rendue le 26 janvier 2024 par la Cour internationale de justice (CIJ), qui a ordonné des mesures provisoires à l’encontre d’Israël en vertu de la Convention pour la prévention et la répression du crime de génocide dans l’affaire Afrique du Sud /Israël. Depuis son adoption, cette ordonnance est à la fois critiquée et soutenue. Les experts affirment également que les accusations contre le gouvernement israélien « servent souvent à alimenter les discours haineux antisémites et à inciter à l’antisémitisme », étant donné que tous les Juifs, quelle que soit leur nationalité, sont souvent « associés à Israël dans l’opinion publique ».
Enfin, les experts ont également expliqué que les généralisations liées aux viols commis par des Indiens sont rares sur les réseaux sociaux. Si la qualification d’« Indiens violeurs » est parfois apparue dans le contexte d’allégations de violences sexuelles commises par les forces de sécurité indiennes dans les zones de conflit, elle se réfère rarement à « tous les Indiens ». La plupart des documents scientifiques, journalistiques et relatifs aux droits humains qui portent sur ces incidents désignent clairement les abus commis par l’armée et ne se réfèrent pas à une plus grande partie de la population.
2. Soumissions de l’utilisateur
L’auteur des publications a été notifié de l’examen par le Conseil et a eu la possibilité d’envoyer une déclaration. Aucun utilisateur n’a envoyé de déclaration.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
La justification de la politique en matière de discours haineux de Meta définit le discours haineux comme une attaque directe contre des personnes, et non contre des concepts ou des institutions, en raison de caractéristiques protégées, notamment la nationalité et l’origine ethnique. Meta n’autorise pas les discours haineux sur sa plateforme, car ils « créent une atmosphère d’intimidation et d’exclusion et peuvent aboutir à des violences hors ligne ».
Le niveau 1 de la politique en matière de discours haineux n’autorise pas les « discours ou images déshumanisants sous forme de comparaisons, de généralisations ou de déclarations (écrites ou visuelles) » sur le comportement se rapportant à des « criminels ».
Les règles internes de Meta destinées aux examinateurs de contenu sur la manière d’appliquer la politique définissent les généralisations comme des « assertions sur les qualités inhérentes des personnes ». De plus, les règles internes de Meta définissent les déclarations comportementales « qualifiées » et « non qualifiées » et présentent des exemples. En vertu de ces règles, les « déclarations qualifiées » ne portent pas atteinte à la politique, tandis que les « déclarations non qualifiées » sont en infraction et sont supprimées. L’entreprise permet aux personnes de publier du contenu contenant des déclarations comportementales qualifiées qui peuvent inclure des événements historiques, criminels ou conflictuels spécifiques. Selon l’entreprise, les déclarations comportementales non qualifiées « attribuent explicitement un comportement à l’ensemble ou à une majorité de personnes définies en fonction d’une caractéristique protégée ».
II. Soumissions de Meta
Meta a supprimé les trois publications pour avoir « ciblé des personnes au moyen d’allégations criminelles fondées sur la nationalité », car elles contenaient des généralisations sur les qualités intrinsèques d’un groupe, par opposition à ses actions. Meta a noté que les déclarations ne se limitent pas explicitement à celles impliquées dans l’activité criminelle présumée et qu’elles ne contiennent pas d’autres indications contextuelles indiquant que les déclarations sont liées à un conflit ou à un événement criminel particulier.
En transmettant ces cas au Conseil, Meta a déclaré qu’ils étaient problématiques au regard de la politique en matière de discours haineux, notamment en ce qui concerne la manière de traiter les allégations criminelles visant des personnes en raison de leur nationalité. Meta a déclaré au Conseil que, bien que l’entreprise estime que la politique « établit un juste équilibre entre la liberté d’expression et la sécurité dans la plupart des circonstances », il existe des situations, en particulier en période de crise et de conflit, « où des allégations criminelles visant des personnes d’une certaine nationalité peuvent être interprétées comme une attaque contre les politiques d’un pays, son gouvernement ou son armée plutôt que contre son peuple ».
Bien que ces cas ne constituent pas une demande d’avis consultatif en matière de politique, Meta a soumis à l’examen du Conseil des approches alternatives en matière de politique afin de déterminer si et comment l’entreprise devrait modifier son approche actuelle de suppression des allégations criminelles à l’encontre de personnes sur la base de leur nationalité, tout en autorisant les critiques à l’encontre d’États en raison d’activités criminelles présumées. Meta a répondu aux questions du Conseil en indiquant qu’elle n’avait pas mené de nouvelles actions de sensibilisation auprès des parties prenantes pour développer des alternatives aux politiques pour ces cas, mais qu’elle avait plutôt pris en considération les nombreuses contributions des parties prenantes reçues dans le cadre d’autres processus d’élaboration de politiques. Pour Meta, il était clair que les attaques qualifiant les membres des États-nations de « criminels de guerre » pouvaient conduire à une mise en application excessive et limiter l’expression politique légitime, étant donné qu’il existe généralement un lien entre ce type d’attaque et les actions entreprises par les États.
La première alternative envisageait l’introduction d’un système de remontée seule pour faire la distinction entre les attaques basées sur la nationalité et les attaques visant un concept. Pour ce faire, il faudrait identifier des facteurs permettant de déterminer si un pays donné est impliqué dans une guerre ou une crise, ou si le contenu fait référence au pays ou à son armée, en plus de son peuple. En d’autres termes, si les systèmes automatisés identifient la publication comme étant susceptible d’être en infraction, elle serait retirée, à moins que les experts en la matière de Meta n’en décident autrement à la suite d’une remontée. Meta a ajouté que si ce type de système était adopté, l’entreprise l’utiliserait probablement comme outil de fond, afin de compléter la politique de remontée seule qui vise à distinguer les concepts et les personnes conformément à la politique en matière de discours haineux. Cela signifie que Meta « n’autoriserait pas un contenu, même après avoir déterminé qu’il visait en fait une nation plutôt qu’un peuple, s’il devait être supprimé au titre du système de distinction entre les concepts et les personnes ». Conformément à la politique de remontée seule qui vise à distinguer les concepts et les personnes, Meta retire les « contenus attaquant des concepts, des institutions, des idées, des pratiques ou des croyances associés à des caractéristiques protégées, susceptibles de contribuer à des blessures physiques imminentes, à de l’intimidation ou à de la discrimination ».
Meta a noté que ce nouveau système permettrait à l’entreprise de tenir compte d’un plus grand nombre d’indicateurs contextuels, mais qu’il serait probablement utilisé dans de rares cas et uniquement en cas de remontée. De plus, « comme les politiques de remontée seule sont appliquées au contenu qui a fait l’objet d’une remontée vers les équipes spécialisées de Meta, elles peuvent être perçues comme inéquitables pour ceux qui n’ont pas accès à ces équipes et dont le contenu est examiné à grande échelle ».
En ce qui concerne la deuxième alternative, Meta a présenté une série de sous-options pour combattre le risque d’application excessive à grande échelle. Contrairement à la première alternative, elle pourrait s’appliquer à grande échelle et il ne serait pas nécessaire d’obtenir davantage de contexte pour que le contenu soit pris en compte lors de l’évaluation. Les sous-options incluent :
(a) L’autorisation de toutes les comparaisons avec des criminels sur la base de la nationalité. Meta a noté que cette option entraînerait une sous-application, car elle laisserait subsister certaines comparaisons avec des criminels qui attaquent des personnes sur la base de leur nationalité, sans qu’il n’y ait de lien évident avec le discours politique.
(b) L’autorisation de toutes les comparaisons avec des criminels pour des sous-ensembles spécifiques de nationalités. Meta a déclaré qu’une exception spécifique pourrait être envisagée pour les sous-ensembles de nationalités susceptibles de représenter le gouvernement ou la politique nationale (par exemple, les « soldats russes », la « police américaine » ou les « représentant(e)s du gouvernement polonais »), en partant de l’hypothèse que ces sous-ensembles sont plus susceptibles de représenter le gouvernement ou la politique nationale.
(c) La distinction des différents types d’allégations criminelles. Meta a noté que les références à certains types de crimes peuvent être plus fréquemment liées à des États ou à des institutions ou avoir un caractère plus politique que d’autres.
Le Conseil a posé des questions à Meta sur la faisabilité opérationnelle et les compromis liés aux mesures alternatives proposées, ainsi que sur l’articulation des politiques existantes et des mesures proposées. Meta a répondu à toutes les questions.
4. Commentaires publics
Le Conseil de surveillance a reçu 14 commentaires publics répondant aux critères de soumission. Sept commentaires provenaient des États-Unis et du Canada, six d’Europe et un de la zone Asie-Pacifique et Océanie. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les commentaires soumis portaient sur les thèmes suivants : les implications des allégations criminelles à l’encontre d’une nation entière en période de conflit, les Standards de la communauté de Meta en matière de discours haineux et les responsabilités de Meta en matière de droits humains en cas de situation de conflit.
5. Analyse du Conseil de surveillance
Le Conseil a accepté que ces cas lui soit transmis afin d’examiner comment Meta devrait modérer les allégations criminelles basées sur la nationalité, et plus particulièrement comment l’entreprise devrait faire la distinction entre les attaques contre les personnes basées sur la nationalité et les références aux actions et aux acteurs étatiques pendant les conflits et les crises. Ces cas s’inscrivent dans les priorités stratégiques du Conseil, à savoir les situations de crise et de conflit et les discours haineux contre les groupes marginalisés.
Le Conseil a examiné les décisions prises par Meta dans les cas susmentionnés en analysant les règles relatives au contenu de Meta, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué comment Meta devrait faire la distinction entre le discours qui assimile les actes criminels à des individus d’une certaine nationalité et le discours qui assimile les actes criminels à des États. Cette distinction est adéquate par principe, mais sa mise en œuvre est difficile, en particulier à grande échelle.
5.1 Respect des politiques de Meta relatives au contenu
I. Règles relatives au contenu
Le Conseil estime que les éléments de contenu présents dans le deuxième et le troisième cas sont contraires à la politique de Meta en matière de discours haineux. Le Conseil estime toutefois que la décision de Meta de supprimer le contenu dans le premier cas était incorrecte, étant donné qu’il existe des signaux indiquant que la publication Facebook cible des pays et non leurs citoyens.
Après avoir examiné la politique de Meta en matière de discours haineux, le Conseil recommande à l’entreprise de ne plus dépendre de règles générales par défaut, mais de développer des sous-catégories plus étroites qui reposeraient sur des signaux objectifs afin de minimiser les faux positifs et les faux négatifs à grande échelle. Par exemple, l’entreprise devrait autoriser les allégations criminelles à l’encontre de groupes spécifiques susceptibles de représenter des États, des gouvernements et/ou leurs politiques, tels que la police, les militaires, l’armée, les soldats, le gouvernement et d’autres représentants de l’État. L’entreprise devrait également autoriser les comparaisons qui mentionnent des crimes plus généralement associés à des acteurs étatiques et à des organisations dangereuses, tels que définis par la politique de Meta en matière de personnes et organisations dangereuses, en particulier les atrocités ou les violations graves des droits humains, telles que celles spécifiées dans le Statut de Rome de la Cour pénale internationale.
Cas individuels
Le Conseil estime que dans le premier cas, la publication n’a pas enfreint l’interdiction relative au « discours déshumanisant consistant à cibler une personne ou un groupe de personnes » sur la base de sa nationalité « sous forme de comparaisons, de généralisations ou de déclarations sur le comportement se rapportant à… des criminels » conformément aux Standards de la communauté en matière de discours haineux de Meta. Le rapport d’un expert mandaté par le Conseil a indiqué que les références aux crimes commis par les « Russes »et les « Américains » sont interprétées, de la manière la plus plausible, comme visant les États respectifs ou leurs politiques, et non pas les personnes originaires de ces pays. De plus, la publication compare les Russes aux Américains. Compte tenu du rôle que jouent la Russie et les États-Unis dans les relations et la politique internationales, la comparaison indique que l’utilisateur faisait référence aux deux pays et non à leur peuple. Le Conseil conclut, d’une part, que la publication en question dans le premier cas vise des États ou leurs politiques et, par conséquent, qu’elle ne contient pas de propos déshumanisants à l’encontre de personnes sur la base de leur nationalité sous la forme d’une généralisation se rapportant à des criminels et, d’autre part, que la publication devrait être rétablie.
Le Conseil partage l’avis de Meta quant aux contenus des deuxième et troisième cas, qui ont violé les Standards de la communauté en matière de discours haineux de Meta, car ces publications contiennent des généralisations se rapportant à des « criminels », qui ciblent des personnes sur la base de leur nationalité. Les références à « tous les Israéliens » et « tous les Indiens » visent très vraisemblablement les Israéliens et les Indiens, et non les nations ou les gouvernements respectifs. En outre, aucune des deux publications ne contient suffisamment de contexte pour conclure qu’elles font référence à un acte ou à un événement criminel particulier.
Bien que le contenu du second cas ait été publié en réponse à la publication d’un autre utilisateur de Threads contenant une vidéo sur le conflit entre Israël et Gaza, le mot « tous » utilisé pour désigner les Israéliens indique clairement que c’est le peuple dans son ensemble qui est visé, et non pas seulement le gouvernement. En outre, bien que le contenu contienne également une référence au « génocide », aucun signal contextuel n’indique avec certitude que l’utilisateur avait l’intention de faire référence aux actions ou aux politiques de l’État d’Israël, plutôt que de cibler les Israéliens sur la base de leur nationalité. Il en va de même pour le troisième cas, dans lequel aucun contexte de ce type n’est présent : le fait que l’utilisateur commente une vidéo Instagram dans laquelle des hommes regardent une silhouette féminine indique que l’utilisateur est susceptible de cibler des personnes. Les hommes dans la vidéo n’ont aucun lien apparent avec le gouvernement indien. Par ailleurs, rien n’indique que l’utilisateur critiquait les politiques ou les actions du gouvernement indien en matière de viol. En l’absence de références dénuées d’ambiguïté servant à critiquer des États, le Conseil conclut que la suppression du contenu dans les deuxième et troisième cas était justifiée en vertu de la politique de Meta en matière de discours haineux.
Problèmes plus généraux
En ce qui concerne les problèmes plus généraux soulevés par les trois cas, le Conseil reconnaît qu’il est difficile de distinguer le contenu visant à critiquer les actions et les politiques de l’État des attaques contre des personnes sur la base de leur nationalité, en particulier en période de crise et de conflit. Par conséquent, le Conseil estime que Meta devrait apporter des modifications nuancées à ses politiques afin de protéger le discours politique pertinent et qu’il puisse continuer à exister sur les plateformes de Meta, sans augmenter le risque de préjudice pour les groupes ciblés. Du point de vue du Conseil, il est nécessaire d’adopter une approche modulable et de l’accompagner de garde-fous pour éviter des conséquences négatives de grande ampleur.
Le Conseil recommande à Meta de trouver des signaux objectivement vérifiables, de façon à réduire les faux positifs et négatifs au sein des sous-groupes de cas importants. Par exemple (sans prétendre dresser une liste exhaustive de ces signaux), le Conseil est d’avis que les allégations criminelles fondées sur la nationalité devraient généralement être autorisées lorsqu’elles visent un groupe spécifique susceptible de représenter un État, comme les soldats, l’armée, les militaires, la police, le gouvernement ou d’autres représentants de l’État.
Un autre signal objectif serait la nature du crime présumé dans la publication mise en cause. Certains crimes, en particulier les atrocités ou les violations graves des droits humains, tels que ceux spécifiés dans le Statut de Rome de la Cour pénale internationale, sont généralement associés à des acteurs étatiques et à des organisations dangereuses, tandis que d’autres crimes sont presque exclusivement commis par des individus privés. Par conséquent, les publications qui attribuent le premier type de crime à une nationalité, lorsqu’elles sont suivies de références aux actions ou aux politiques de l’État, doivent être traitées comme un discours politique critiquant l’action de l’État et laissées sur la plateforme, tandis que les secondes doivent, en général, être supprimées.
De plus, certains signaux linguistiques pourraient remplir une fonction similaire, à savoir faire la distinction entre les déclarations politiques et les discours haineux. Tout en reconnaissant que les déductions faites à partir de ces signaux peuvent varier d’une langue à l’autre, le Conseil suggère que la présence ou l’absence d’un article défini est susceptible d’avoir une signification. Dire que « les Américains » commettent des crimes n’est pas la même chose que de dire que « des Américains » commettent des crimes, car l’utilisation de l’article défini peut signaler une référence à un groupe ou à un lieu en particulier. De la même manière, des mots comme « tous » indiquent clairement que la personne qui s’exprime fait des généralisations sur un groupe entier de personnes plutôt que sur leur État-nation. Ces distinctions peuvent varier d’une langue à l’autre, ce qui rend les interprétations contextuelles encore plus cruciales.
Parallèlement, le Conseil considère que le développement d’un système qui ne serait accessible qu’aux experts en politiques de Meta (une règle « de remontée seule »), plutôt qu’aux examinateurs de contenu à grande échelle, est une solution inadéquate. Suite au cas de la vidéo d’un prisonnier des Forces de soutien rapide duSoudan, le Conseil a découvert que les examinateurs humains de Meta qui effectuent la modération à grande échelle « ne sont pas formés ni habilités à identifier les contenus qui enfreignent les règles de l’entreprise relatives à la remontée seule ». De la même manière, dans le cas en question, Meta a informé le Conseil que les règles « de remontée seule » ne peuvent être appliquées que si le contenu est porté à l’attention des équipes responsables des remontées seules, par exemple, via les partenaires de confiance ou une couverture médiatique importante, des demandes émanant de modérateurs de contenu concernant des tendances inquiétantes, des équipes spécialisées présentes dans la région concernée ou encore des experts internes tels que l’équipe Human Rights ou l’équipe juridique des droits civiques de Meta.
Bien que le Conseil reconnaisse que ce système de remontée seule permettrait à des experts d’analyser le contexte général d’une situation de conflit, les indicateurs concernant l’intention de l’utilisateur et tout lien avec les institutions de l’État, il considère également que, dans la plupart des cas, cette approche ne permettrait pas d’établir une distinction entre les publications acceptables et inacceptables, étant donné qu’elle ne serait pas appliquée à grande échelle. De la même manière, le Conseil estime que l’une des autres alternatives proposées par Meta, qui consiste à autoriser toutes les comparaisons avec des criminels fondées sur la nationalité, ne constitue pas une approche suffisamment nuancée et entraînerait un risque de sous-application des règles relatives aux contenus nuisibles, risque qui pourrait particulièrement s’accroître en période de crise. Le Conseil considère cette option comme trop large, car elle pourrait protéger des contenus ciblant des personnes, plutôt que des États, leurs actions ou leurs politiques.
II. Mesures de mise en application
Meta a informé le Conseil des difficultés potentielles liées à l’application de certaines des alternatives plus nuancées en matière de politique proposées au Conseil, y compris les difficultés potentielles liées à la formation des classificateurs pour appliquer les exceptions plus étroites et l’augmentation de la complexité pour les examinateurs humains qui modèrent à grande échelle. L’entreprise a fait remarquer qu’en vertu de la politique actuelle en matière de discours haineux, tous les groupes dotés de caractéristiques protégées sont traités de la même manière, ce qui facilite l’application de la politique par les examinateurs humains, ainsi que la formation des classificateurs.
Dans le cas relatif à la Violence faite aux femmes, Meta a informé le Conseil de la « difficulté pour les équipes d’examen à grande échelle de distinguer les déclarations comportementales qualifiées et non qualifiées sans étudier soigneusement leur contexte ». Dans le cas Appel à la manifestation des femmes à Cuba, Meta a en effet déclaré au Conseil qu’en raison de la complexité à identifier l’intention à grande échelle, ses règles internes demandent aux équipes d’examen de supprimer les déclarations comportementales relatives à des groupes dotés de caractéristiques protégées par défaut lorsque l’utilisateur n’a pas clairement indiqué si la déclaration est qualifiée ou non qualifiée.
Tout en reconnaissant que les politiques nuancées posent des difficultés en matière de mise en application, le Conseil estime que Meta pourrait envisager de créer des listes d’acteurs et de crimes très susceptibles de faire référence à des politiques ou à des acteurs étatiques, plutôt qu’à des personnes. Par exemple, la liste pourrait inclure des références à la police, aux militaires, à l’armée, aux soldats, au gouvernement et à d’autres représentants de l’État. Pour ce qui est du contenu photo et vidéo, Meta peut demander à ses examinateurs humains de prendre en compte les indicateurs visuels présents dans le contenu. Par exemple, un contenu présentant des personnes en tenue militaire associé à des généralisations sur des actes criminels peut indiquer que l’utilisateur a l’intention de faire référence à des actions ou à des acteurs de l’État, plutôt que de formuler des généralisations ou de comparer des personnes à des criminels.
Le Conseil note également que certains crimes peuvent être plus généralement commis par des acteurs étatiques et des organisations dangereuses ou leur être attribués, et pourraient donc indiquer que l’intention de l’utilisateur est de critiquer les actions ou les politiques d’acteurs étatiques ou d’organisations dangereuses. Pour la mise en application de ce contenu à grande échelle, Meta pourrait envisager de se concentrer sur les atrocités ou les violations graves des droits humains, telles que celles spécifiées dans le Statut de Rome de la Cour pénale internationale.
Compte tenu des difficultés posées par la mise en application des mesures visant à minimiser les faux positifs et les faux négatifs à grande échelle, le Conseil recommande à Meta de publier les résultats des audits internes qu’elle effectue pour évaluer l’exactitude de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux. L’entreprise doit fournir les résultats sous une forme qui permet de comparer ces évaluations d’une langue à l’autre et/ou d’une région à l’autre. Cette recommandation est conforme à la recommandation n° 5 de la décision sur les Symptômes du cancer du sein et la nudité et à la recommandation n° 6 de l’avis consultatif en matière de politique sur les Références à des personnes dangereuses désignées sous le terme « chahid ».
Compte tenu de la complexité et des nuances des politiques proposées, le Conseil souligne qu’il est important de fournir des instructions suffisantes et détaillées aux examinateurs humains afin de garantir la cohérence de la mise en application, comme le prévoit la recommandation n° 1 ci-dessous.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que les décisions de Meta de supprimer le contenu dans le premier cas n’étaient pas conformes à ses responsabilités en matière de droits humains. La majorité des membres du Conseil considère que la suppression du contenu dans les deuxième et troisième cas était conforme aux engagements de Meta en matière de droits humains. En revanche, une minorité n’est pas d’accord avec ce point de vue.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP prévoit une large protection de la liberté d’expression, notamment au sujet de la politique, des affaires publiques et des droits humains, sachant que l’expression de préoccupations sociales ou politiques bénéficie d’une protection accrue ( Observation générale n° 34, paragraphes 11-12).
Lorsque des limitations de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU (PDNU), que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » ( A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » ( Ibid.). Le Rapporteur spécial des Nations unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil estime que, telle qu’appliquée à ces trois cas, la politique de Meta interdisant les discours déshumanisants à l’égard de personnes sur la base de leur nationalité sous forme de comparaisons, de généralisations ou de déclarations sur le comportement non qualifiées se rapportant à des « criminels » répond au critère de légalité. Bien que les trois publications contiennent des généralisations sur des allégations criminelles, le Conseil considère que le premier cas présente assez de contexte pour conclure que l’utilisateur faisait référence à des généralisations sur les actions ou les politiques de l’État. Par conséquent, ce contenu devrait être rétabli. Cependant, le contenu des deuxième et troisième cas cible des personnes sur la base de leur nationalité, ce qui constitue une violation de la politique de Meta en matière de discours haineux.
En outre, le Conseil souligne que les nouvelles règles doivent être clairement définies et accessibles aux utilisateurs et qu’elles doivent faire partie des modifications apportées à la politique par Meta. Par conséquent, les Conseils invitent Meta à mettre à jour la formulation de la politique en matière de discours haineux afin de refléter les modifications qui résulteront de cette décision et les recommandations en matière de politique qui seront adoptées.
Comme nous l’avons vu dans les décisions des cas relatifs à la Violence faite aux femmes, au Dessin animé de Knin et à l’Appel à la manifestation des femmes à Cuba, le Conseil a constaté que les équipes d’examen doivent disposer de suffisamment de possibilités et de ressources pour tenir compte des indicateurs contextuels afin d’appliquer correctement les politiques de Meta. Par conséquent, pour garantir la cohérence et l’efficacité de la mise en application, Meta devrait fournir des instructions claires sur les nouvelles règles à ses examinateurs humains, conformément à la recommandation n° 1 ci-dessous.
II. Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des « droits d’autrui ». « Le terme “droits” vise les droits fondamentaux tels qu’ils sont reconnus dans le Pacte et plus généralement dans le droit international des droits de l’homme » (observation générale n° 34, paragraphe 28). Conformément aux précédentes décisions, le Conseil estime que la politique de Meta en matière de discours haineux, qui vise à protéger le droit des personnes à l’égalité et à la non-discrimination, poursuit un objectif légitime reconnu par les standards du droit international lié aux droits humains (voir, par exemple, notre décision relative au Dessin animé de Knin).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Les PDNU indiquent que les entreprises doivent faire preuve de diligence raisonnable en matière de droits humains afin d’évaluer les incidences de leurs activités (PDNU 17) et reconnaître que le risque de violations est plus élevé dans les zones touchées par des conflits (PDNU 7). Le groupe de travail des Nations unies sur la question des droits humains et des sociétés transnationales et autres entreprises a noté que la responsabilité de diligence des entreprises devrait la plus grande complexité et le risque de préjudice dans certains scénarios ( A/75/212, paragraphes 41-49).
Dans le cas Bot au Myanmar, le Conseil a estimé que « les responsabilités accrues [de Meta] ne devraient pas conduire à une suppression par défaut, car les enjeux sont de tailles, que du contenu nuisible soit laissé en ligne ou que du contenu ne présentant peu ou pas de risque de préjudice soit supprimé. » Le Conseil a également noté que : « si les préoccupations de Facebook sur les discours haineux au Myanmar étaient fondées, l’entreprise doit également veiller tout particulièrement à ne pas supprimer les critiques ou les expressions politiques, en l’occurrence une marque de soutien envers un gouvernement démocratique. »
Si la critique des politiques, de la politique et des actions de l’État, en particulier dans les situations de crise et de conflit, revêt une importance accrue, les attaques contre les personnes fondées sur la nationalité peuvent être particulièrement préjudiciables dans le même contexte. Les allégations criminelles portées à l’égard de personnes sur la base de leur nationalité peuvent déboucher sur de la violence hors ligne visant des personnes et contribuant à l’aggravation des tensions entre les pays dans un contexte de conflit. La majorité des membres du Conseil estime que la décision de Meta de supprimer le contenu dans le premier cas n’était pas conforme aux principes de nécessité et de proportionnalité, alors que les suppressions dans les deuxième et troisième cas étaient nécessaires et proportionnées. La majorité considère que les deux suppressions de contenu étaient justifiées dans la mesure où aucun indicateur contextuel ne permettait de conclure que les utilisateurs dans les deuxième et troisième cas critiquaient respectivement le gouvernement israélien et le gouvernement indien. Toutefois, la majorité conclut, d’une part, qu’un tel contexte est présent dans le premier cas, ce qui rend sa suppression ni nécessaire ni proportionnée, et d’autre part, que la publication doit être rétablie.
Le Conseil rappelle que le contexte est essentiel à l’évaluation de la nécessité et de la proportionnalité (voir notre décision sur les Manifestations pro-Navalny en Russie). Le Conseil reconnaît l’importance et les difficultés liées à l’identification d’indicateurs contextuels dans le contenu en lui-même et à la prise en compte du contexte externe et de « l’environnement de la liberté d’expression » qui entoure le contenu publié (voir également notre décision sur l’Appel à la manifestation des femmes à Cuba).
En ce qui concerne le contenu du deuxième cas, la majorité du Conseil note que, depuis le 7 octobre, les Nations Unies, les agences gouvernementales et les groupes de sensibilisation ont mis en garde contre une augmentation de l’antisémitisme et de l’islamophobie. L’Anti-Defamation League, par exemple, a signalé que les incidents antisémites aux États-Unis ont augmenté de 361 % après les attaques du 7 octobre. Dans toute l’Europe, des pays ont mis en garde contre l’augmentation des crimes et discours haineux et des menaces contre les libertés civiles visant les communautés juives et musulmanes. En analysant les difficultés d’application des politiques de Meta à grande échelle, le Conseil a précédemment souligné que le discours déshumanisant qui consiste en des discours discriminatoires implicites ou explicites peut contribuer à des atrocités (voir la décision Dessin animé de Knin). Dans son interprétation des Standards de la communauté en matière de discours haineux, le Conseil a également noté qu’en période de tensions et de violences ethniques accrues, le volume de ces contenus est susceptible d’exacerber la situation, même lorsque des éléments de contenu spécifiques, considérés isolément, ne semblent pas inciter directement à la violence ou à la discrimination. Dans de telles circonstances, une entreprise de réseaux sociaux comme Meta est en droit de prendre des mesures allant au-delà de celles dont disposent les gouvernements pour s’assurer que sa plateforme n’est pas utilisée pour nourrir et encourager la haine qui mène à la violence. En l’absence de références dénuées d’ambiguïté signalant une critique de l’État, de l’une de ses institutions ou de ses politiques, la majorité des membres du Conseil conclut que le contenu du deuxième cas constituait un discours déshumanisant prononcé à l’encontre de tous les Israéliens sur la base de leur nationalité. Compte tenu des signalements d’un nombre croissant d’incidents antisémites, y compris d’attaques contre les Juifs et les Israéliens sur la base de leur identité, ce type de contenu est susceptible de contribuer à des préjudices hors ligne imminents.
De la même manière, la majorité des membres du Conseil prend note des tensions actuelles entre l’Inde et le Pakistan et des signalements de cas de violence communautaire entre hindous et musulmans en Inde (voir la décision Violences communautaires dans l’État indien de l’Odisha). Par conséquent, la majorité considère que la suppression du contenu dans le troisième cas était nécessaire et proportionné, car il visait les Indiens au lieu de critiquer le gouvernement indien, ce qui contribue à créer un climat d’hostilité et de violence.
Une minorité de membres du Conseil n’est pas d’accord avec la suppression des deuxième et troisième publications. Les principes généraux de la liberté d’expression (tels qu’ils sont inscrits dans l’article 19 du PIDCP) exigent que les limitations en matière de discours, en ce compris l’interdiction des discours haineux, respectent les principes de nécessité et de proportionnalité, ce qui implique une évaluation de la probabilité et de l’imminence d’un préjudice à court terme lié aux publications. Cette minorité n’est pas convaincue que la suppression du contenu soit le moyen le moins perturbateur dont dispose Meta pour remédier aux préjudices potentiels dans ces cas, étant donné qu’un large éventail d’outils numériques peut être pris en considération (par exemple, empêcher le partage de publications, ou encore rétrograder, étiqueter ou bloquer le contenu pour une durée limitée, etc.). L’incapacité de Meta à démontrer le contraire ne satisfait pas au principe de nécessité et de proportionnalité. Le rapporteur spécial a déclaré que « tout comme les États devraient évaluer si une limitation de la liberté d’expression constitue l’approche la moins restrictive, les entreprises devraient également procéder à ce type d’évaluation. Et, en procédant à cette évaluation, les entreprises devraient avoir la charge de démontrer publiquement la nécessité et la proportionnalité », ( A/74/486, paragraphe 51) [mise en avant ajoutée]. Selon l’avis de la minorité, Meta n’a pas réussi à démontrer publiquement pourquoi les suppressions étaient le moyen le moins perturbateur et la majorité n’a pas démontré de manière convaincante que le principe de nécessité et de proportionnalité était respecté dans les deuxième et troisième cas.
Si la majorité du Conseil confirme la suppression des deux publications en infraction dans les deuxième et troisième cas, elle souligne qu’il est important de prendre des mesures d’éducation et de responsabilisation des utilisateurs lorsque la liberté d’expression se voit limitée. Le Conseil prend note de la recommandation n° 6 de la décision relative aux Manifestations Pro-Navalny en Russie, en réponse à laquelle Meta a étudié des solutions permettant de notifier aux utilisateurs les violations potentielles des Standards de la communauté avant que l’entreprise ne prenne des mesures de mise en application. L’entreprise a informé le Conseil que lorsque ses systèmes automatisés détectent, avec un degré de fiabilité élevé, une infraction potentielle dans le contenu qu’un utilisateur s’apprête à publier, Meta peut signaler à l’utilisateur que sa publication risque d’enfreindre la politique, afin de lui permettre de mieux comprendre les politiques de Meta, puis de décider soit de supprimer son contenu, soit de le publier à nouveau sans les termes en infraction. Meta a ajouté que, sur la période de 12 semaines allant du 10 juillet 2023 au 1er octobre 2023, l’entreprise a signalé (tous types de notifications confondus) plus de 100 millions d’éléments de contenu à ses utilisateurs. Plus de 17 millions de ces notifications portaient sur l’application des Standards de la communauté en matière d’intimidation et de harcèlement. Les utilisateurs ont choisi de supprimer leurs publications dans plus de 20 % des cas, toutes notifications confondues. Le Conseil note que toutes les informations sont agrégées et anonymisées aux fins de la protection de la vie privée des utilisateurs et que tous les indicateurs sont des estimations fondées sur les informations les plus fiables disponibles à l’heure actuelle et pour une période donnée. Le Conseil considère que la mise en application de ces mesures est une étape importante dans le processus d’éducation et de responsabilisation des utilisateurs et qu’elle permet à ces derniers de mieux contrôler leur propre expérience sur les plateformes de Meta.
6. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de retirer le contenu du premier cas, et lui demande de rétablir cette publication. En ce qui concerne les deuxième et troisième cas, il confirme la décision de Meta de retirer le contenu.
7. Recommandations
Politique de contenu
1. Meta devrait modifier ses Standards de la communauté en matière de discours haineux, en ajoutant la section ci-dessous accompagnée d’une mention « nouveau ». Les Standards de la communauté en matière de discours haineux mis à jour incluraient alors le texte suivant ou toute autre formulation substantiellement similaire en ce sens :
« Ne pas publier
de contenu de niveau 1
ciblant une personne ou un groupe de personnes (y compris tous les groupes, sauf ceux considérés comme des groupes non protégés décrits comme ayant commis des crimes violents ou de nature sexuelle ou représentant moins de la moitié d’un groupe) qui partage l’une des caractéristiques ou l’un des statuts d’immigration protégés susmentionnés, sous forme écrite ou visuelle, utilisant un discours déshumanisant, sous la forme de comparaisons ou de généralisations se rapportant à des criminels :
- Prédateurs sexuels
- Criminels violents
- Autres criminels
[NOUVEAU] Sauf lorsque les acteurs (par exemple, la police, l’armée, les soldats, le gouvernement, les représentants de l’État) et/ou les crimes (par exemple, les atrocités ou les violations graves des droits humains, tels que ceux spécifiés dans le Statut de Rome de la Cour pénale internationale) impliquent une référence à un État plutôt que de cibler des personnes sur la base de leur nationalité ».
Le Conseil considérera que cette recommandation aura été implémentée lorsque Meta mettra à jour ses Standards de la communauté en matière de discours haineux destinés au public et partagera les instructions spécifiques mises à jour avec ses examinateurs.
Mise en application
2. Afin d’être plus transparente en matière d’application des politiques, Meta devrait partager publiquement les résultats des audits internes réalisés pour évaluer l’exactitude de l’examen manuel et les performances des systèmes automatisés dans le cadre de la mise en application de sa politique en matière de discours haineux. Les résultats doivent être fournis sous une forme qui permet de comparer ces évaluations d’une langue à l’autre et/ou d’une région à l’autre.
Le Conseil considérera que cette recommandation a été suivie lorsque Meta intégrera les résultats de l’examen de l’exactitude décrits dans la recommandation dans son Espace modération et dans les Rapports d’application des Standards de la communauté.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, un groupe d’investigations numériques fournissant des services de conseil en matière de risques et de renseignements sur les menaces pour atténuer les préjudices en ligne, a également fourni des recherches. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 50 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques