Une nouvelle décision souligne pourquoi l’utilisation isolée de l’expression « Du fleuve à la mer » ne devrait pas entraîner de suppression de contenu
4 septembre 2024
Le Conseil souligne également l’importance de l’accès aux données pour un contrôle indépendant de la modération de Meta.
Lors de son examen de trois cas impliquant trois éléments de contenu Facebook différents contenant l’expression « From the River to the Sea » (De la rivière à la mer), le Conseil a estimé que ces éléments n’enfreignaient pas les règles de Meta en matière de discours haineux, de violence et d’incitation et d’organismes et d’individus dangereux. Plus précisément, les trois éléments de contenu contenaient des signes contextuels de solidarité avec la Palestine, mais n’appelaient pas à la violence ou à l’exclusion. Ils ne contenaient pas non plus de référence au Hamas ni de glorification de cette organisation que Meta estime dangereuse. En confirmant la décision de Meta de laisser le contenu sur Facebook, la majorité des membres du Conseil précise que l’expression revêt différentes significations et peut être utilisée de différentes manières et avec différentes intentions. Une minorité des membres pense cependant que, comme l’expression figure dans la charte du Hamas de 2017 et a été prononcée dans le cadre des attentats du 7 octobre, il convient de supposer que son utilisation dans une publication constitue une glorification d’une entité désignée, sauf en cas de présence de signaux clairement contraires.
Ces trois cas mettent en évidence les contradictions entre la valeur de voix de Meta et la nécessité de protéger la liberté d’expression, particulièrement les discours politiques dans le cadre d’un conflit, et les valeurs de Meta de sécurité et de dignité visant à protéger les individus de l’intimidation, de l’exclusion et de la violence. Le conflit actuel et qui se poursuit à la suite des attentats terroristes du Hamas en octobre 2023 et des opérations militaires israéliennes qui ont suivi a mené à des manifestations partout dans le monde et à des accusations d’infractions du droit international pour les deux camps. La montée de l’antisémitisme et de l’islamophobie est tout aussi pertinente, non seulement en raison de ces cas, mais aussi de l’utilisation générale de « From the River to the Sea » (De la rivière à la mer) sur les plateformes de Meta. Une fois de plus, ces cas soulignent l’importance de l’accès aux données pour évaluer efficacement la modération du contenu de Meta lors des conflits, ainsi que la nécessité d’une méthode pour suivre la quantité de contenu attaquant des personnes sur la base d’une caractéristique protégée. Par ses recommandations, le Conseil exhorte Meta à s’assurer que sa nouvelle Bibliothèque de contenu remplace efficacement CrowdTangle et d’appliquer intégralement la recommandation du rapport de diligence raisonnable en matière de droits humains de BSR concernant les implications de Meta en Palestine et en Israël.
À propos des cas
Dans le premier cas, un utilisateur de Facebook a commenté une vidéo publiée par un autre utilisateur. La légende de la vidéo encourage les internautes à « speak up » (prendre la parole) et inclut des hashtags comme « #ceasefire » (#cessezlefeu) et « #freepalestine » (#palestinelibre). Le commentaire de l’utilisateur comprend l’expression « FromTheRiverToTheSea » (DeLaRivièreALaMer) sous forme de hashtag, ainsi que d’autres hashtags comme « #DefundIsrael » (#RetirezLesFondsDIsrael) et des emojis de cœurs aux couleurs du drapeau palestinien. Ce commentaire a été vu environ 3000 fois et a été signalé quatre fois par des utilisateurs, mais ces signalements ont été automatiquement clôturés, car les systèmes automatisés de Meta ne les ont pas considérés comme prioritaires pour un examen manuel.
Dans le deuxième cas, l’utilisateur de Facebook a publié ce qui semble être une image générée de tranches de pastèque qui, en flottant, forment l’expression, suivie de « Palestine will be free » (La Palestine sera libre). Cette publication a été vue environ 8 millions de fois et a été signalée par 937 utilisateurs. Certains de ces signalements ont été examinés par des modérateurs qui n’ont pas estimé que la publication enfreignait les règles de Meta.
Dans le troisième cas, l’administrateur d’une page Facebook a partagé la publication d’une organisation communautaire canadienne, dans laquelle les membres fondateurs déclaraient leur soutien au peuple palestinien, condamnaient leur « senseless slaughter » (massacre insensible) et les « Zionist Israeli occupiers » (occupants israéliens sionistes). La publication a été vue moins de 1000 fois et a été signalée par un utilisateur, mais le signalement a été clôturé automatiquemen
Dans les trois cas, des utilisateurs ont ensuite fait appel auprès de Meta afin de faire supprimer le contenu, mais les appels ont été rejetés sans examen manuel à la suite d’une évaluation par l’un des outils automatisés de l’entreprise. Après que Meta a maintenu sa décision de laisser le contenu sur Facebook, les utilisateurs ont fait appel auprès du Conseil.
Les attentats terroristes sans précédent perpétrés par le Hamas contre Israël en octobre 2023 ont entraîné la mort de 1200 personnes et la prise de 240 otages. Ces attentats ont été suivis par une réponse militaire israélienne de grande envergure à Gaza, tuant plus de 39 000 personnes (nombre en juillet 2024). Depuis, les deux camps ont été accusés d’enfreindre le droit international et de commettre des crimes de guerre et des crimes contre l’humanité. Cette situation a généré un débat international, principalement sur les réseaux sociaux, notamment Facebook, Instagram et Threads.
Principales observations
Le Conseil estime que rien n’indique que le commentaire ou les deux publications ont enfreint les règles de Meta en matière de discours haineux, car ils n’attaquent pas les juifs ou les Israéliens en appelant à la violence ou à l’exclusion, ni une institution ou un concept associé à une caractéristique protégée qui pourrait conduire à une violence imminente. Les trois éléments de contenu contiennent plutôt des signes contextuels de solidarité envers les Palestiniens sous forme de hashtags, de représentation visuelle ou de messages de soutien. Par ailleurs, ils n’enfreignent pas les règles relatives à la violence et à l’incitation, ni la politique de Meta relative aux organismes et individus dangereux, car ils ne contiennent pas de menaces de violence ou d’autres blessures physiques, et ne glorifient pas le Hamas ni ses actions.
Pour parvenir à sa décision, la majorité du Conseil note que l’expression « From the River to the Sea » (De la rivière à la mer) a de multiples significations. Si certains peuvent la comprendre comme encourageant et légitimant l’antisémitisme et l’élimination violente d’Israël et de son peuple, elle est néanmoins souvent utilisée comme un appel politique à la solidarité, à l’égalité des droits et à l’autodétermination du peuple palestinien, ainsi qu’à la fin de la guerre à Gaza. De ce fait, et comme le montrent ces cas, l’expression isolée ne peut être comprise comme un appel à la violence contre un groupe sur la base de ses caractéristiques protégées, comme préconisant l’exclusion d’un groupe particulier, ou comme soutenant une entité désignée, le Hamas. L’utilisation de cette expression par ce groupe terroriste ayant des objectifs et des actions explicitement éliminationnistes ne rend pas cette expression haineuse ou violente en soi, au vu du nombre de personnes qui l’utilisent de différentes manières. Il est essentiel de prendre en compte des facteurs tels que le contexte et l’identification des risques spécifiques afin d’analyser dans son ensemble le contenu publié sur les plateformes Meta. La suppression de ce contenu aurait pu être conforme aux responsabilités de Meta en matière de droits humains si l’expression avait été accompagnée de déclarations ou de signaux appelant à l’exclusion ou à la violence ou légitimant la haine. Toutefois, selon la majorité des membres du Conseil, la suppression n’aurait pas été fondée sur l’expression elle-même, mais sur d’autres éléments en infraction. Étant donné que cette expression n’a pas une signification unique, une interdiction générale des contenus reprenant cette expression, une règle par défaut de suppression de ces contenus, ou même l’utilisation de cette expression comme signal pour déclencher la mise en application ou l’examen, entraverait de manière inacceptable la liberté d’expression politique protégée.
Par contre, une minorité des membres du Conseil estime que Meta devrait adopter une règle par défaut supposant que l’expression constitue une glorification d’une organisation désignée, sauf en présence de signaux clairs permettant de déterminer que l’utilisateur ne soutient pas le Hamas ni les attentats du 7 octobre.
Une étude demandée par le Conseil à propos de ces cas a été basée sur l’outil d’analyses de données CrowdTangle. L’accès aux données de la plateforme est essentiel pour le Conseil et pour les parties prenantes externes afin d’évaluer la nécessité et la proportionnalité des décisions de modération de contenu de Meta dans le cadre de conflits armés. C’est la raison pour laquelle le Conseil est préoccupé par la décision de Meta d’arrêter cet outil alors que l’on se demande encore si le nouvel outil, la Bibliothèque de contenu Meta, pourra le remplacer efficacement.
Enfin, le Conseil reconnaît que, même en utilisant des outils de recherche, il est difficile d’évaluer efficacement l’ampleur de la montée des contenus antisémites, islamophobes, racistes et haineux sur les plateformes de Meta. Le Conseil exhorte Meta à mettre intégralement en application une recommandation émise précédemment dans le rapport de diligence raisonnable en matière de droits humains de BSR pour remédier à ce problème.
Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de conserver le contenu dans les trois cas.
Le Conseil recommande à Meta de :
- Assurer que les chercheurs qualifiés, les organisations de la société civile et les journalistes qui avaient accès à CrowdTangle soient intégrés à la nouvelle Bibliothèque de contenu Meta dans les trois semaines après l’envoi de leur candidature.
- Assurer que la Bibliothèque de contenu remplace efficacement CrowdTangle et donne un accès à des fonctionnalités et aux données équivalent ou supérieur.
- Mettre en application la recommandation n° 16 du rapport de BSR sur la diligence raisonnable en matière de droits humains concernant l’influence de Meta en Israël et en Palestine, afin de mettre en œuvre un mécanisme de suivi de la prévalence du contenu qui attaque les individus sur la base de caractéristiques protégées spécifiques (par exemple, le contenu antisémite, islamophobe ou homophobe).
Pour plus d'informations
For Arabic translation, click here.
For Hebrew translation, click here.
To read public comments for this case, click here.