Le Conseil de surveillance annule la décision initiale de Meta dans le cas de la négation de l’Holocauste
23 janvier 2024
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser en ligne une publication Instagram qui contenait des déclarations fausses et déformées sur l’Holocauste. Le Conseil estime que le contenu enfreint le Standard de la communauté de Meta relatif au discours haineux qui interdit la négation de l’Holocauste. Cette interdiction est conforme aux responsabilités de Meta en matière de droits de l’Homme. Le Conseil fait part de ses inquiétudes quant au fait que Meta n’ait pas supprimé ce contenu et il se pose des questions sur l’efficacité de l’entreprise à faire appliquer ses règles. Le Conseil recommande à Meta de prendre des mesures afin d’évaluer systématiquement et avec plus de précision la mise en application de ses règles relatives au contenu négationniste.
À propos du cas
Le 8 septembre 2020, un utilisateur d’Instagram a publié un meme de Carlo Tentacule, un personnage du dessin animé Bob l’éponge. Cette publication comprend une bulle de dialogue intitulée « Anecdotes sur l’Holocauste », qui contient des affirmations fausses et déformées sur l’Holocauste. Les déclarations, en anglais, remettent en question le nombre de victimes de l’Holocauste, suggérant qu’il n’est pas possible que six millions de personnes juives aient été assassinées. Cette déclaration se base sur des chiffres de population supposés avant et après la Seconde Guerre mondiale, cité par l’utilisateur. La publication remet également en question l’existence des fours crématoires en déclarant que les cheminées ont été bâties après la guerre et que les leaders mondiaux de ce temps-là n’ont pas reconnu l’existence de l’Holocauste dans leurs mémoires.
Plusieurs semaines après la publication de ce contenu, le 12 octobre 2020, Meta a modifié son Standard de la communauté relatif au discours haineux pour interdire de façon explicite la négation ou la déformation de l’Holocauste.
Depuis sa publication en septembre 2020, le contenu a été signalé à six reprises pour infraction à la politique de Meta relative au discours haineux. Quatre de ces signalements ont été examinés par les systèmes automatisés de Meta, qui ont soit considéré que le contenu n’était pas en infraction soit fermé automatiquement les rapports en raison des règles d’automatisation de l’entreprise liées au COVID-19. Ces règles, instaurées au début de la pandémie en 2020, ont conduit à la fermeture automatique d’examens de signalements. L’objectif était de réduire le volume de signalements reçus par les équipes d’examen, tout en conservant les signalements potentiellement « à risque élevé ».
Deux de ces six rapports d’utilisateurs ont fait l’objet d’examens manuels qui ont déterminé que le contenu n’était pas en infraction. Un utilisateur ayant signalé cette publication en mai 2023 (soit après l’annonce de Meta selon laquelle elle n’autoriserait plus la négation de l’Holocauste) a fait appel de la décision de l’entreprise de laisser le contenu en ligne. Ce signalement a toutefois été automatiquement fermé en raison des règles d’automatisation de l’entreprise liées au COVID-19, toujours en vigueur en mai 2023. Cet utilisateur a alors fait appel auprès du Conseil de surveillance.
Principales observations
Le Conseil estime que le contenu enfreint le Standard de la communauté relatif au discours haineux, qui interdit la négation de l’Holocauste sur Facebook et sur Instagram. Les spécialistes consultés par le Conseil ont confirmé que toutes les déclarations sur l’Holocauste présentes dans la publication sont manifestement fausses ou qu’elles déforment les faits historiques. Le Conseil estime que la politique de Meta qui interdit la négation de l’Holocauste est conforme à ses responsabilités en matière de droits de l’Homme. Par ailleurs, le Conseil s’inquiète du fait que Meta n’ait pas supprimé ce contenu, même après avoir modifié ses règles pour interdire la négation de l’Holocauste de façon explicite, et ce malgré les examens manuels et automatisés.
Dans le cadre de cette décision, le Conseil a commandé une évaluation du contenu négationniste sur les plateformes Meta, qui a révélé que le meme Carlo Tentacule était utilisé pour diffuser différents types de déclarations antisémites. Alors que l’évaluation a montré une nette diminution des contenus utilisant des termes tels que « Holohax » (terme rejetant l’existence de la Shoah) depuis octobre 2020, elle a également permis de mettre en évidence les lacunes de Meta en matière de suppression des contenus négationnistes. L’évaluation a montré qu’il est encore possible de trouver des contenus négationnistes sur les plateformes Meta, sans doute parce que certains utilisateurs tentent d’échapper à la mise en application des règles par d’autres moyens, en remplaçant par exemple les voyelles d’un mot par des symboles ou en formulant des déclarations implicites négationnistes, à l’aide de memes et de dessins.
Il est important de considérer la négation de l’Holocauste comme un élément de l’antisémitisme, engendrant une discrimination.
Le Conseil se pose des questions sur l’efficacité et la précision des systèmes de modération de Meta en ce qui concerne la suppression des contenus négationnistes sur ses plateformes. Les examens manuels de Meta ne permettent pas de qualifier avec précision le type d’infraction aux règles (par exemple, le contenu en infraction est qualifié de « discours haineux » et pas de « discours négationniste »). En se basant sur les informations obtenues grâce aux questions posées à Meta dans ce cas et dans les précédents, le Conseil considère ces défis comme techniquement surmontables, à condition que d’importantes ressources soient employées. Meta doit créer des systèmes permettant de qualifier de façon plus précise le type d’infractions, notamment si l’on tient compte des conséquences de la négation de l’Holocauste dans le monde réel. Ces systèmes seront susceptibles d’améliorer la modération du contenu négationniste, en fournissant aux classificateurs et aux équipes d’examen de meilleurs supports de formation. Meta s’appuyant de plus en plus sur l’intelligence artificielle pour modérer du contenu, le Conseil souhaite savoir comment le développement de tels systèmes pourrait permettre de donner la priorité à une meilleure mise en application des règles relatives au discours haineux, en étant plus précis au niveau de la politique.
Le Conseil constate également avec inquiétude que Meta continuait à appliquer ses règles d’automatisation liées au COVID-19 au mois de mai 2023. En réponse aux questions formulées par le Conseil, Meta a révélé avoir fermé automatiquement l’appel de l’utilisateur qui contestait sa décision de laisser ce contenu sur Instagram en mai 2023, plus de trois après le début de la pandémie, et peu de temps après que l’Organisation mondiale de la Santé et les États-Unis ont déclaré que le COVID-19 n’était plus une « urgence de santé publique de portée internationale ». Meta devait faire de la suppression du discours haineux une priorité, et ce de façon urgente. Il est par ailleurs préoccupant que des mesures prises dans le cadre d’une pandémie perdurent bien après le retour à une situation dans laquelle elles ne sont plus raisonnablement justifiées.
La décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
Le Conseil recommande à Meta de :
- Prendre des mesures techniques afin de garantir une évaluation suffisante et systématique de la mise en application de ses règles relatives à la négation de l’Holocauste et le recueil d’informations plus précises.
- Confirmer publiquement avoir mis fin aux règles d’automatisation liées au COVID-19 mises en place lors de la pandémie.
Pour en savoir plus
Pour lire l’intégralité de la décision, cliquez ici.
Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.