Renversé
Dessin animé de Knin
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser sur Facebook une publication qui décrivait les personnes d’origine serbe comme des rats.
Cette décision est également disponible en serbe et en croate.
Да бисте прочитали ову одлуку на српском језику, кликните овде.
Da biste ovu odluku pročitali na hrvatskom, kliknite ovdje.
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser sur Facebook une publication qui décrivait les personnes d’origine serbe comme des rats. Avant que Meta ne finisse par supprimer la publication pour violation de sa politique en matière de discours haineux, une quarantaine de modérateurs avaient décidé que le contenu ne violait pas cette politique. Cela laisse penser que les modérateurs ont systématiquement cru que la politique relative aux discours haineux leur demandait d’identifier une comparaison explicite, et non implicite, entre les personnes d’origine serbe et les rats pour considérer que la publication violait bien ladite politique.
À propos du cas
En décembre 2021, une Page Facebook publique a publié une version éditée du dessin animé de Disney « The Pied Piper » (Le Joueur de flûte) avec une légende en croate que Meta a traduite comme suit : « The Player from Čavoglave and the rats from Knin » (Le joueur de Čavoglave et les rats de Knin).
La vidéo met en scène une ville envahie par des rats. Dans le dessin animé original, le panneau situé à l’entrée de la ville indiquait « Hamelin », alors qu’il affiche désormais le nom de la ville croate de « Knin » dans la vidéo éditée. Le narrateur explique que les rats ont décidé qu’ils voulaient vivre dans un « pure rat country » (pays de rats purs) et qu’ils ont commencé à harceler et à persécuter les habitants de la ville.
Le narrateur poursuit son récit, expliquant que lorsque les rats ont pris possession de la ville, un joueur de flûte du village croate de Čavoglave est apparu. Après qu’il a joué un air sur sa « magic flute » (flûte enchantée), les rats se sont mis à chanter « their favorite song » (leur chanson favorite) et ont suivi le joueur de flûte hors de la ville. Les paroles de la chanson commémorent Momčilo Dujić, un prêtre orthodoxe serbe qui a été l’un des chefs de la résistance serbe lors de la Seconde Guerre mondiale.
Le joueur de flûte finit par rassembler les rats dans un tracteur, qui disparaît ensuite. Le narrateur conclut que les rats « disappeared forever from these lands » (disparurent de ces terres à jamais) et que « everyone lived happily ever after » (tout le monde vécut heureux pour toujours).
Le contenu en question a été visionné plus de 380 000 fois. Bien que des utilisateurs aient signalé le contenu à Meta 397 fois, l’entreprise ne l’a pas supprimé. Après que le cas a fait l’objet d’un appel auprès du Conseil, Meta a procédé à un nouvel examen manuel, au terme duquel elle a de nouveau conclu que le contenu ne violait pas ses politiques.
En janvier 2022, lorsque le Conseil a sélectionné le dossier pour l’examiner en détail, Meta a décidé que, même si la publication ne violait pas la lettre de la politique en matière de discours haineux, elle en enfreignait bien l’esprit, et elle a supprimé le contenu de Facebook. Par la suite, lorsque l’entreprise a rédigé le brouillon de sa justification à l’attention du Conseil, Meta a de nouveau changé d’avis et a conclu que la publication violait la lettre de la politique relative aux discours haineux, et que toutes les décisions précédentes étaient erronées.
Bien que Meta ait informé les 397 utilisateurs qui avaient signalé la publication de sa décision initiale, selon laquelle le contenu ne violait pas ses politiques, l’entreprise n’a pas prévenu ces utilisateurs qu’elle est revenue sur sa décision.
Principales observations
Le Conseil estime que le contenu en question viole les standards de la communauté Facebook relatifs aux discours haineux ainsi qu’à la violence et à l’incitation.
La politique de Meta en matière de discours haineux interdit les attaques basées sur des caractéristiques protégées, notamment l’origine ethnique. Le contenu en question, qui compare les personnes d’origine serbe à des rats et qui célèbre des actes discriminatoires accomplis par le passé, est déshumanisant et haineux.
Bien que la publication ne mentionne pas les personnes d’origine serbe par leur nom, des références historiques présentes dans le contenu ne laissent aucun doute sur le fait que les rats exclus de la ville représentent ce groupe. Le remplacement du nom « Hamelin » par celui de la ville croate de « Knin », l’association du joueur de flûte avec le village croate de Čavoglave (une référence à la chanson antiserbe « Bojna Čavoglave », composée par le groupe « Thompson » dont le chanteur principal est originaire de Čavoglave) et l’image des rats fuyant la ville en tracteur sont tout autant de références à « l’Opération Tempête » menée par les forces armées croates. Cette opération de 1995 aurait entraîné le déplacement, l’exécution et la disparition forcée de civils d’origine serbe. Les commentaires sous la publication confirment que ce lien était clair aux yeux des personnes qui ont vu le contenu.
Le Conseil s’inquiète de voir qu’une quarantaine de modérateurs parlant croate ont jugé que le contenu ne violait pas le standard de la communauté Facebook relatif aux discours haineux. Cela laisse penser que les modérateurs ont systématiquement cru que cette politique leur demandait de trouver une comparaison explicite entre les personnes d’origine serbe et les rats pour considérer que la publication violait bien ladite politique.
Le Conseil estime également que le contenu en question enfreint le standard de la communauté Facebook en matière de violence et d’incitation. Le Conseil n’est pas d’accord avec l’interprétation de Meta selon laquelle le contenu est un appel à l’expulsion non violente de ces personnes. En faisant référence aux évènements de « l’Opération Tempête », la publication vise à remettre en mémoire un conflit passé et constitue une menace de violence. Le dessin animé célèbre l’expulsion violente de la population d’origine serbe de la ville de Knin et peut contribuer à ce que les gens se sentent en droit d’attaquer ce groupe.
Le cas présent soulève une question sérieuse, celle de savoir pourquoi Meta a conclu que le contenu ne violait pas ses politiques en dépit du fait qu’il a été examiné tant de fois. Le fait que le contenu n’a pas été envoyé aux équipes spécialisées de Meta pour y être évalué avant qu’il soit présenté au Conseil montre que les processus de l’entreprise en matière de remontée des contenus ne sont pas suffisamment clairs et efficaces. Ainsi, le Conseil encourage Meta à fournir davantage d’informations sur la manière dont elle fait remonter les contenus.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
En guise d’avis consultatif sur la politique, le Conseil de surveillance recommande à Meta de :
- Clarifier le standard de la communauté Facebook relatif aux discours haineux et les instructions fournies aux modérateurs de contenu pour leur expliquer que les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement.
- Dans la lignée de l’engagement pris par Meta à la suite du cas « Collier de wampum » (2021-012-FB-UA), le Conseil recommande à Meta d’informer tous les utilisateurs ayant signalé le contenu lorsqu’elle revient sur sa décision initiale après un nouvel examen. Meta doit également dévoiler les résultats de toute expérience évaluant la possibilité d’introduire ce changement auprès du public.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur Facebook. Après que plus de 390 utilisateurs ont signalé le contenu pour le faire supprimer et que Meta a réexaminé le contenu lors de la sélection du cas par le Conseil, l’entreprise a estimé que la publication n’enfreignait pas ses politiques. Toutefois, lors de l’élaboration de sa justification auprès du Conseil, Meta est revenue sur sa décision et a déclaré qu’il s’agissait d’une « erreur de modération », supprimant le contenu pour violation de sa politique sur les discours haineux. Le Conseil estime que le contenu viole les standards de la communauté de Meta relatifs aux discours haineux ainsi qu’à la violence et à l’incitation. Il est d’avis que les dispositions en matière de comparaison entre personnes et animaux de la politique relative aux discours haineux s’appliquent aux contenus ciblant des groupes par le biais de références implicites à des caractéristiques protégées. Dans le cas présent, le contenu comparait les Serbes à des rats. Le Conseil estime également que la suppression du contenu est conforme aux responsabilités de Meta en ce qui concerne ses valeurs et les droits de l’homme.
2. Description du cas et contexte
Au début du mois de décembre 2021, une Page Facebook publique se décrivant comme un portail d’informations sur la Croatie a publié une vidéo accompagnée d’une légende en croate. Meta a traduit la légende comme suit : « The Player from Čavoglave and the rats from Knin » (Le joueur de Čavoglave et les rats de Knin). La vidéo était une version éditée du dessin animé de Disney intitulé « The Pied Piper » (Le Joueur de flûte). Elle durait deux minutes et dix secondes, et comprenait une voix off en croate et la mention « pretjerivač » en référence à la plateforme croate en ligne du même nom.
La vidéo mettait en scène une ville envahie par des rats. Dans le dessin animé original de Disney, le panneau situé à l’entrée de la ville indiquait « Hamelin », alors qu’il affichait le nom de la ville croate de « Knin » dans la vidéo éditée. Au début de la vidéo, un narrateur racontait que les rats et les humains vivaient dans la ville royale de Knin depuis de nombreuses années. Le narrateur poursuivait son récit en expliquant que les rats avaient décidé qu’ils voulaient vivre dans un « pure rat country » (pays de rats purs) et qu’ils avaient commencé à harceler et à persécuter les habitants de la ville. Le narrateur explique que lorsque les rats ont pris possession de la ville, un joueur de flûte du village croate de Čavoglave est apparu. Au début, les rats n’ont pas pris le joueur de flûte au sérieux et ont poursuivi « the great rat aggression » (la grande agression des rats). Cependant, après que le joueur de flûte a commencé à jouer de sa « magic flute » (flûte enchantée), les rats, captivés par la mélodie, se sont mis à chanter « their favourite song » (leur chanson favorite) et ont suivi le joueur de flûte hors de la ville. Meta a traduit les paroles de la chanson chantée par les rats comme suit : « What is that thing shining on Dinara, Dujić’s cockade on his head [...] Freedom will rise from Dinara, it will be brought by Momčilo the warlord » (Quelle est cette chose qui brille sur le Dinara, la cocarde de Dujić sur sa tête [...] La liberté émergera du Dinara, et sera apportée par Momčilo le chef de guerre). La vidéo montrait ensuite les habitants de la ville fermant la porte derrière le joueur de flûte et les rats. À la fin de la vidéo, le joueur de flûte rassemble les rats dans un tracteur, qui disparaît ensuite. Le narrateur a ensuite conclu qu’une fois que le joueur de flûte eût attiré tous les rats dans le « magical tractor » (tracteur magique), les rats « disappeared forever from these lands » (disparurent de ces terres à jamais) et que « everyone lived happily ever after » (tout le monde vécut heureux pour toujours).
Les faits historiques suivants sont pertinents pour la décision du Conseil. La Croatie déclara son indépendance de la République fédérative socialiste de Yougoslavie le 25 juin 1991. Le reste de l’État de Yougoslavie (appelé plus tard République fédérale de Yougoslavie), composé en grande partie de personnes d’origine serbe ainsi que de nombreuses minorités ethniques, y compris des personnes d’origine croate, fit appel à ses forces armées pour tenter de prévenir la sécession. La guerre qui s’ensuivit et qui dura jusqu’en 1995 engendra une brutalité extrême de la part des deux parties belligérantes, y compris le déplacement forcé de plus de 200 000 personnes d’origine serbe vivant jusqu’alors en Croatie ( Rapport de l’organisation Human Rights Watch, Croatie, août 1996). La minorité ethnique serbe en Croatie, avec le soutien de l’Armée populaire yougoslave, s’opposa à l’indépendance croate et (entre autres actions) établit une entité de style étatique connue sous le nom de République serbe de Krajina (RSK). Knin devint la capitale de la RSK. Pendant cette période, de nombreuses personnes d’origine croate furent expulsées de Knin. En 1995, les forces croates reconquirent Knin lors d’une opération militaire appelée « Opération Tempête ». Ce fut la dernière bataille majeure de la guerre. Étant donné que des personnes d’origine serbe fuirent en tracteur, les références aux tracteurs peuvent être utilisées pour humilier et menacer les personnes de cette origine.
Čavoglave est un village croate situé près de Knin et est connu pour être le lieu de naissance du compositeur et chanteur principal du groupe Thompson. Ce groupe croate devint célèbre lors de la guerre de Croatie grâce à leur chanson antiserbe « Bojna Čavoglave », encore disponible en ligne à l’heure actuelle. Cette chanson, qui a été ajoutée à la vidéo et comporte des images de violence, célèbre la reconquête de Knin durant l’Opération Tempête. Dans le dessin animé, le joueur de flûte qui mène les rats hors de la ville de Knin est nommé le « piper from Čavoglave » (joueur de flûte de Čavoglave). La mélodie et les paroles chantées par les rats du dessin animé sont également porteuses d’un sens spécifique. Les paroles sont tirées d’une chanson intitulée « What is that thing that shines above Dinara » (Quelle est cette chose qui brille sur le Dinara), qui commémore le passé serbe et Momčilo Dujić, un prêtre orthodoxe serbe qui fut l’un des chefs de la résistance serbe au cours de la Seconde Guerre mondiale.
Plus de 50 000 personnes sont abonnées à la Page qui a partagé le contenu. Le contenu a été vu plus de 380 000 fois, partagé plus de 540 fois et a suscité plus de 2400 réactions et plus de 1200 commentaires. La majorité des utilisateurs qui ont réagi au contenu, l’ont commenté ou l’ont partagé ont des comptes basés en Croatie. Meta a traduit quelques-uns des commentaires écrits en croate : « La haine est une maladie » et « Pensez-vous aux problèmes que cette publication et vos autres stupidités du genre engendrent pour les personnes d’origine croate qui vivent en Serbie ? »
Les utilisateurs ont signalé le contenu 397 fois, mais Meta ne l’a pas supprimé. Parmi ceux-ci, 362 utilisateurs l’ont signalé pour discours haineux. Certains utilisateurs ont fait appel de la décision de laisser la publication sur la plateforme auprès du Conseil. Cette décision se fonde sur l’appel intercédé par l’un de ces utilisateurs, dont le compte semble être basé en Serbie. Le signalement de cet utilisateur a été rejeté par un système automatique. Ce système permet de ne pas donner suite aux signalements de contenus qui ont déjà été examinés et considérés comme conformes un certain nombre de fois par les modérateurs humains de Meta, afin que les mêmes contenus ne soient pas réexaminés. Le contenu en question a été jugé conforme à la suite de plusieurs examens manuels avant le déclenchement de la décision automatique. En d’autres termes, bien que le signalement de l’utilisateur à l’origine de cet appel ait été examiné par un système automatique, des signalements précédents du même contenu ont été examinés par des modérateurs humains, qui ont décidé que la publication était conforme aux politiques.
Une fois que ledit utilisateur a fait appel auprès du Conseil de la décision de Meta de ne pas prendre de mesures, un nouvel examen manuel a été effectué au niveau des appels et a permis de conclure que le contenu ne violait pas les politiques de Meta. Meta a par ailleurs expliqué qu’au total, une quarantaine de « modérateurs humains (…) ont jugé le contenu conforme » et qu’« aucun modérateur humain n’a fait remonter le contenu ». La majorité de ces examens manuels ont eu lieu au niveau des appels. Meta a ajouté que tous les modérateurs qui ont examiné le contenu sont des locuteurs croates.
Lorsque le Conseil de surveillance a inclus le présent cas à la liste envoyée à Meta pour confirmer son éligibilité, d’un point de vue juridique, à un examen complet, Meta n’a pas modifié son évaluation du contenu, comme elle le fait parfois à cette étape de la procédure. À la fin du mois de janvier 2022, lorsque le Conseil a sélectionné le cas pour l’examiner en détail, l’équipe de Meta en charge de la politique de contenu a examiné une nouvelle fois la publication. À ce moment-là, Meta a déterminé que la publication comportant le dessin animé sur Knin ne violait pas la lettre de la politique en matière de discours haineux, mais qu’elle en violait l’esprit, et l’entreprise a décidé de supprimer le contenu de Facebook. Meta a expliqué qu’une « décision relative à “l’esprit de la politique” était prise lorsque la section de justification de l’un des Standards de la communauté stipulait clairement que la politique était censée aborder un scénario donné que la lettre de la politique elle-même n’abordait pas directement. Dans ces circonstances, nous pouvons néanmoins supprimer le contenu dans le cadre d’une décision relative à “l’esprit de la politique”. » Par la suite, lorsque l’entreprise a rédigé le brouillon de sa justification auprès du Conseil, Meta a de nouveau changé d’avis et a cette fois conclu que la publication violait la lettre de la politique relative aux discours haineux, et que toutes les décisions précédentes étaient erronées.
Selon Meta, les 397 utilisateurs qui ont signalé le contenu ont seulement été informés des décisions initiales de Meta, selon lesquelles la publication ne violait pas les politiques de l’entreprise. Ils n’ont pas été tenus au courant lorsque Meta est revenu sur sa décision et a supprimé le contenu. Meta a expliqué qu’en raison de « limitations liées à la technologie et aux ressources », elle n’informait pas les utilisateurs lorsque le contenu signalé était initialement jugé conforme et laissé sur la plateforme avant d’être finalement considéré comme en infraction et supprimé.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur ayant signalé le contenu qui a été laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
4. Sources d’autorité
Le Conseil de surveillance a pris les sources d’autorité suivantes en considération :
I. Décisions du Conseil de surveillance :
Les décisions les plus pertinentes que le Conseil de surveillance a rendues par le passé incluent les éléments suivants :
- Décision sur le cas 2021-002-FB-UA (« Père Fouettard ») : Dans ce cas-là, une majorité du Conseil a fait remarquer que « la modération du contenu pour prévenir l’accumulation des préjudices occasionnés par les discours haineux, même lorsque l’expression n’incite pas directement à la violence ou à la discrimination, peut être conforme aux responsabilités de Facebook en matière de droits de l’homme dans certaines circonstances. » Le Conseil a également estimé que des « interventions moins sévères, telles que des étiquettes, des écrans d’avertissement ou d’autres mesures visant à réduire la diffusion, n’auraient pas fourni une protection adéquate contre les effets cumulatifs du maintien […] d’un contenu de cette nature sur la plateforme. »
- Décision sur le cas 2020-003-FB-UA (« Arméniens en Azerbaïdjan ») : À propos d’un terme qui ciblait un groupe sur la base de son origine nationale au cours d’un conflit, le Conseil a fait remarquer que « si elle n’est pas contrée, une accumulation de ce type de contenu peut créer un environnement dans lequel des actes de discrimination et de violence sont plus probables. »
- Décision sur le cas 2021-011-FB-UA (« Insultes en Afrique du Sud ») : Le Conseil a décidé qu’en ce qui concerne les droits de l’homme, il était de la responsabilité de Meta d’interdire « certaines expressions discriminatoires », y compris « en l’absence de tout critère stipulant que l’expression incite à des actes violents ou discriminatoires ».
II. Règles de Meta relatives au contenu :
La justification du standard de la communauté Facebook sur les discours haineux stipule que les discours haineux ne sont pas autorisés sur la plateforme parce qu’ils « créent un environnement intimidant et excluant, et peuvent, dans certains cas, faire l’apologie de la violence hors ligne ». Ce standard de la communauté définit les discours haineux comme une attaque directe envers des personnes sur la base de caractéristiques protégées telles que l’origine ethnique et/ou l’origine nationale. Meta interdit tout contenu ciblant une personne ou un groupe de personnes sur la base d’une ou de plusieurs caractéristiques protégées par le biais « [d’]un discours ou [d’]images déshumanisants sous forme de comparaisons, de généralisations ou de déclarations (écrites ou visuelles) sur le comportement se rapportant à des animaux culturellement perçus comme inférieurs intellectuellement ou physiquement. » Meta interdit également une « exclusion sous forme d’appels à l’action, de déclarations d’intention, de déclarations d’aspiration ou conditionnelles ou de déclarations prônant ou soutenant […] L’exclusion explicite, comme l’expulsion de certains groupes ou le fait de dire qu’ils ne sont pas autorisés ».
La justification du standard de la communauté Facebook relatif à la violence et à l’incitation stipule que Meta « souhait[e] empêcher tout risque de danger hors ligne potentiellement lié à du contenu sur Facebook » et que l’entreprise restreint la liberté d’expression « lorsqu’[elle] pens[e] qu’un contenu représente un réel risque de blessures physiques ou une atteinte directe à la sécurité publique ». Plus particulièrement, Meta interdit les « déclarations codées dans lesquelles la méthode de violence ou le préjudice n’est pas clairement défini, mais la menace est voilée ou implicite », y compris lorsque le contenu inclut des « références à des incidents de violence historiques ».
III. Valeurs de Meta :
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook. La liberté d’expression y est décrite comme « primordiale » :
- L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouver à redire.
Meta limite la liberté d’expression au profit de quatre autres valeurs, dont deux sont en l’espèce pertinentes :
- La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.
- La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui, et qu’elle ne harcèle pas ni ne rabaisse pas les autres.
IV. Normes internationales relatives aux droits de l’homme
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’Homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme dans le cas présent s’est appuyée sur les normes des droits de l’homme suivantes :
- Liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques ( PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme, 2011 ; le rapport du Rapporteur spécial des Nations Unies sur les discours haineux, A/74/486, 2019 ; le rapport du Rapporteur spécial des Nations Unies sur la modération des contenus sur Internet, A/HRC/38/35, 2018 ;
- Égalité et non-discrimination : l’article 2, paragraphe 1 et l’article 26 du PIDCP ; les articles 2 et 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) ; la recommandation générale n° 35 du Comité pour l’élimination de la discrimination raciale, CERD/C/GC/35, 2013 ;
- Responsabilité des entreprises : Entreprises, droits humains et régions touchées par des conflits : vers une action renforcée - Rapport du Groupe de travail sur la question des droits de l’homme et des sociétés transnationales et autres entreprises ( A/75/212).
5. Soumissions de l’utilisateur
L’utilisateur qui a signalé le contenu et fait appel auprès du Conseil en langue croate indique que « le joueur de flûte symbolise l’armée croate qui, en 1995, a organisé l’expulsion des Serbes de Croatie, représentés ici par les rats ». Selon cet utilisateur, Meta n’a pas évalué la vidéo correctement. Il déclare que le contenu est une forme de discours haineux fondé sur l’origine ethnique et qu’il « alimente le ressentiment ethnique et religieux dans les Balkans ». Il indique également que « cette Page ainsi que de nombreux autres portails croates attisent l’intolérance ethnique entre deux peuples qui viennent à peine de panser les blessures de la guerre à laquelle la vidéo fait référence ».
Lorsque le Conseil a sélectionné ce cas, l’utilisateur à l’origine de la publication en a été informé et a été invité à s’exprimer à ce sujet. Un administrateur a répondu qu’il n’était membre de la Page qu’à titre de partenaire commercial.
6. Soumissions de Meta
Dans la justification qu’elle a fournie au Conseil, Meta a décrit la procédure d’examen suivie pour en arriver à cette décision, mais a surtout expliqué pourquoi la suppression du contenu en vertu de sa politique sur les discours haineux était finalement justifiée. Après des signalements répétés, de multiples modérateurs humains ont estimé que le contenu était conforme. L’entreprise n’a changé d’avis qu’après la sélection du cas par le Conseil de surveillance. À ce moment-là, Meta a jugé que la publication ne violait pas la lettre de sa politique en matière de discours haineux, mais a expliqué qu’elle s’était appuyée sur « l’esprit de la politique » pour prendre sa décision de supprimer le contenu. Le Conseil a ensuite informé Meta qu’il avait sélectionné le cas pour l’examiner en détail. Meta a alors changé d’avis, concluant cette fois-ci que le contenu violait bien la lettre de la politique. Plus précisément, l’entreprise a déclaré que le contenu violait l’idée de la politique, qui interdit les contenus ciblant les membres d’un groupe protégé et contenant « un discours ou des images déshumanisants sous forme de comparaisons, de généralisations ou de déclarations (écrites ou visuelles) sur le comportement se rapportant à […] des animaux culturellement perçus comme inférieurs intellectuellement ou physiquement. » Dans sa décision révisée, Meta a déclaré que la publication était en infraction, car elle constituait une attaque directe envers les personnes d’origine serbe de Knin en les comparant à des rats.
Meta a expliqué que sa décision précédente, selon laquelle le contenu ne violait que « l’esprit » de sa politique sur les discours haineux, était basée sur la supposition que la lettre de ladite politique n’interdisait pas les attaques envers des groupes sur la base d’une caractéristique protégée identifiée implicitement. Après avoir réexaminé ce raisonnement, Meta « a conclu qu’il était plus exact de dire que la lettre de la politique aussi interdit les attaques identifiant de manière implicite » une caractéristique protégée.
L’entreprise a indiqué que la suppression était finalement conforme à ses valeurs de dignité et de sécurité par rapport à sa valeur de liberté d’expression. Selon Meta, les comparaisons déshumanisantes de personnes avec des animaux qui, d’un point de vue culturel, sont perçus comme inférieurs peuvent contribuer à un traitement défavorable et préjudiciable « dans le cadre de l’intégration sociale, de politiques publiques et d’autres processus ayant une influence sur la société aux niveaux institutionnel et culturel par le biais d’une discrimination implicite ou explicite, ou de violences explicites ». Meta a ajouté que, compte tenu des tensions ethniques historiques et de la discrimination continue à l’encontre des personnes d’origine serbe en Croatie, la vidéo pouvait contribuer à induire un risque de préjudices réels. À cet égard, Meta se réfère à la décision du Conseil sur le cas « Père Fouettard ».
L’entreprise a également soutenu que la suppression était conforme aux normes internationales relatives aux droits de l’homme. Selon Meta, sa politique était « facilement accessible » sur le site web de son Espace modération. Par ailleurs, la décision de supprimer le contenu était légitime afin de protéger les droits d’autrui de la discrimination. Enfin, Meta a fait valoir que cette décision était nécessaire et proportionnée parce que le contenu « ne permettait pas aux utilisateurs d’interagir librement sans se sentir attaqués sur la base de leur identité » et parce qu’« aucun moyen moins intrusif n’était disponible pour limiter ce contenu ».
Le Conseil a également demandé à Meta si le contenu en question enfreignait le standard de la communauté Facebook sur la violence et l’incitation. Meta a répondu qu’il ne l’enfreignait pas parce que « le contenu ne contenait pas de menaces ni de déclarations d’intention de commettre des actes de violence » à l’encontre de personnes d’origine serbe et que « l’exclusion ou l’expulsion non violente ne constituait pas une menace de violence ». Selon Meta, « un lien plus évident entre les rats de la vidéo et le déplacement forcé et violent » de Serbes est nécessaire pour que le contenu soit supprimé en vertu de cette politique.
7. Commentaires publics
Le Conseil de surveillance a reçu deux commentaires publics en rapport avec ce cas. L’un de ces commentaires a été soumis en Asie-Pacifique ou en Océanie, tandis que le deuxième venait d’Europe. Les soumissions abordaient les sujets suivants : la question de savoir si le contenu avait sa place sur la plateforme et si la comparaison entre les Serbes et les rats violait la politique de Meta sur les discours haineux, ainsi que des suggestions sur la manière d’appliquer de manière plus efficace les règles de Facebook relatives au contenu.
Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné la question de la restauration de ce contenu sous trois angles : Les règles relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière des droits de l’homme.
8.1 Respect des règles relatives au contenu de Meta
Le Conseil estime que le contenu en question viole le standard de la communauté relatif aux discours haineux. Il viole également le standard sur la violence et l’incitation.
Discours haineux
La politique de Meta en matière de discours haineux interdit les attaques basées sur des caractéristiques protégées, notamment l’origine ethnique. En l’espèce, le groupe attaqué est celui des personnes d’origine serbe vivant en Croatie, plus précisément à Knin, ciblées sur la base de leur origine ethnique. Bien que ni la légende ni la vidéo ne mentionnent les personnes d’origine serbe comme telles, le contenu de la vidéo considéré dans son contexte historique, le remplacement du nom « Hamelin » par celui de la ville de « Knin », les paroles utilisées dans la vidéo, l’association du joueur de flûte avec Čavoglave (et donc avec la chanson du groupe Thompson au sujet de l’Opération Tempête) ainsi que l’utilisation de l’image du tracteur sont des références manifestes aux résidents serbes de Knin. Les Serbes sont dépeints comme des rats devant être expulsés de la ville. Les commentaires sous la publication et de nombreux signalements d’utilisateurs confirment que ce lien était extrêmement clair aux yeux des personnes qui ont vu le contenu.
Le contenu contient deux « attaques » correspondant à la définition de ce terme telle qu’elle est donnée dans la politique sur les discours haineux. Premièrement, cette politique interdit les comparaisons à des « animaux culturellement perçus comme inférieurs intellectuellement ou physiquement ». Les Standards internes d’application de Meta, c’est-à-dire des instructions fournies aux modérateurs de contenu, précisent que les comparaisons à la « vermine » sont interdites en vertu de cette politique. La vidéo compare visuellement les Serbes aux rats. Cela constitue une comparaison déshumanisante qui viole la politique sur les discours haineux et les Standards internes d’application.
Le Conseil estime que les comparaisons implicites de ce genre présentes dans le contenu sont interdites par la politique de Meta en matière de discours haineux.
Meta a expliqué les décisions précédentes de ne pas supprimer le contenu étaient fondées sur la supposition que la lettre de la politique ne s’appliquait pas aux références implicites aux caractéristiques protégées. Le Conseil n’est pas d’accord avec cette supposition. La lettre de la politique interdit les attaques basées sur les caractéristiques protégées, que les références à ces caractéristiques soient explicites ou implicites. Le standard sur les discours haineux stipule que les comparaisons peuvent prendre une forme écrite ou visuelle, comme une vidéo, et que la lettre du standard ne nécessite pas que les références aux groupes ciblés soient explicites. Bien que cette interprétation de la politique s’inscrive dans la lignée de sa lettre et de sa justification, la politique ne stipule pas clairement que les références implicites sont elles aussi couvertes.
Deuxièmement, le contenu apporte son soutien à l’expulsion des Serbes de Knin. La justification du standard relatif aux discours haineux définit les attaques comme « un discours violent ou déshumanisant, des stéréotypes offensants, une affirmation d’infériorité, une expression de mépris, de dégoût ou de renvoi, une insulte ou un appel à l’exclusion ou à la ségrégation ». Selon la disposition du standard de la communauté sur les discours haineux appliquée au cas présent, une exclusion explicite est décrite comme « l’expulsion de certains groupes ou le fait de dire qu’ils ne sont pas autorisés ». La vidéo en question célèbre un évènement historique au cours duquel des personnes d’origine serbe ont été expulsées de force de la ville de Knin, et le contenu indique que les citoyens vécurent bien mieux une fois les rats disparus. La vidéo apporte son soutien à des actes de nettoyage ethnique, ce qui constitue une violation du standard sur les discours haineux.
Violence et incitation
La politique relative à la violence et à l’incitation interdit les « contenus qui menacent les autres en faisant référence à des incidents de violence historiques connus [connus] ». La légende et la vidéo contiennent des références à l’Opération Tempête, une opération militaire qui, en 1995, aurait entraîné le déplacement, l’exécution et la disparation forcée de civils d’origine serbe. Dans la vidéo, la ville porte le nom de Knin et les rats fuient sur des tracteurs, soit deux références à l’Opération Tempête. Les commentaires sous la publication indiquent clairement que ces références sont évidentes aux yeux des personnes d’origine serbe et croate.
La vidéo est susceptible de contribuer à ce que les gens se sentent en droit d’attaquer les personnes d’origine serbe. La publication a pour objectif de faire écho à un conflit passé et de raviver les conflits ethniques afin de débarrasser la région de Knin de la petite minorité ethnique serbe qui y habite encore (pour en savoir plus sur le révisionnisme historique et le nationalisme radical en Croatie, voir le 5e avis sur la Croatie (2021) de la Convention-cadre pour la protection des minorités nationales du Comité consultatif du Conseil de l’Europe ; pour en savoir plus sur les discours haineux en ligne à l’égard des personnes d’origine serbe, voir leRapport annuel (2018) sur les activités de la Commission européenne contre le Racisme et l’Intolérance, paragraphe 30. Lorsqu’une menace est « voilée », le standard Facebook requiert « du contexte supplémentaire pour assurer son respect ». Le contexte demandé est présent dans cette publication.
Le Conseil n’est pas d’accord avec l’évaluation de Meta selon laquelle le contenu ne contenait pas de menaces ni de déclarations d’intention de commettre des actes de violence, et que les appels à l’exclusion ou à l’expulsion non violente ne constituent pas une menace de violence. L’expulsion forcée de personnes est un acte de violence. L’utilisation de l’histoire du joueur de flûte ne défend pas leur élimination pacifique, mais fait clairement référence à des incidents de violence historiques connus, en particulier avec l’image du tracteur.
Comme le prouvent les commentaires publics et les utilisateurs qui ont signalé cette publication, les rats du dessin animé représentent, aux yeux des témoins, la population d’origine serbe de la région de Knin, y compris les personnes qui y sont restées. Il ne fait aucun doute que le dessin animé célèbre leur expulsion. Dans l’histoire du joueur de flûte, les rats sont incités à quitter Knin par une flûte enchantée plutôt que contraints de le faire par la force, mais la référence aux tracteurs constitue bien un renvoi à l’expulsion forcée d’individus, un évènement bien connu dans tout le pays. Le tracteur est une métaphore, mais les menaces peuvent être tout aussi efficaces quand elles sont brandies sous la forme d’une métaphore que quand elles sont proférées directement.
Processus d’examen de Meta
Le Conseil s’intéresse particulièrement aux raisons pour lesquelles l’entreprise a conclu à maintes reprises que le contenu était conforme. Il aurait été utile que Meta se concentre là-dessus dès le départ plutôt que d’expliquer en long et en large pourquoi elle avait finalement eu raison de supprimer la publication. Si l’entreprise souhaite réduire le nombre de contenus en infraction sur sa plateforme, elle doit traiter les erreurs de modération sélectionnées par le Conseil comme des occasions d’explorer les motifs de ces erreurs.
Le Conseil prend note de la complexité inhérente à l’évaluation de cas tels que celui-ci et de la difficulté à appliquer les Standards de la communauté Facebook tout en prenant le contexte en considération, en particulier lorsque l’on tient compte du volume de contenus examinés chaque jour par les modérateurs humains. En raison de ces défis, le Conseil pense qu’il est important que Meta améliore les instructions qu’elle fournit à ses modérateurs, ainsi que les voies et les processus de remontée. « Remontée » signifie que des modérateurs humains envoient un cas aux équipes spécialisées de Meta, qui évaluent alors le contenu.
Selon la justification fournie par Meta, les modérateurs humains ont pour consigne d’appliquer la lettre de la politique, et non d’évaluer son intention, afin d’éviter toute subjectivité et d’appliquer les standards Facebook de manière cohérente. Bien que l’objectivité et la cohérence soient des objectifs légitimes, le Conseil s’inquiète de voir qu’une quarantaine de modérateurs humains ont qualifié à tort le contenu de conforme en raison des instructions fournies, et qu’aucun modérateur n’est parvenu à la décision considérée en fin de compte par Meta comme étant la bonne décision, c’est-à-dire la suppression du contenu.
La possibilité de faire remonter le contenu est censée engendrer de meilleurs résultats dans les cas complexes. Les examens réalisés au niveau de remontée peuvent évaluer l’intention de la politique et sont mieux préparés à prendre en compte le contexte. Le contenu a été signalé 397 fois, a été consulté par un grand nombre de personnes, a soulevé des questions relatives à la politique, nécessitait du contexte pour être évalué et impliquait du contenu issu d’une plateforme croate en ligne qui, selon les experts consultés par le Conseil, avait déjà été sujette à des discussions publiques et parlementaires sur la liberté d’expression en cas de satire. Pourtant, aucun modérateur n’a fait remonter le contenu. Meta a expliqué au Conseil qu’elle encourageait ses modérateurs à faire remonter les « contenus populaires » et les contenus au sujet desquels ils ont des doutes. Meta a défini les contenus populaires comme « tout ce qui est répétitif par nature (…) combiné avec le type d’action associé aux contenus (par exemple, risque pour la communauté ou préjudice potentiel […]) ». Le fait que le contenu n’a pas l’objet d’une remontée avant que le cas ne soit sélectionné par le Conseil indique que les voies de remontées ne sont pas suffisamment claires et efficaces. L’absence de remontées témoigne d’une défaillance systémique.
L’un des facteurs qui ont peut-être empêché la remontée du contenu dans ce cas-ci est le fait que Meta n’indique pas correctement à ses modérateurs à partir de quand un contenu est « populaire ». Une autre raison pour laquelle les modérateurs n’ont pas identifié le contenu comme « populaire » (et donc n’ont pas fait remonter le contenu) est le système de modération automatique utilisé par Meta dans ce cas-ci. Meta a expliqué qu’elle s’appuyait sur l’automatisation de ses systèmes pour traiter les signalements lorsqu’un certain nombre de décisions de conformité sont prises sur une période donnée afin d’éviter de réexaminer des contenus.
Le Conseil s’inquiète à propos des voies de remontée de Meta et fait remarquer que l’entreprise devrait fournir plus d’informations à leur sujet. Elle devrait étudier la nécessité de créer des voies de remontée supplémentaires et se demander si le système automatique utilisé dans ce cas-ci a empêché la remontée d’un contenu viral et signalé à nombreuses reprises.
Ce cas a également mis au jour les défauts du processus d’appel et de signalement de Meta. Le Conseil s’inquiète de voir que Meta n’informe pas les utilisateurs lorsqu’elle revient sur sa décision concernant un cas. Un utilisateur, ayant signalé un contenu qui a d’abord été jugé conforme et laissé sur la plateforme avant d’être considéré comme non conforme et supprimé, doit être tenu au courant de l’évolution de la situation.
8.2 Respect des valeurs de Meta
Le Conseil estime que la suppression du contenu est conforme aux valeurs de Meta en matière de liberté d’expression, de dignité et de sécurité.
Le Conseil reconnaît que la liberté d’expression est la valeur primordiale de Meta, mais le groupe autorise la limitation de la liberté d’expression pour empêcher la maltraitance et les autres formes de violence hors ligne et en ligne. La liberté d’expression des personnes ciblées par des stéréotypes négatifs et déshumanisants peut également être affectée, étant donné que l’utilisation de ces stéréotypes peut avoir une influence sur les personnes ciblées et entraver leur participation sur Facebook et Instagram. En autorisant le partage de telles publications, Meta est susceptible de contribuer à la création d’un environnement discriminatoire.
Le Conseil considère que les valeurs de dignité et de sécurité sont d’une importance prépondérante dans ce cas-ci. À cet égard, le Conseil a pris note de l’augmentation continue du nombre de cas de violence physique à l’encontre des personnes d’origine serbe en Croatie (5e avis sur la Croatie (2021) du Comité consultatif du Conseil de l’Europe, paragraphe 116). Tout ceci justifiait de supplanter la liberté d’expression de l’utilisateur pour protéger la liberté d’expression, la dignité et la sécurité des autres personnes.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil conclut que la suppression de la publication est conforme aux responsabilités d’entreprise de Meta en matière des droits de l’homme. Meta s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme ( PDNU). Sa Politique d’entreprise relative aux droits de l’homme indique que ceci inclut le Pacte international relatif aux droits civils et politiques ( PIDCP).
Liberté d’expression (article 19 du PIDCP)
Le droit à la liberté d’expression a une portée large. L’article 19, paragraphe 2, du PIDCP offre une protection élevée de l’expression des thèmes politiques et de la discussion autour d’allégations historiques (observation générale n° 34, paragraphes 20 et 49). En vertu de l’article 19 du PIDCP, lorsqu’un État impose des limitations à la liberté d’expression, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a encouragé les entreprises de médias sociaux à suivre ces principes lors de la modération de la liberté d’expression en ligne.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité exige que les règles utilisées par les États pour limiter la liberté d’expression soient claires et accessibles ( observation générale n° 34, paragraphe 25). La norme de légalité requiert également que les règles qui limitent la liberté d’expression « [ne puissent] pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et qu’elles « énoncent des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid.). Les individus doivent disposer de suffisamment d’informations pour déterminer si et comment leur liberté d’expression peut être limitée de manière à pouvoir adapter leur comportement en conséquence. Si l’on applique ce principe aux règles de Meta relatives au contenu sur Facebook, les utilisateurs devraient pouvoir comprendre ce qui est autorisé et ce qui ne l’est pas, et les modérateurs devraient disposer d’instructions claires sur la manière d’appliquer ces standards.
Le Conseil estime que le standard de la communauté relatif aux discours haineux interdit les attaques implicites ciblant des groupes sur la base de caractéristiques protégées. C’est le cas aussi bien pour les comparaisons déshumanisantes avec des animaux que pour les déclarations défendant ou promouvant l’exclusion. Les erreurs commises dans ce cas-ci indiquent que la lettre de la politique ainsi que les instructions fournies aux modérateurs ne sont pas suffisamment claires.
En l’espèce, une quarantaine de modérateurs humains ont décidé que le contenu ne violait pas le standard de la communauté sur les discours haineux. Avant que Meta ne rende son ultime décision, tous les modérateurs humains ont trouvé que le contenu était conforme. Cela montre que les modérateurs ont systématiquement cru que la politique leur demandait de trouver une comparaison explicite entre les personnes d’origine serbe et les rats pour considérer que la publication violait bien ladite politique. L’entreprise a d’abord informé le Conseil que l’esprit de la politique interdisait les comparaisons implicites avec des animaux, puis que la lettre de la politique couvrait les comparaisons implicites. La confusion qui a régné tout au long de ce processus montre à quel point il est nécessaire d’établir une politique et des consignes de modération plus claires.
II. Objectif légitime
Le Conseil a précédemment reconnu que les standards de la communauté sur les discours haineux et sur la violence et l’incitation poursuivent l’objectif légitime de protéger les droits d’autrui. Ces droits incluent le droit à l’égalité et à la non-discrimination (article 2, paragraphe 1 du PIDCP, articles 2 et 5 du CIEDR) et le droit d’exercer sa liberté d’expression sur la plateforme sans être harcelé ou menacé (article 19 du PIDCP).
III. Nécessité et proportionnalité
Pour que les restrictions de la liberté d’expression soient considérées comme nécessaires et proportionnées, elles « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » ( observation générale n° 34, paragraphe 34). Le Rapporteur spécial sur la liberté d’expression a également fait remarquer que, sur les médias sociaux, « l’ampleur et la complexité de la lutte contre l’expression de la haine soulèvent des défis à long terme » ( A/HRC/38/35, paragraphe 28). Toutefois, selon le Rapporteur spécial, les entreprises doivent « démontrer la nécessité et la proportionnalité de toute mesure prise à l’égard de contenus (comme les suppressions ou les suspensions de compte) ». En outre, les entreprises sont tenues « de se poser les mêmes questions […] quant à la protection de la liberté d’expression de leurs utilisateurs » (ibid. paragraphe 41).
Le standard de la communauté Facebook sur les discours haineux interdit certaines formes spécifiques d’expressions discriminatoires, en ce compris les comparaisons avec des animaux et les appels à l’exclusion, en l’absence de tout critère stipulant que l’expression incite à des actes violents ou discriminatoires. S’appuyant sur les conseils du Rapporteur spécial des Nations Unies, le Conseil a précédemment expliqué que, même si de telles interdictions soulèveraient des questions si elles étaient appliquées à plus grande échelle par un gouvernement, en particulier par le biais de sanctions civiles ou pénales, Facebook pouvait réguler cette liberté d’expression en démontrant la nécessité et la proportionnalité de son action (voir la décision « Insultes en Afrique du Sud »).
Le contenu en question, qui compare les personnes d’origine serbe à des rats et qui célèbre des actes discriminatoires accomplis par le passé, est déshumanisant et haineux. Le Conseil serait parvenu à une conclusion similaire à propos de n’importe quel contenu ciblant un groupe ethnique dans cette manière, en particulier dans une région où des conflits ethniques ont eu lieu récemment. Le Conseil estime que la suppression du contenu en question était nécessaire pour lutter contre les préjudices sérieux que peuvent poser les discours haineux fondés sur l’origine ethnique.
Le Conseil a pris en compte les facteurs définis dans le Plan d’action de Rabat ( Plan d’action de Rabat, OHCHR, A/HRC/22/17/Ann. 4, 2013) pour orienter son analyse tout en tenant compte des différences entre les obligations légales des États au niveau international et les responsabilités des entreprises en matière des droits de l’homme . Meta a la responsabilité de « [s’efforcer] de prévenir ou d’atténuer les incidences négatives sur les droits de l’homme qui sont directement liées à [ses] activités, produits ou services » (PDNU, principe 13). Dans son analyse, le Conseil s’est concentré sur le contexte social et politique, l’intention, le contenu et la forme du discours tenu ainsi que sa portée.
En ce qui concerne le contexte, il est lié à une région qui a récemment été le théâtre de conflits ethniques, de discours haineux en ligne ainsi que d’incidents de discrimination à l’égard de minorités ethniques en Croatie (voir la section 8.1, sous Violence et incitation). Le contenu vise à inciter à la haine raciale et peut contribuer à ce que des individus agissent de manière discriminatoire. La forme du discours et sa portée large sont également importantes. La vidéo a été partagée par un administrateur d’une Page qui, selon les experts consultés par le Conseil, est un portail d’actualités croate connu pour ses opinions antiserbes. Le format choisi pour la vidéo, le dessin animé, peut être particulièrement nuisible, car il est particulièrement attrayant. Sa portée était large. Bien que la vidéo ait été créée par une autre personne, il est probable que la popularité de la Page (qui a plus de 50 000 abonnés) ait augmenté la portée de la vidéo, d’autant qu’elle reflète les opinions de la Page et de ses abonnés. Le contenu a été vu plus de 380 000 fois, partagé plus de 540 fois et a suscité plus de 2400 réactions et plus de 1200 commentaires.
Dans sa décision « Insultes en Afrique du Sud », le Conseil a décidé qu’en ce qui concerne les droits de l’homme, il était de la responsabilité de Meta d’interdire « certaines expressions discriminatoires », y compris « en l’absence de tout critère stipulant que l’expression incite à des actes violents ou discriminatoires ». Le Conseil note que l’article 20, paragraphe 2 du PIDCP, tel qu’interprété par le Plan d’action de Rabat, requiert un préjudice imminent pour justifier la limitation de la liberté d’expression. Le Conseil ne pense pas que cette publication pourrait entraîner un préjudice imminent. Néanmoins, Meta peut légitimement supprimer des publications de Facebook lorsqu’elles incitent à la violence de manière moins immédiate. Ceci est justifié, puisque les responsabilités d’entreprise de Meta relatives aux droits de l’homme diffèrent des obligations des États en la matière. Pour supprimer des contenus de sa plateforme, Meta peut s’appuyer sur des normes moins sévères que celles qui s’appliquent aux États imposant des sanctions civiles ou pénales.
Dans ce cas-ci, le fait de représenter les Serbes comme des rats et d’appeler à leur expulsion par le biais de références à des actes de violence historiques affecte les droits à l’égalité et à la non-discrimination des personnes ciblées. Ceci justifie la suppression de la publication. De nombreux membres du Conseil estiment également que le contenu a eu une influence négative sur la liberté d’expression d’autres personnes sur la plateforme, car il contribuait à créer un environnement dans lequel certains utilisateurs pourraient se sentir menacés.
Le Conseil estime que la suppression du contenu est une mesure nécessaire et proportionnée. Des interventions moins perturbatrices, telles que des étiquettes, des écrans d’avertissement ou d’autres mesures visant à réduire la diffusion, n’auraient pas fourni une protection adéquate contre les effets cumulatifs du maintien d’un contenu de cette nature sur la plateforme (pour consulter une analyse similaire, voir le cas « Représentation du Père Fouettard » ).
9. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de conserver le contenu et demande que la publication soit supprimée.
10. Avis consultatif sur la politique
Politique de contenu
1. Meta doit clarifier le standard de la communauté Facebook relatif aux discours haineux et les instructions fournies aux modérateurs de contenu pour leur expliquer que les références implicites aux groupes protégés sont elles aussi interdites par la politique lorsque ces références sont comprises assez facilement. Le Conseil considérera que cette recommandation a été appliquée lorsque Meta mettra à jour ses Standards de la communauté et les Standards internes d’application destinés aux modérateurs de contenu pour les modifier en conséquence.
Mise en application
2. Dans la lignée de l’engagement pris par Meta à la suite du cas « Collier de wampum » (2021-012-FB-UA), le Conseil recommande à Meta d’informer tous les utilisateurs ayant signalé le contenu lorsqu’elle revient sur sa décision initiale après un nouvel examen. Meta doit également dévoiler les résultats de toute expérience évaluant la possibilité d’introduire ce changement auprès du public. Le Conseil considérera que cette recommandation a été appliquée lorsque Meta partagera avec le Conseil des informations relatives aux expériences pertinentes et, à terme, la notification de mise à jour, et qu’elle confirmera l’utilisation de cette nouvelle version dans toutes les langues.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en sciences sociales sur six continents ainsi que 3 200 experts nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques