Renversé
Publication sur les musulmans au Myanmar
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu du Standard de la communauté sur les discours haineux.
Pour lire cette décision en birman, cliquez ici.
ဆုံးဖြတ်ချက် အပြည့်အစုံကို ဗမာဘာသာဖြ ဖြင့် ဖတ်ရှူရန်၊ ဤနေရာကို နှိပ်ပါ-
Résumé du cas
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu des Standards de la communauté en matière de discours haineux. Le Conseil a estimé que, même si la publication pouvait être considérée comme offensante, elle n’atteignait pas le niveau d’un discours haineux.
À propos du cas
Le 29 octobre 2020, un utilisateur en Birmanie a publié dans un groupe Facebook en birman. La publication incluait deux photos largement partagées d’un enfant en bas âge syrien d’origine kurde qui s’était noyé en tentant de rejoindre le continent européen en septembre 2015.
Le texte d’accompagnement disait qu’il y a un problème psychologique chez les musulmans (ou les hommes musulmans) ou au niveau de leur état d’esprit. La publication s’interrogeait sur le manque de réaction des musulmans en général concernant le traitement des musulmans ouïghours en Chine alors que des caricatures du prophète Mahomet ont provoqué des assassinats en France. L’utilisateur conclut sa publication en déclarant que les récents évènements en France atténuent la compassion de l’utilisateur pour l’enfant sur la photo et semble insinuer que l’enfant puisse avoir été élevé pour devenir extrémiste.
Facebook a supprimé ce contenu en vertu des Standards de la communauté en matière de discours haineux.
Principales observations
Facebook a supprimé ce contenu, car il contenait la phrase « [il y a] un problème psychologique chez les musulmans ». Puisque ses Standards de la communauté en matière de discours haineux interdisent les déclarations généralisées d’infériorité concernant les déficiences mentales d’un groupe sur la base de sa religion, l’entreprise a supprimé la publication.
Le Conseil a estimé que même si la première partie de la publication en elle-même pouvait sembler faire une généralisation insultante sur les musulmans (ou les hommes musulmans), la publication devait être lue dans son ensemble en prenant en considération le contexte.
Alors que Facebook a traduit le texte comme : « il y a en effet un problème psychologique chez les musulmans », les traducteurs du Conseil ont suggéré : « ces hommes musulmans ont un problème d’état d’esprit. » Ils ont également laissé entendre que les termes utilisés n’étaient pas dégradants ou violents.
Les experts de contenu du Conseil ont indiqué que, même si le discours haineux contre les minorités musulmans est fréquent et parfois violent en Birmanie, les déclarations disant qu’ils souffrent de troubles mentaux ou psychologiques ne représentent pas une grande partie de cette rhétorique.
En le prenant dans son contexte, le Conseil est d’avis que le texte est plutôt à comprendre comme un commentaire sur l’incohérence manifeste entre les réactions des musulmans sur les évènements en France et en Chine. Cette expression de l’opinion est protégée par les Standards de la communauté Facebook et n’atteignait pas le niveau d’un discours haineux.
En prenant en considération les normes internationales relatives aux droits de l’homme sur la limitation de la liberté d’expression, le Conseil a estimé que, même si la publication pouvait être considérée comme péjorative ou offensante envers les musulmans, elle ne prônait pas la haine ni n’incitait intentionnellement à nuire. Le Conseil ne considère donc pas qu’il soit nécessaire de supprimer cette publication pour protéger les droits de tiers.
Le Conseil a également souligné que la sensibilité de Facebook au discours haineux contre les musulmans était compréhensible, en particulier étant donné l’historique de violence et de discrimination contre ces personnes en Birmanie et le risque accru avant l’élection générale dans ce pays en novembre 2020. Cependant, pour cette publication spécifique, le Conseil a conclu que Facebook n’aurait pas dû supprimer le contenu.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision de Facebook de supprimer du contenu considéré comme un discours haineux. Le Conseil a conclu que Facebook avait catégorisé une publication comme un discours haineux tandis qu’elle n’atteignait pas ce niveau.
2. Description du cas
Le 29 octobre 2020, un utilisateur de Facebook en Birmanie a été l’auteur d’une publication en birman sur un groupe qui se décrit comme un forum de discussion intellectuelle. La publication incluait deux photos largement partagées d’un enfant en bas âge syrien d’origine kurde qui s’était noyé dans la mer Méditerranée en septembre 2015. Le texte d’accompagnement commençait en disant qu’il y a un problème psychologique chez les musulmans (ou les hommes musulmans) ou au niveau de leur état d’esprit. La publication s’interrogeait sur le manque de réaction des musulmans en général concernant le traitement des musulmans ouïghours en Chine alors que des caricatures du prophète Mahomet ont provoqué des assassinats en France. L’utilisateur conclut sa publication en déclarant que les récents évènements en France atténuent la compassion de l’utilisateur pour l’enfant sur la photo et semble insinuer que l’enfant puisse avoir été élevé pour devenir extrémiste.
Facebook a traduit la déclaration comme « [il y a] un problème psychologique avec les musulmans » pour s’inscrire dans le « Niveau 2 » de discours haineux en vertu des Standards de la communauté. Puisque ceux-ci interdisent les déclarations généralisées d’infériorité concernant les déficiences mentales d’une personne ou d’un groupe sur la base de sa religion, Facebook a supprimé le contenu.
Avant la suppression le 3 novembre 2020, les deux photographies incluses dans la publication étaient recouvertes d’écrans d’avertissement en vertu du Standard de la Communauté en matière de contenu explicite et violent. Selon Facebook, aucun autre élément de la publication n’enfreignait ses politiques. L’utilisateur a fait appel auprès du Conseil de surveillance, soutenant qu’il n’avait pas tenu de discours haineux.
3. Autorité et champ d’application
Le Conseil de surveillance dispose de l’autorité nécessaire pour examiner la décision de Facebook en vertu de l’article 2.1 de la charte du Conseil et peut confirmer ou annuler cette décision conformément à l’article 3.5. La publication relève du champ d’application d’un examen par le Conseil de surveillance : elle n’entre dans aucune catégorie de contenu exclue comme indiqué à l’article 2, section 1.2.1 des Statuts du Conseil et cela n’entre pas en conflit avec les obligations légales de Facebook en vertu de l’article 2, section 1.2.2 des Statuts.
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook
Les Standards de la communauté en matière de discours haineux stipule que Facebook « n’autorise pas le discours haineux sur Facebook parce que ces discours créent une atmosphère d’intimidation et d’exclusion, et peuvent aboutir à des violences dans le monde réel ». Facebook définit le discours haineux comme une attaque basée sur des caractéristiques protégées. Les attaques peuvent consister en « un discours violent ou déshumanisant, des stéréotypes nuisibles, des déclarations d’infériorité ou des appels à l’exclusion ou la ségrégation » et sont divisées en trois niveaux de contenu interdit. Le niveau 2 de contenus interdits comprend :
les généralisations qui abordent l’infériorité (sous forme écrite ou visuelle) des façons suivantes [...] les déficiences mentales sont définies comme suit : capacité intellectuelle [...] éducation [...] santé mentale.
Les caractéristiques protégées sont « l’origine ethnique, l’origine nationale, la religion, l’orientation sexuelle, la caste, le sexe, le genre, l’identité sexuelle, et les maladies graves ou les handicaps » et incluent certaines protections concernant l’âge et le statut d’immigration.
II. Valeurs de Facebook
L’introduction aux Standards de la communauté indique que la « liberté d’expression » est la valeur primordiale de Facebook, mais que la plateforme peut limiter cette « liberté d’expression » au profit de plusieurs autres valeurs, notamment la « sécurité ». La définition de la « sécurité » de Facebook est la suivante : « Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook. »
III. Normes relatives aux droits de l’homme prises en considération par le Conseil
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. Sur la base des UNGP, les normes internationales relatives aux droits de l’homme suivantes ont été prises en considération pour ce cas :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; le commentaire général n° 34, Comité des droits de l’homme (2011) (Commentaire général 34) ; le plan d’action de Rabat ; le Rapport sur la liberté d’expression concernant les discours haineux en ligne de la Rapporteuse spéciale des Nations Unies (2019) (A/74/486).
- Le droit à la non-discrimination : articles 2 et 26 du PIDCP.
- Le droit à la vie et à la sécurité : articles 6 et 9 du PIDCP.
5. Déclaration de l’utilisateur
L’utilisateur a fait appel de la décision de Facebook de supprimer le contenu en novembre 2020. L’utilisateur a déclaré que sa publication n’enfreignait pas les Standards de la communauté Facebook et qu’il n’avait pas eu recours à un discours incitant à la violence. L’utilisateur a expliqué que sa publication était sarcastique et avait pour but de comparer les réactions religieuses extrémistes dans différents pays. L’utilisateur a également indiqué que Facebook n’est pas en mesure de distinguer le sarcasme du sérieux en langue birmane et dans le contexte du pays.
6. Explication de la décision de Facebook
Facebook a supprimé ce contenu sur la base des Standards de la communauté en matière de discours haineux. Facebook a estimé que la publication était une attaque de niveau 2 en vertu de ce standard, puisqu’il s’agissait d’une généralisation de la déficience mentale des musulmans. Selon les informations fournies par Facebook, qui ne relèvent pas du domaine public, les généralisations « sont des déclarations négatives déshumanisantes, irraisonnées et dénuées de précision factuelle ainsi que d’argument qui enfreignent les droits et réputations des autres ». Facebook a déclaré que le seul élément de la publication qui violait les Standards de la communauté était la déclaration disant qu’il y avait un problème psychologique chez les musulmans.
Facebook a également avancé que ses Standards de la Communauté s’alignent sur les normes internationales relatives aux droits de l’homme. Selon Facebook, bien que le discours interdit en vertu de ce standard ne peut pas être élevé au rang de « promotion de la violence ou d’incitation à celle-ci », une telle expression peut être restreinte puisqu’elle a la « capacité de déclencher des actes de discrimination, de violence, de haine, surtout si elle est diffusée largement ou de façon virale, ou dans des contextes présentant de graves risques pour les droits de l’homme ». Pour donner un contexte à ce cas, Facebook a cité la récente attaque à Nice, en France, qui a fait trois victimes, la détention en cours des musulmans ouïghours en Chine, la crise des réfugiés syriens et les violences contre les musulmans en général.
7. Soumissions de parties tierces
Le Conseil a reçu 11 commentaires publics en rapport avec ce cas. Tandis qu’un commentaire était vide de contenu, les 10 autres fournissaient des soumissions intéressantes sur ce cas. La répartition régionale des commentaires était la suivante : un provenait d’Asie-Pacifique et d’Océanie, quatre d’Europe et cinq des États-Unis et du Canada. Les soumissions couvraient différents thèmes, notamment de savoir si la publication provocante et répréhensible correspondait suffisamment clairement à un discours haineux ; si le contenu était une attaque contre les musulmans ; si l’intention de l’utilisateur était de mettre en lumière le traitement des musulmans ouïghours en Chine et de la crise des réfugiés syriennes ; si l’intention de l’utilisateur était de condamner plutôt que de promouvoir la mort d’individus ; si l’utilisation de représailles dans la publication pouvait impliquer un appel direct à la violence physique contre les citoyens chinois ; et des commentaires demandant d’améliorer le processus de commentaires publics du Conseil.
8. Analyse du Conseil de surveillance
8.1 Respect des Standards de la communauté
La publication ne constitue pas un discours haineux au sens du Standard de la Communauté visé.
Dans ce cas, Facebook a indiqué que le discours en question était une attaque de niveau 2 en vertu du Standard de la Communauté en matière de discours haineux. La caractéristique protégée était l’appartenance religieuse, puisque le contenu décrivait les musulmans ou les hommes musulmans. Selon Facebook, l’attaque était une « généralisation qui affirme l’infériorité » concernant les « déficiences mentales ». Cette section interdit les attaques sur « la santé mentale, y compris, mais sans s’y limiter : malade mental, attardé, fou, dingue » et « la capacité mentale, y compris, mais sans s’y limiter : bête, stupide, idiot. ».
Bien que la première partie de la publication en elle-même pouvait sembler faire une généralisation insultante sur les musulmans (ou les hommes musulmans), la publication devait être lue dans son ensemble en prenant en considération le contexte.
Les organisations des droits de l’homme et d’autres experts ont indiqué que le discours haineux contre les minorités musulmans en Birmanie sont fréquents et parfois violents, en particulier dans le contexte de l’élection générale du 8 novembre 2020 (note de FORUM-ASIA sur la ténacité du discours haineux et le rôle de Facebook en Birmanie, pages 5 à 8, Rapport de la mission internationale indépendante d’établissement des faits sur le Myanmar des Nations Unies, A/HRC/42/50, paragraphes 1303, 1312, 1315 et 1317). Cependant, rien n’indiquait que les déclarations disant que les musulmans souffrant de troubles mentaux ou psychologiques ne représentent pas une partie significative de la rhétorique anti-musulmans. De plus, alors que Facebook a traduit la phrase comme : « il y a en effet un problème psychologique chez les musulmans », les traducteurs du Conseil ont estimé qu’elle voulait dire : « ces hommes musulmans ont un problème d’état d’esprit. » Les traducteurs ont également suggéré que même si les termes utilisés pouvaient témoigner d’une certaine intolérance, ils n’étaient pas dégradants ou violents.
Il est donc préférable de lire la publication, en tenant compte du contexte, comme un commentaire relevant l’incohérence manifeste entre les réactions des musulmans sur les évènements en France et en Chine. Cette expression de l’opinion est protégée par les Standards de la communauté et n’atteint pas le niveau d’un discours haineux qui justifierait une suppression.
8.2 Conformité avec les valeurs de Facebook
La décision de Facebook de supprimer le contenu n’est pas conforme aux valeurs de l’entreprise. Bien que la valeur de « sécurité » de Facebook soit importante, en particulier en Birmanie étant donné le contexte de discrimination et de violence contre les musulmans, ce contenu ne représentait pas un risque pour la « sécurité » qui justifierait que cela passe au-dessus de la « liberté d’expression ».
8.3 Conformité avec les normes relatives aux droits de l’homme
Restaurer la publication est conforme aux normes internationales relatives aux droits de l’homme.
Selon l’article 19 du PIDCP, les individus ont le droit de rechercher et recevoir des informations, y compris des informations controversées et profondément offensantes (Observation générale n° 34). Certains membres du Conseil ont indiqué que le rapport du rapporteur spécial des Nations unies sur la liberté d’expression de 2019 portant sur le discours haineux en ligne affirme que le droit international des droits de l’homme « protège les droits à offenser et se moquer » (paragraphe 17). Certains membres du Conseil ont exprimé leurs inquiétudes sur le fait que ce commentaire sur la situation des musulmans ouïghours pourrait être supprimé ou sous-évalué dans les pays étroitement liés à la Chine.
Dans le même temps, le Conseil reconnaît que le droit à la liberté d’expression n’est pas absolu et peut être soumis à des restrictions en vertu du droit international des droits de l’homme.
Dans un premier temps, le Conseil a évalué si le contenu était sujet à une restriction obligatoire en vertu du droit international des droits de l’homme. Le Conseil a estimé que le contenu ne faisait pas la promotion d’une haine religieuse constituant une incitation à la discrimination, l’hostilité ou la violence, qui doivent être interdits en vertu de l’article 20, paragraphe 2 du PIDCP. Le Conseil a pris en considération les facteurs cités dans le Plan d’action de Rabat des Nations Unies, y compris le contexte, le contenu de la publication et la probabilité de violence. Même si la publication avait un ton péjoratif, le Conseil n’a pas pris en considération qu’il faisait la promotion de la haine ni qu’il incitait intentionnellement à toute forme de violence.
Le Conseil s’est également demandé si ce contenu pouvait faire l’objet d’une restriction en vertu de l’article 19, paragraphe 3. Cette disposition du droit international des droits de l’homme exige que les restrictions de l’expression doivent être définies et facilement comprises (exigence de légalité), qu’elles aient pour but de promouvoir un ou plusieurs des objectifs listés (exigence d’objectif légitime) et qu’elles soient nécessaires et taillés sur mesure pour l’objectif spécifique (exigence de nécessité et de proportionnalité).
Le Conseil reconnaît que Facebook poursuivait un objectif légitime au travers de la restriction : protéger les droits d’autrui par rapport à la vie, la sécurité de la personne, les préjudices corporel ou moral et à la protection contre la discrimination. Le Conseil reconnaît que le discours haineux en ligne en Birmanie a été lié à de graves violences hors ligne, y compris des accusations de possibles crimes contre l’humanité et de génocide. Le Conseil reconnaît donc qu’il est important de protéger les droits des personnes qui peuvent être victimes de discrimination et de violence, ou même courent le risque de subir des atrocités.
Néanmoins, le Conseil conclut que même si certains peuvent considérer la publication comme offensante et insultante envers les musulmans, le Conseil ne considère pas sa suppression comme nécessaire pour protéger les droits de tiers.
Le Conseil reconnaît que le discours haineux en ligne est un thème complexe à modérer et que les caractéristiques linguistiques et culturelles comme le sarcasme rendent la chose encore plus difficile. Dans ce cas, rien n’indiquait que la publication contenait des menaces envers des individus identifiables.
Le Conseil reconnaît qu’il est difficile pour Facebook d’évaluer l’intention derrière les publications individuelles dans le cadre de la modération du contenu à grande échelle et en temps réel. Bien que cela ne soit pas décisif, le Conseil a considéré la réclamation de l’utilisateur qui affirmait dans son appel qu’il était opposé à toute forme d’extrémisme religieux. Le fait que la publication se trouvait dans un groupe qui se réclamait être destiné à la discussion intellectuelle et philosophique et qu’elle attirait l’attention sur la discrimination contre les musulmans ouïghours en Chine est venu appuyer la revendication de l’utilisateur. Dans le même temps, certains membres du Conseil ont estimé que les références de l’utilisateur à l’enfant réfugié décédé étaient insensibles.
Le Conseil souligne que restaurer une publication en particulier n’implique pas qu’il soit d’accord avec le contenu de celle-ci. Même dans des circonstances où la discussion sur la religion ou l’identité est sensible et peut offenser, il reste important de pouvoir discuter ouvertement. Il est peu probable que la suppression de ce contenu réduise les tensions ou protège des personnes de la discrimination. Il existe des façons plus efficaces d’encourager la compréhension entre des groupes différents.
Le Conseil souligne également que la sensibilité de Facebook à un possible discours haineux en Birmanie est compréhensible, étant donné l’historique de violence et de discrimination contre les musulmans dans ce pays, le contexte de risque accru autour des élections et les informations limitées disponibles à ce moment-là. Dans ces circonstances, la prudence de Facebook témoignait d’une reconnaissance générale des responsabilités de l’entreprise concernant les droits de l’homme. Cependant, pour ce contenu spécifique, le Conseil a conclu que Facebook n’aurait pas dû supprimer le contenu.
9. Décision du Conseil de surveillance
9.1 Décision concernant le contenu
Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée.
Le Conseil comprend que les photos porteront à nouveau un écran d’avertissement en vertu du Standard de la Communauté en matière de contenu explicite et violent.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et doivent être acceptées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques