Confirmé

Candidat politique pakistanais accusé de blasphème

Le Conseil maintient la décision de Meta de supprimer une publication contenant une accusation de blasphème à l’encontre d’un candidat politique, au vu du risque de préjudice imminent à l’approche des élections de 2024 au Pakistan.

Type de décision

Standard

Politiques et sujets

Sujet
Élections, Religion
Norme communautaire
Attaques coordonnées et promotion d’actes criminels

Régions/Pays

Emplacement
Pakistan

Plate-forme

Plate-forme
Instagram

Pour lire la décision en ourdou, cliquez ici.

مکمل فیصلہ اردو میں پڑھنے کے لیے، یہاں پر کلک کریں

Résumé

Le Conseil a confirmé la décision de Meta de supprimer une publication contenant une accusation de blasphème à l’encontre d’un candidat politique. Dans la période précédant de peu les élections pakistanaises de 2024, le risque de préjudice était imminent. Toutefois, le Conseil estime qu’il est difficile de savoir si la règle pertinente de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit aux utilisateurs de révéler l’identité d’une personne issue d’un « groupe à risque » s’applique également aux personnalités publiques accusées de blasphème, au Pakistan ou ailleurs. Il est inquiétant de constater que ce cadre n’est pas facilement transposable entre les différentes cultures et les différentes langues, ce qui crée de la confusion pour les utilisateurs qui tentent de comprendre les règles. Meta devrait mettre à jour sa politique pour rendre plus clair le fait que les utilisateurs n’ont pas le droit de publier des accusations de blasphème à l’encontre d’individus identifiables dans des lieux où le blasphème est un crime et/ou où ces accusations représentent un risque important pour la sécurité des personnes accusées.

À propos du cas

En janvier 2024, un utilisateur d’Instagram a publié une vidéo de six secondes d’un discours d’un candidat aux élections pakistanaises de février 2024. Dans l’extrait, le candidat fait l’éloge de l’ancien Premier ministre Nawaz Sharif, en disant « the person after God is Nawaz Sharif » (juste après Dieu, il y a Nawaz Sharif). La vidéo comprenait du texte, par lequel l’utilisateur critiquait cet éloge, car selon lui il « crossing all limits of kufr » (dépassait toutes les limites du kufr) en laissant entendre que l’orateur ne croyait pas en les préceptes de l’Islam.

Trois utilisateurs d’Instagram ont signalé le contenu le lendemain de la publication et un examinateur a déduit que cela n’enfreignait pas les Standards de la communauté de Meta. Les utilisateurs qui ont signalé le contenu n’ont pas fait appel de cette décision. Plusieurs autres signalements ont eu lieu dans les jours qui ont suivi, mais Meta a maintenu son avis selon lequel le contenu n’enfreignait pas ses règles, après un examen manuel et la clôture automatique de certains signalements.

En février 2024, le système HERO (High Risk Early Review Operations, opérations d’examen précoce en cas de risque élevé) de Meta a identifié ce contenu pour un examen complémentaire sur la base d’indications selon lesquelles le contenu pouvait devenir viral. Le contenu a été transmis aux experts de la politique de Meta, qui l’ont supprimé pour infraction à la règle de la politique relative aux attaques coordonnées et promotion d’actions criminelles fondée sur la notion d’« outing » (dévoilement). Meta définit le « dévoilement » comme un contenu « dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Selon les directives de Meta destinées aux examinateurs, les groupes à risque en cas de dévoilement incluent les personnes accusées de blasphème au Pakistan. Lorsque la vidéo a été signalée par le système HERO et a été supprimée, elle avait été vue 48 000 fois et partagée plus de 14 000 fois. En mars 2024, Meta a transmis ce cas au Conseil de surveillance.

Les offenses liées à la religion sont contraires à la loi au Pakistan et les règles du pays relatives aux réseaux sociaux imposent la suppression du contenu en ligne « blasphématoire ».

Principales observations

Le Conseil estime que, étant donné les risques associés aux accusations de blasphème au Pakistan, supprimer le contenu était conforme à la justification de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles selon laquelle il faut « empêcher le préjudice hors ligne ».

Il n’est pas intuitif pour les utilisateurs que les risques auxquels sont confrontés les membres de certaines minorités religieuses ou de conviction soient liés à la notion de « dévoilement », telle qu’elle est communément comprise (en d’autres termes, les risques résultant de la divulgation publique d’un statut privé). L’utilisation du terme « outing » (dévoilement) dans ce contexte prête à confusion, en anglais comme en ourdou. Il n’est pas non plus clair que les personnes accusées de blasphème se considèreraient elles-mêmes comme des personnes issues d’un groupe à risque de « dévoilement » ou que les personnalités politiques feraient partie d’un « groupe à risque de dévoilement » dans le cadre de discours prononcés en public, surtout en période d’élections. En fait, la politique n’explique pas suffisamment clairement aux utilisateurs que la vidéo pourrait être en infraction.

En outre, la politique ne précise pas quels contextes sont couverts par la section interdisant le dévoilement et quels groupes sont considérés comme à risque. Elle n’indique pas non plus clairement que les personnes accusées de blasphème sont protégées dans les lieux où de telles accusations entraînent un risque de préjudice imminent. Meta a expliqué que, bien qu’elle dispose d’une liste interne de groupes à risque en cas de dévoilement, cette liste n’est pas disponible publiquement, afin que les acteurs malveillants ne puissent pas contourner les règles. Le Conseil n’est pas d’accord avec ce motif de manque de clarté général de la politique. Définir de manière claire les contextes de dévoilement et les groupes à risque informerait les cibles potentielles d’accusations de blasphème que de telles accusations enfreignent les règles de Meta et seront supprimées. Cela permettrait aux utilisateurs accusés de blasphème de signaler plus facilement ces situations dans des contextes où le blasphème entraîne des risques juridiques et de sécurité, notamment au Pakistan. Une plus grande spécificité de la règle publique peut également conduire à une application plus précise par les examinateurs.

Le Conseil se préoccupe également du fait que plusieurs examinateurs n’ont pas estimé que le contenu était en infraction, alors que des utilisateurs l’ont signalé à plusieurs reprises et que les directives internes de Meta, qui sont plus claires, indiquent explicitement que les personnes accusées de blasphème au Pakistan font partie d’un groupe à risque. Ce n’est que lorsque le système HERO de Meta a identifié ce contenu, apparemment une fois qu’il est devenu viral, que le contenu a été transmis aux experts en politique internes et a été considéré comme en infraction. Ainsi, les examinateurs locaux de Meta devraient recevoir une formation plus adaptée, en particulier dans des contextes comme celui du Pakistan.

Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta de supprimer le contenu.

Le Conseil recommande à Meta ce qui suit :

  • Mettre à jour sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles pour rendre plus clair le fait que les utilisateurs n’ont pas le droit de publier des accusations de blasphème à l’encontre d’individus identifiables dans des lieux où le blasphème est un crime et/ou où il existe un risque de sécurité important pour les personnes accusées de blasphème.
  • Former les examinateurs locaux des régions où les accusations de blasphème entraînent un risque de préjudice imminent pour la personne accusée et leur fournir des directives plus spécifiques en matière de mise en application afin d’identifier efficacement les publications contenant de telles accusations et de prendre en compte la nuance et le contexte.

* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Description du cas et contexte

Fin janvier 2024, un utilisateur d’Instagram a publié sur Instagram un extrait vidéo de six secondes montrant le discours d’un candidat aux élections pakistanaises de février 2024, en ourdou. Dans l’extrait, le candidat fait l’éloge de l’ancien Premier ministre Nawaz Sharif, en disant « the person after God is Nawaz Sharif » (juste après Dieu, il y a Nawaz Sharif). La vidéo comprend du texte, par lequel l’utilisateur critiquait cet éloge, car selon lui il « crossing all limits of “kufr” » (dépassait toutes les limites du kufr), le kurf signifiant ne pas croire en Allah selon les préceptes de l’Islam.

Trois utilisateurs d’Instagram ont signalé le contenu le lendemain de la publication et un examinateur a déduit que cela n’enfreignait pas les Standards de la communauté de Meta. Les utilisateurs ayant signalé le contenu n’ont pas fait appel. Le lendemain, deux autres utilisateurs ont signalé le contenu. Les examinateurs ont chaque fois considéré que le contenu n’était pas en infraction. Trois jours après la publication, un autre utilisateur a signalé le contenu. Les examinateurs ont passé les signalements en revue et n’ont pas considéré que le contenu enfreignait les règles de Meta. Le contenu a ensuite été signalé neuf fois par d’autres utilisateurs les jours suivants, mais Meta a clôturé automatiquement ces signalements sur la base des décisions précédentes. Tous les signalements d’utilisateurs ont été examinés le jour même du signalement.

Début février, cinq jours après la publication, le système HERO (High Risk Early Review Operations, opérations d’examen précoce en cas de risque élevé) de Meta a identifié ce contenu pour un examen complémentaire sur la base de signaux indiquant que le contenu pouvait devenir viral. Le système HERO a fait remonter le contenu aux experts des politiques de Meta. Ils ont supprimé le contenu, car il enfreignait la politique relative aux attaques coordonnées et à la promotion d’actions criminelles en « dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Sur la base des directives de Meta destinées aux examinateurs, les groupes à risque en cas de dévoilement incluent les personnes accusées de blasphème au Pakistan. Au moment où l’extrait vidéo a été supprimé, il avait été vu environ 48 000 fois et partagé plus de 14 000 fois. Fin mars 2024, Meta a transmis ce cas au Conseil de surveillance.

Le Conseil a fait remarquer le contexte suivant en parvenant à sa décision.

L’extrait vidéo avait été publié à l’approche des élections pakistanaises de février 2024, lors desquelles Shehbaz Sharif, le frère de l’ancien Premier ministre Nawaz Sharif, a été élu au poste de Premier ministre pour la deuxième fois. Le candidat politique faisant l’éloge de Nawaz Sharif dans la vidéo est issu du même parti politique que les deux frères.

Selon des recherches demandées par le Conseil, de nombreux éléments de contenu reprenant cette vidéo d’accusation de blasphème avaient été publiés en ligne. Parallèlement, d’autres publications partagent l’extrait vidéo de six secondes, mais réfutent l’accusation de « kufr », en indiquant que l’extrait modifié sort le discours complet du candidat de son contexte. Une autre publication, qui comprenait 60 secondes du même discours enregistrées par une autre caméra, a été partagée plus de 1000 fois et vue environ 100 000 fois. Cette vidéo plus longue fournit un contexte plus complet de la référence à Allah faite par ce candidat aux élections, décrite comme blasphématoire dans le texte apposé sur l’extrait vidéo de ce cas.

Le Pakistan criminalise les offenses liées à la religion,en vertu des sections 295 à 298 du Code pénal pakistanais, notamment la profanation du Coran, les remarques désobligeantes sur le prophète Mahomet et l’intention délibérée et malveillante de heurter les « religious feelings » (sentiments religieux). Les règles relatives aux réseaux sociaux du Pakistan (2021) imposent la suppression du contenu en ligne « blasphemous » (blasphématoire). Par conséquent, des membres de minorités religieuses et des détracteurs présumés de l’Islam sont souvent jugés coupables de blasphème en raison de leurs publications en ligne et condamnés à mort. Selon la rapporteuse spéciale des Nations unies sur la liberté de religion ou de conviction, les membres des minorités religieuses sont souvent la cible des lois anti-blasphème et globalement qualifiés de « blasphémateurs » ou d’« apostats » (A/HRC/55/47, paragraphe 14). Au Pakistan, les musulmans ahmadis et les chrétiens font partie de ces cibles (A/HRC/40/58, paragraphe 37). La rapporteuse spéciale des Nations unies a également indiqué que même les membres des communautés religieuses majoritaires, y compris l’Islam, qui s’opposent à l’exploitation de leur religion pour justifier la violence « courent un risque accru d’être accusés de “trahison”
ou de “blasphème” et de subir des représailles » (A/HRC/28/66, paragraphe 7 ; voir aussi le commentaire public PC-29617). Les accusations de blasphème sont également utilisées pour intimider les opposants politiques.

Les accusations de blasphème ont également mené à du lynchage au Pakistan, comme c’est le cas depuis des décennies, même si cela n’a pas toujours impliqué les réseaux sociaux. Voici des exemples d’incidents récents :

  • En 2021, une foule a attaqué une usine d’équipements de sport et a roué de coups et brûlé un homme sri-lankais, entraînant son décès. L’homme en question avait été accusé d’avoir profané des affiches portant le nom du prophète Mahomet. Une vidéo partagée sur les réseaux sociaux montait la foule traînant le corps grièvement blessé de l’homme avant de le brûler vif sous les acclamations de centaines de personnes.
  • En février 2023, une foule a extrait un homme musulman de la garde de la police avant de le battre à mort, prétextant qu’il avait profané certaines pages du Coran. Une vidéo de l’incident a circulé sur les réseaux sociaux, montrant des personnes traînant l’homme par les jambes tout en le frappant avec des tiges et des barres en métal.
  • En août 2023, une foule a attaqué des églises chrétiennes, en les brûlant et en détruisant les maisons voisines et certains effets personnels des habitants, après que deux fidèles ont été soupçonnés d’avoir déchiré des pages du Coran et d’y avoir inscrit des remarques insultantes. Certains fidèles ont dû fuir leur foyer.
  • En février 2024, une femme a été sauvée par la police d’une potentielle attaque par une foule alors que les imprimés de sa robe avaient été confondus avec des versets du Coran. La foule s’était regroupée autour du restaurant où la femme mangeait. Elle s’est ensuite excusée publiquement.
  • En mai 2024, un homme chrétien âgé, Nazir Masih, a été attaqué par une foule pour avoir prétendument profané le Coran. L’homme a subi plusieurs traumatismes crâniens et a été amené à l’hôpital, où il est décédé. Début juin, une foule de 2500 personnes a organisé un rassemblement pour exprimer son approbation de ce meurtre.
  • En juin 2024, alors que le Conseil envisageait de traiter le cas présenté ici, un touriste local a été tué et son corps a été brûlé après qu’il a été accusé de profaner le Coran. La police avait arrêté cet homme, mais des centaines de personnes s’étaient rassemblées autour du poste de police où il était détenu, demandant qu’il leur soit livré. La foule avait alors attaqué le bâtiment et en avait extirpé l’homme. La foule a brûlé le corps après avoir battu l’homme à mort. Fin juin, la police avait déjà arrêté 23 personnes impliquées dans l’attaque.

Les personnalités politiques sont également ciblées par la violence liée au blasphème. Un des incidents les plus médiatisés impliquait l’ancien gouverneur du Pendjab, Salman Taseer, assassiné par son propre garde du corps en 2011. Salman Taseer était en faveur de l’abolition des lois anti-blasphème pakistanaises. Le garde du corps avait été condamné à mort, et des foules s’étaient rassemblées dans la rue pour protester. Après l’exécution du garde du corps, les manifestants ont érigé un sanctuaire autour de sa tombe. Un autre incident en 2011 impliquant des individus non identifiés a entraîné la mort du ministre fédéral des Minorités religieuses, Shahbaz Bhatti. Tout comme Salman Taseer, Shahbaz Bhatti se montrait critique à l’égard des lois anti-blasphème.

En plus de procédures spéciales des Nations unies, des organisations de défense des droits humains et de la liberté de religion ainsi que d’autres gouvernements ont condamné les violences groupées au Pakistan résultant d’accusations de blasphème. Des experts consultés par le Conseil ont confirmé que porter plainte contre une personne pour blasphème pouvait provoquer son arrestation pour la protéger de la violence des foules. Toutefois, comme l’a démontré l’incident de juin 2024, la détention policière peut ne pas suffire à protéger les personnes accusées de blasphème des violences des foules.

Malgré cela, les poursuites pour blasphème continuent au Pakistan et les publications sur les réseaux sociaux constituent la base des condamnations. Par exemple, un professeur risque la peine de mort est emprisonné depuis plus de 10 ans pour une publication Facebook supposément blasphématoire en 2013. Son avocat a été tué en 2014 pour l’avoir défendu. En 2020, la police a intenté une action pour blasphème contre un défenseur des droits humains à la suite d’une publication sur les réseaux sociaux. En mars 2024, un étudiant de 22 ans a été reconnu coupable de blasphème et condamné à mort pour avoir envoyé sur WhatsApp des images dénigrantes du prophète Mahomet et de ses épouses. Le gouvernement pakistanais a l’habitude de surveiller les contenus en ligne pour y détecter le blasphème et a ordonné aux entreprises de réseaux sociaux de restreindre l’accès aux publications qu’il considère comme blasphématoires. Le gouvernement a également rencontré Meta pour discuter des publications qu’il considère blasphématoires.

Dans son rapport de transparence couvrant juin à décembre 2023, Meta a indiqué avoir restreint l’accès, au Pakistan, à plus de 2500 publications signalées par l’autorité pakistanaise en charge des télécommunications pour infractions supposées à la législation locale, y compris des publications supposément blasphématoires ou partageant un « sentiment anti-religieux ». Ces rapports ne couvrent que du contenu que Meta a supprimé sur la base d’une demande du gouvernement, mais qui n’enfreignent pas autrement les politiques de Meta en matière de contenu (les publications signalées par le gouvernement que l’entreprise supprime pour infraction à la règle de Meta relative au « dévoilement » ne sont donc pas inclues dans ces données). Sur la base des informations fournies par Meta sur ce cas, il ne semble pas que le gouvernement ait demandé l’examen ou la suppression de ce contenu. En tant que membre de la Global Network Initiative, Meta s’est engagée à respecter la liberté d’expression lorsqu’elle est confrontée à des restrictions gouvernementales abusives quant au contenu.

2. Soumissions de l’utilisateur

L’utilisateur ne s’est pas exprimé sur ce cas.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Attaques coordonnées et promotion d’actions criminelles

La politique de Meta en matière d’attaques coordonnées et de promotion d’actions criminelles vise à « prévenir et empêcher le préjudice hors ligne et les comportements d’imitation » en interdisant « la facilitation, l’organisation, la promotion ou l’admission de certaines activités criminelles ou nuisibles visant des personnes, des entreprises, des biens ou des animaux ». Deux lignes de conduite des Standards de la communauté concernent le « dévoilement ». La première s’applique de manière générale et la seconde nécessite du « contexte supplémentaire pour mettre en application » (ce qui signifie que cette ligne de conduite n’est appliquée qu’après une escalade). La première ligne de conduite de cette politique s’applique à ce cas. Elle interdit spécifiquement : « le contenu dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Cette ligne de conduite n’indique pas quels groupes sont les « groupes à risque ». La seconde ligne de conduite, uniquement mise en application après une escalade, interdit également les « contenus dévoilant l’identité d’une personne et l’exposant à des risques de préjudices » concernant une liste spécifique de groupes vulnérables, notamment les membres de la communauté LGBTQIA+, les femmes ne portant pas le voile, les militants et les prisonniers de guerre. Les personnes accusées de blasphème ne font pas partie des groupes mentionnés.

Selon les directives internes de Meta fournies aux examinateurs, les « groupes à risque » de la première ligne de conduite comprennent les personnes accusées de blasphème au Pakistan, entre autres lieux spécifiques. De plus, le « dévoilement » doit être involontaire : une personne ne peut pas se dévoiler elle-même (par exemple, en déclarant faire partie d’un groupe à risque). Pour enfreindre la politique selon les directives internes de Meta, le fait que l’allégation de blasphème soit fondée ou que le contenu présente le blasphème de manière erronée n’a pas d’importance. Une simple allégation suffit à placer la personne accusée dans le groupe « à risque » et à faire supprimer le contenu.

Exception au titre de l’esprit de la politique

Meta peut appliquer une tolérance au titre de « l’esprit de la politique » à du contenu lorsque la justification de la Politique (le texte qui introduit tous les Standards de la communauté) et les valeurs de Meta exigent d’appliquer une stratégie différente de l’interprétation stricte des règles (établies dans la section « Ne publiez pas » et via la liste des contenus interdits). Dans de précédentes décisions, le Conseil a recommandé à Meta de fournir une explication publique de cette tolérance de la politique (Produits pharmaceutiques au Sri Lanka, recommandation n° 1 et Violences communautaires dans l’État indien d’Odisha). Les recommandations pertinentes ont été acceptées par Meta et, selon la dernière évaluation du Conseil, sont soit intégralement mises en application soit en cours d’application.

II. Soumissions de Meta

Meta a expliqué avoir ajouté les personnes accusées de blasphème au Pakistan à sa liste interne de « groupes à risque en cas de dévoilement » de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles fin 2017, à la suite de violences liées aux suspicions de blasphème dans le pays. Dans le cadre de ses efforts en faveur de l’intégrité des élections pour les élections de 2024 au Pakistan, Meta a donné la priorité à la surveillance du contenu comportant des accusations de blasphème, étant donné le risque important de préjudice hors ligne, y compris de violence extrajudiciaire, pouvant résulter de ces allégations. Meta estime que ces efforts en faveur de l’intégrité ont permis d’identifier le contenu de ce cas.

Lors de sa soumission du cas, Meta a souligné les contradictions qu’il existe entre la liberté d’expression et la sécurité dans ce genre de cas en période électorale. Meta a constaté la valeur de l’intérêt public dans la critique des candidats politiques tout en reconnaissant les divers risques pour la sécurité que posent les accusations de blasphème au Pakistan pour les personnalités politiques, comme la violence et la mort.

Meta a estimé que le texte apposé sur l’extrait vidéo, qui disait que le candidat aux élections avait « crossed all limits of kufr » (dépassé toutes les limites du kufr) constituait une accusation de blasphème. Pour Meta, ces propos suggèrent que le candidat politique est coupable de « shirk », c’est-à-dire le fait de croire en plus d’un dieu ou de considérer quelque chose ou quelqu’un comme étant égal à Dieu, ou que le candidat aux élections enfreint les lois pakistanaises contre le blasphème. Quoi qu’il en soit, Meta a estimé que le risque de préjudice hors ligne surpassait la potentielle valeur d’expression de la vidéo. L’entreprise a précisé que si le texte n’avait pas été ajouté à la vidéo, elle aurait été maintenue sur la plateforme.

Meta a également fourni des explications quant au système HERO qu’elle utilise pour détecter le contenu à haut risque (en plus des signalements d’utilisateurs) : le niveau de risque associé à un contenu dépend de la probabilité qu’il devienne viral. Meta utilise différents signaux pour prédire si un contenu deviendra viral. Ces signaux incluent la visibilité d’un élément de contenu sur l’écran d’un utilisateur, même partielle, la langue de la publication et le pays principal dans lequel le contenu a été partagé au moment de la détection. Le système HERO n’est pas lié à un Standard de la communauté en particulier. De plus, Meta n’a pas de définition fixe établie de ce qu’est un « haut niveau de viralité ». La viralité dépend plutôt de facteurs variables selon les marchés. Par conséquent, la pondération des signaux de haute viralité par Meta lors des événements à haut risque, notamment les périodes électorales, varie. Les équipes internes de Meta peuvent utiliser le nombre de vues pendant les périodes électorales pour répondre à des risques spécifiques. Ainsi, le système HERO identifie les contenus relevant de n’importe quelle politique, quelle que soit la probabilité d’une infraction.

Le Conseil à interrogé Meta sur la règle des « groupes à risque en cas de dévoilement » de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles et sur sa mise en application, sur les efforts de l’entreprise en faveur de l’intégrité des élections au Pakistan, et sur les demandes gouvernementales de retrait de certains contenus en vertu des lois pakistanaises contre le blasphème et des Standards de la communauté de Meta. Meta a répondu à toutes ces questions.

4. Commentaires publics

Le Conseil de surveillance a reçu trois commentaires publics répondant aux critères de soumission. Deux des commentaires ont été soumis depuis l’Europe et un depuis l’Asie centrale ou du Sud. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions abordaient les thèmes suivants : La modération par Meta des publications contenant des accusations de blasphème, l’effet sur les droits humains de telles accusations et les poursuites qui en découlent au Pakistan, et le rôle que jouent les accusations de blasphème à l’encontre de personnalités publiques au Pakistan et dans d’autres pays.

5. Analyse du Conseil de surveillance

Ce cas met en évidence les tensions entre la valeur de protection de la liberté d’expression de Meta, y compris les critiques politiques en période d’élections, et la nécessité d’assurer la sécurité des personnes accusées de blasphème, étant donné les menaces que cela peut engendrer pour leur vie et leur liberté au Pakistan.

Le Conseil a analysé la décision de Meta dans le cas présent, en la comparant à ses politiques relatives au contenu, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.

5.1 Respect des politiques de Meta relatives au contenu

I. Règles relatives au contenu

Le Conseil estime que la règle de la politique de Meta qui interdit de dévoiler l’identité de toute personne qui ferait partie d’un « groupe à risque en cas de dévoilement » n’a pas été enfreinte, car il n’est pas évident de déterminer si cette règle s’étend aux personnalités publiques accusées de blasphème au Pakistan.

Au Pakistan, bien que les membres de certaines minorités religieuses ou de conviction puissent être considérés comme un « groupe à risque » de préjudice, il n’est pas évident de déterminer si ce risque est lié à la notion de « dévoilement », telle qu’elle est communément comprise (c.-à-d., les risques résultant de la divulgation publique d’un statut privé). De même, les personnes accusées de blasphème ne se considèrent pas forcément elles-mêmes comme faisant partie d’un « groupe » (par rapport aux personnes partageant une caractéristique protégée, ce qui inclurait alors les minorités religieuses). En outre, il semble étonnant que les personnalités politiques fassent partie d’un « groupe à risque » pour les informations révélées dans les discours publics, en particulier dans un contexte électoral. En effet, d’autres parties des règles de Meta dans ce domaine font une distinction quant aux « personnalités politiques » et ne leur accordent pas de protection pour certaines formes de « dévoilement ».

Le Conseil estime que, même si les directives internes à l’intention des examinateurs contiennent des instructions de mise en application plus spécifiques listant les « groupes à risque en cas de dévoilement » (ou plus précisément, les contextes de risque) couverts par la politique, la politique destinée au public ne contient pas les éléments de base qui permettraient d’interdire clairement le contenu en question dans ce cas.

Toutefois, dans l’exercice de sa fonction d’arbitrage et de surveillance, le Conseil estime que la lecture de l’interdiction de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles à la lumière de la justification de la politique justifie la suppression du contenu, conclusion renforcée par l’analyse des droits humains ci-dessous. D’après la justification de la politique, le Standard de la communauté relatif aux attaques coordonnées et à la promotion des actions criminelles a pour but « de prévenir et d’empêcher le préjudice hors ligne » notamment en interdisant « la facilitation, l’organisation, la promotion ou l’admission de certaines activités criminelles ou nuisibles visant des personnes ». Meta autorise le débat sur la légalité ou la sensibilisation à des activités criminelles ou préjudiciables, pour autant que le message ne préconise pas ou ne coordonne pas un préjudice. Dans le cas présent, le Conseil estime que la suppression du contenu répond à la justification de la politique visant à empêcher tout préjudice hors ligne, compte tenu des risques juridiques et de sécurité que les accusations de blasphème peuvent entraîner au Pakistan. La publication de l’utilisateur ne peut être interprétée comme une sensibilisation ou un débat sur la légalité du blasphème au Pakistan. Au contraire, elle accuse une personne de blasphème à un endroit où elle pourrait faire l’objet de poursuites judiciaires et/ou être exposée à des risques pour sa sécurité. L’accusation portée contre le candidat politique a eu lieu dans la période précédant immédiatement les élections de février 2024, alors que le candidat devait être activement engagé dans sa campagne. Le risque de préjudice imminent, tel que la violence perpétrée par des groupes d’autodéfense et les poursuites pénales, était bien présent. Cela revenait à « faciliter » une activité criminelle ou préjudiciable interdite par la politique relative aux attaques coordonnées et à la promotion d’actions criminelles.

Une minorité des membres du Conseil estime que le contenu doit être supprimé sur la base de l’esprit de la politique. Pour cette minorité, cette exception à la politique ne doit être utilisée que de manière très exceptionnelle, en particulier s’il s’agit de supprimer du contenu. Toutefois, dans certaines situations, comme dans le cas présent, le risque de préjudice est élevé, mais le contenu n’est pas expressément interdit par les règles spécifiques de Meta relatives aux publications interdites. C’est le cas ici, car le Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles ne stipule pas expressément que les accusations de blasphème au Pakistan sont interdites. Toutefois, la suppression du contenu est conforme à l’esprit de la politique dans son ensemble et à ses objectifs de réduction des préjudices. Cette minorité considère que lorsque Meta supprime un contenu sur la base de « l’esprit de la politique », il convient de le documenter, afin que la pratique puisse être suivie et qu’elle puisse servir de base à l’identification des lacunes de la politique qu’il convient de combler.

5.2 Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que supprimer le contenu de la plateforme était conforme aux responsabilités de Meta en matière de droits humains, bien que Meta doive apaiser les craintes quant à la clarté de ses règles dans ce domaine et à la rapidité de leur mise en application.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du PIDCP comprend la liberté « de rechercher, de recevoir et de répandre des informations et des idées de toute espèce » et protège considérablement le droit à la liberté d’expression, y compris le « discours politique » et le commentaire sur les « affaires publiques ». Cela inclut les idées ou les positions pouvant être controversées ou profondément offensantes (Observation générale n° 34, paragraphe 11). La valeur de la liberté d’expression est particulièrement élevée lorsqu’il s’agit de discuter de questions d’intérêt public, et la liberté d’expression est considérée comme une « condition essentielle » à l’exercice effectif du droit de vote lors des élections (Observation générale n° 25, paragraphe 12). Toutes les personnalités publiques, y compris celles qui exercent la plus haute autorité politique comme les chefs d’État et de gouvernement, sont légitimement sujettes à la critique et à l’opposition politique (Observation générale n° 34, paragraphe 38).

Les lois anti-blasphème sont incompatibles avec l’article 19 du PIDCP (Observation générale n° 34, paragraphe 48). Selon le Haut-Commissaire des Nations unies aux droits de l’homme, le droit à la liberté de religion et de croyance n’inclut pas le droit d’avoir une religion exempte de critiques ou de railleries. Sur cette base, les lois anti-blasphème devraient être abrogées (voir Observation générale n° 34, paragraphe 48, A/HRC/31/18, paragraphes 59 et 60, le Plan d’action de Rabat, le rapport A/HRC/22/17/Add.4, paragraphe 19). Les lois anti-blasphème cultivent en effet souvent l’intolérance religieuse et conduisent à la persécution des minorités religieuses et des dissidents. Plutôt que de criminaliser le blasphème et les discours reflétant l’intolérance religieuse, la communauté internationale s’est ralliée en 2011 à la résolution 16/18 du Conseil des droits de l’homme des Nations unies, qui présente un ensemble utile de mesures ayant fait leurs preuves pour lutter contre l’intolérance religieuse et ne recourir aux interdictions d’expression qu’en cas de risque de violence imminente.

Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP, Observation générale n° 34, paragraphes 22 et 34). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de Nations unies, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce cadre à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid.). Le Rapporteur spécial des Nations unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Conseil estime que la politique relative aux attaques coordonnées et à la promotion d’actions criminelles qui interdit de dévoiler l’identité d’un membre d’un groupe à risque en cas de dévoilement n’est pas claire pour les utilisateurs. Premièrement, le Conseil estime que le terme « outing » (dévoilement) prête à confusion, que ce soit en anglais ou dans les différentes langues dans lesquelles la règle a été traduite, y compris l’ourdou. Alors que le terme « outing » (dévoilement) fait généralement référence au fait de révéler le statut privé d’autrui sans son accord et est souvent utilisé sans le contexte de la révélation non consentie de l’orientation sexuelle ou de l’identité de genre d’une personne, ce terme est moins souvent utilisé dans d’autres contextes, comme l’affiliation religieuse ou la foi. Les personnes accusées de blasphème n’ont pas tendance à se considérer comme étant à risque d’« outing » (de dévoilement). De plus, la traduction de l’expression « outing-risk group » (groupe à risque en cas de dévoilement) dans d’autres langues pose problème. Par exemple, la traduction en ourdou de la version publique de la politique prête particulièrement à confusion. Ainsi, un locuteur ourdou au Pakistan ne comprendrait pas que « شناخت ظاہر کرنا » signifie « outing risk » (risque en cas de dévoilement). La traduction ne précise pas non plus ce qu’un risque en cas de dévoilement signifie. Le Conseil est préoccupé par la possibilité que le cadre actuel ne puisse pas être traduit facilement dans tous les contextes culturels, résultant en une potentielle confusion pour les utilisateurs souhaitant comprendre les règles. Le manque de transparence est exacerbé par le fait que les Règles de la communauté d’Instagram n’ont pas de lien clair avec la politique de Meta relative aux attaques coordonnées et à la promotion d’actions criminelles, ce qui rendrait plus difficile pour l’utilisateur de savoir quelles règles s’appliquent au contenu accusant quelqu’un de blasphème.

Deuxièmement, la politique (publique) ne précise pas quels contextes sont couverts par cette ligne de conduite et quels groupes sont considérés comme à risque. Cette ligne de conduite n’indique pas clairement que les personnes accusées de blasphème sont protégées dans les lieux où de telles accusations représentent un risque de préjudice imminent. Cette situation est particulièrement problématique pour les membres des minorités religieuses qui sont le plus souvent la cible d’accusations de blasphème, en particulier lorsque les individus sont susceptibles, pour des raisons de sécurité, de garder discrètes leurs affiliations religieuses ou leurs croyances et d’être à risque d’un « outing » (dévoilement). Il est important pour ces communautés que les règles leur donnent l’assurance que les contenus mettant directement en danger leur sécurité sont interdits. Bien que les directives internes destinées aux examinateurs soient plus claires, le fait que les examinateurs n’aient pas réussi, à plusieurs reprises, à identifier correctement l’infraction que représentait la publication indique qu’elles sont encore insuffisantes.

Meta a expliqué ne pas rendre publique la liste des groupes à risque en cas de dévoilement pour éviter que les acteurs malveillants puissent contourner les règles. Le Conseil n’est pas d’accord avec ce motif de manque de clarté de la politique. Définir de manière claire les contextes de dévoilement et les groupes à risque couverts par cette politique informerait les cibles potentielles d’accusations de blasphème que de telles accusations enfreignent les règles de Meta et seront supprimées. En fait, Meta le fait déjà dans l’autre ligne de conduite interdisant le dévoilement, celle pour laquelle plus de contexte est nécessaire avant la mise en application. Cette ligne de conduite, inutile pour ce cas, reprend différents groupes à risque en cas de dévoilement (par exemple, les membres de la communauté LGBTQIA+, les femmes ne portant pas le voile, les traîtres et les prisonniers de guerre) couverts par cette ligne de conduite. Adopter la même approche pour les accusations de blasphème ne s’écarterait donc pas de l’approche actuelle de Meta en matière de clarté pour ses utilisateurs sur d’autres lignes de conduite comparables où les risques et les compromis semblent être similaires. Cette clarté permettrait alors aux utilisateurs accusés de blasphème de signaler plus facilement ces situations dans des contextes où cela présente des risques juridiques et de sécurité, notamment au Pakistan. Une plus grande spécificité de la règle destinée au public pourrait également conduire à une application plus précise par les examinateurs manuels.

Le Conseil exhorte Meta de spécifier dans ses règles destinées au public que les accusations de blasphème et d’apostasie à l’encontre d’individus sont interdites dans certains lieux où elles entraînent des risques juridiques et de sécurité. Cela serait non seulement beaucoup plus clair dans une règle distincte, séparée du concept d’« outing » (de dévoilement), mais aussi cohérent avec l’approche de Meta quant à l’énumération des groupes à risque dans d’autres parties de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles. Le Conseil n’envisage pas que tous les détails soient exposés dans la version destinée au public du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles. Cependant, mentionner au moins les éléments pertinents du contenu interdit, tels que les types de groupes protégés, les types de lieux auxquels la règle s’applique et les types de propos qui tombent sous le coup de l’interdiction, apporterait plus de clarté aux utilisateurs. Cela répondrait à la préoccupation de Meta concernant les acteurs malveillants qui tenteraient de contourner les règles tout en informant les cibles potentielles d’accusations de blasphème que ce type de contenu est interdit.

II. Objectif légitime

Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3 du PIDCP). Cela inclut les droits à la vie, à la liberté et à la sécurité des individus (articles 6 et 9 du PIDCP). Le Conseil reconnaît également que protéger les individus de poursuites judiciaires n’est pas considéré comme un objectif légitime en vertu des standards internationaux en matière de droits humains. Le Conseil a déjà reconnu précédemment que la politique de Meta en matière d’attaques coordonnées et de promotion d’actions criminelles poursuivait l’objectif légitime de protéger les droits d’autrui dans le contexte des élections, comme le droit de vote (Règles de vote de la commission électorale australienne). Le Conseil estime que l’objectif de la politique « de prévenir et d’empêcher le préjudice hors ligne » est conforme à l’objectif légitime de protection des droits à la vie, à la liberté et à la sécurité des individus.

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).

Le Conseil estime que la suppression du contenu dans ce cas est conforme au principe de nécessité et de proportionnalité et que les six facteurs d’évaluation de l’incitation à la violence et à la discrimination du Plan d’action de Rabat permettent d’évaluer la probabilité d’un préjudice résultant de cette publication. Ces facteurs sont le contenu et la forme des propos, l’intention du locuteur, l’identité du locuteur, la portée des propos, ainsi que la probabilité et l’imminence du préjudice.

En ce qui concerne le contenu et la forme de l’expression et l’intention du locuteur, comme indiqué ci-dessus, le contenu de la publication communique clairement le désir d’accuser le candidat politique de blasphème, sans indication de l’intention de sensibiliser à la légalité d’un tel discours ou d’en débattre.

En ce qui concerne l’identité du locuteur et la portée de son contenu, le Conseil note que l’utilisateur n’est pas une personnalité publique ayant une influence sur d’autres personnes et qu’il a relativement peu de followers. Néanmoins, les paramètres de confidentialité du compte étaient réglés sur « public » au moment où le contenu a été publié, et le contenu a été partagé environ 14 000 fois par quelque 9000 utilisateurs. Cela indique que même les propos de personnalités non publiques peuvent se répandre très largement sur les réseaux sociaux et que la viralité est difficile à prévoir. La couverture de cette publication a augmenté la probabilité qu’elle cause un préjudice, même si la personne qui en est à l’origine ne semble pas occuper une position d’autorité.

Le Conseil considère qu’il existe une probabilité de préjudice imminent compte tenu du contexte des accusations de blasphème au Pakistan, où de telles accusations constituent un risque important d’atteinte à l’intégrité physique, voire de mort. Ce contexte d’interdictions légales nationales, de poursuites judiciaires et de violences de la part de groupes d’autodéfense est décrit dans la section 1 ci-dessus (voir également les commentaires publics PC-29615 et PC-29617).

Compte tenu de l’examen des six facteurs Rabat, le Conseil estime qu’il était nécessaire et proportionné de supprimer la publication en question.

De plus, le Conseil est particulièrement préoccupé par le fait que de nombreux examinateurs appliquant les Standards de la communauté de Meta ont tous trouvé que le contenu ne constituait pas une infraction. Et ce, en dépit des signalements répétés des utilisateurs et de la priorité accordée par Meta à la répression de ce type de contenu dans le cadre de ses efforts en faveur de l’intégrité des élections au Pakistan, compte tenu du risque élevé de préjudice hors ligne que cela pourrait représenter. Ce n’est que lorsque le système HERO de Meta a identifié ce contenu plusieurs jours plus tard, apparemment une fois qu’il est devenu viral, que le contenu a été transmis aux experts en politique internes et a été considéré comme constituant une infraction au Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles. Différents examinateurs ont manqué les occasions de supprimer ce contenu, ce qui montre la nécessité de dispenser une formation sur mesure aux examinateurs pour qu’ils sachent comment repérer les infractions dans des contextes tels que celui du Pakistan. C’est particulièrement important dans les contextes électoraux, où les tensions peuvent s’intensifier et où une mise en application précise est essentielle pour éviter les restrictions inutiles de la liberté d’expression et prévenir le préjudice hors ligne. Au moment d’évaluer si ses efforts en matière d’intégrité électorale au Pakistan ont été efficaces, Meta devrait s’interroger sur les raisons pour lesquelles tant d’examinateurs n’ont pas pu détecter correctement cette publication, et sur la manière de garantir à l’avenir des efforts plus efficaces en matière d’intégrité électorale dans des pays présentant des risques similaires.

Si les accusations de blasphème peuvent créer des risques importants pour les personnalités politiques dans les pays où le blasphème est criminalisé, il peut néanmoins exister des discussions importantes sur le blasphème, en particulier dans le contexte des élections. Meta doit faire preuve de prudence afin d’éviter une application excessive de la politique à l’encontre de contenus qui n’accusent pas des personnes de blasphème, mais qui participent plutôt à des discussions politiques. Une telle suppression excessive serait particulièrement préoccupante dans les contextes où le discours politique est déjà soumis à des restrictions gouvernementales excessives qui ne sont pas conformes aux lois internationales en matière de droits humains. Tous les contenus utilisant le terme « kufr » ne constituent pas une accusation de blasphème, comme le montre la variété de vidéos similaires partagées sur les mêmes événements que dans ce cas. Le Conseil rappelle donc à Meta que ses responsabilités en matière de droits humains l’obligent à respecter l’expression politique lorsque le contenu est partagé pour contrer des accusations de blasphème ou pour engager des discussions sur le blasphème sans mettre des individus en danger. Il est important que la formation des modérateurs souligne l’importance de la liberté d’expression dans ce contexte et leur permette de transmettre les décisions à des équipes plus spécialisées lorsqu’une analyse contextuelle plus poussée est nécessaire pour parvenir à une décision correcte.

6. Décision du Conseil de surveillance

Le Conseil de surveillance confirme la décision de Meta de retirer le contenu.

7. Recommandations

Politique de contenu

1. Afin d’assurer la sécurité des personnes ciblées par des accusations de blasphème, mettre à jour la politique relative aux attaques coordonnées et promotion d’actions criminelles pour rendre plus clair le fait que les utilisateurs n’ont pas le droit de publier des accusations de blasphème à l’encontre d’individus identifiables dans des lieux où le blasphème est un crime et/ou où il existe un risque de sécurité important pour les personnes accusées de blasphème.

Le Conseil considérera que cette recommandation a été mise en application lorsque Meta mettra à jour son Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles à destination du public afin de refléter cette modification.

Mise en application

2. Pour garantir une mise en application adéquate de la ligne de conduite de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles contre les accusations de blasphème dans les lieux où de telles accusations représentent un risque imminent de préjudice pour la personne accusée, Meta devrait former les examinateurs locaux couvrant ces lieux et leur fournir des conseils de mise en application plus spécifiques leur permettant d’identifier et de prendre en compte efficacement les nuances et le contexte dans les publications contenant des accusations de blasphème.

Le Conseil considérera que cette recommandation est mise en application lorsque Meta aura fourni des documents internes mis à jour démontrant que la formation des examinateurs locaux pour mieux détecter ce type de contenu a eu lieu.

* Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, un groupe d’investigations numériques fournissant des services de conseil en matière de risques et de renseignements sur les menaces pour atténuer les préjudices en ligne, a également fourni des recherches. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques