Candidat politique pakistanais accusé de blasphème
19 septembre 2024
Le Conseil a confirmé la décision de Meta de supprimer une publication contenant une accusation de blasphème à l’encontre d’un candidat politique. Dans la période précédant de peu les élections pakistanaises de 2024, le risque de préjudice était imminent. Toutefois, le Conseil estime qu’il est difficile de savoir si la règle pertinente de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit aux utilisateurs de révéler l’identité d’une personne issue d’un « groupe à risque » s’applique également aux personnalités publiques accusées de blasphème, au Pakistan ou ailleurs. Il est inquiétant de constater que ce cadre n’est pas facilement transposable entre les différentes cultures et les différentes langues, ce qui crée de la confusion pour les utilisateurs qui tentent de comprendre les règles. Meta devrait mettre à jour sa politique pour rendre plus clair le fait que les utilisateurs n’ont pas le droit de publier des accusations de blasphème à l’encontre d’individus identifiables dans des lieux où le blasphème est un crime et/ou où ces accusations représentent un risque important pour la sécurité des personnes accusées.
À propos du cas
En janvier 2024, un utilisateur d’Instagram a publié une vidéo de six secondes d’un discours d’un candidat aux élections pakistanaises de février 2024. Dans l’extrait, le candidat fait l’éloge de l’ancien Premier ministre Nawaz Sharif, en disant « the person after God is Nawaz Sharif » (juste après Dieu, il y a Nawaz Sharif). La vidéo comprenait du texte, par lequel l’utilisateur critiquait cet éloge, car selon lui il « crossing all limits of kufr » (dépassait toutes les limites du kufr) en laissant entendre que l’orateur ne croyait pas en les préceptes de l’Islam.
Trois utilisateurs d’Instagram ont signalé le contenu le lendemain de la publication et un examinateur a déduit que cela n’enfreignait pas les Standards de la communauté de Meta. Les utilisateurs qui ont signalé le contenu n’ont pas fait appel de cette décision. Plusieurs autres signalements ont eu lieu dans les jours qui ont suivi, mais Meta a maintenu son avis selon lequel le contenu n’enfreignait pas ses règles, après un examen manuel et la clôture automatique de certains signalements.
En février 2024, le système HERO (High Risk Early Review Operations, opérations d’examen précoce en cas de risque élevé) de Meta a identifié ce contenu pour un examen complémentaire sur la base d’indications selon lesquelles le contenu pouvait devenir viral. Le contenu a été transmis aux experts de la politique de Meta, qui l’ont supprimé pour infraction à la règle de la politique relative aux attaques coordonnées et promotion d’actions criminelles fondée sur la notion d’« outing » (dévoilement). Meta définit le « dévoilement » comme un contenu « dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Selon les directives de Meta destinées aux examinateurs, les groupes à risque en cas de dévoilement incluent les personnes accusées de blasphème au Pakistan. Lorsque la vidéo a été signalée par le système HERO et a été supprimée, elle avait été vue 48 000 fois et partagée plus de 14 000 fois. En mars 2024, Meta a transmis ce cas au Conseil de surveillance.
Les offenses liées à la religion sont contraires à la loi au Pakistan et les règles du pays relatives aux réseaux sociaux imposent la suppression du contenu en ligne « blasphématoire ».
Principales observations
Le Conseil estime que, étant donné les risques associés aux accusations de blasphème au Pakistan, supprimer le contenu était conforme à la justification de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles selon laquelle il faut « empêcher le préjudice hors ligne ».
Il n’est pas intuitif pour les utilisateurs que les risques auxquels sont confrontés les membres de certaines minorités religieuses ou de conviction soient liés à la notion de « dévoilement », telle qu’elle est communément comprise (en d’autres termes, les risques résultant de la divulgation publique d’un statut privé). L’utilisation du terme « outing » (dévoilement) dans ce contexte prête à confusion, en anglais comme en ourdou. Il n’est pas non plus clair que les personnes accusées de blasphème se considèreraient elles-mêmes comme des personnes issues d’un groupe à risque de « dévoilement » ou que les personnalités politiques feraient partie d’un « groupe à risque de dévoilement » dans le cadre de discours prononcés en public, surtout en période d’élections. En fait, la politique n’explique pas suffisamment clairement aux utilisateurs que la vidéo pourrait être en infraction.
En outre, la politique ne précise pas quels contextes sont couverts par la section interdisant le dévoilement et quels groupes sont considérés comme à risque. Elle n’indique pas non plus clairement que les personnes accusées de blasphème sont protégées dans les lieux où de telles accusations entraînent un risque de préjudice imminent. Meta a expliqué que, bien qu’elle dispose d’une liste interne de groupes à risque en cas de dévoilement, cette liste n’est pas disponible publiquement, afin que les acteurs malveillants ne puissent pas contourner les règles. Le Conseil n’est pas d’accord avec ce motif de manque de clarté général de la politique. Définir de manière claire les contextes de dévoilement et les groupes à risque informerait les cibles potentielles d’accusations de blasphème que de telles accusations enfreignent les règles de Meta et seront supprimées. Cela permettrait aux utilisateurs accusés de blasphème de signaler plus facilement ces situations dans des contextes où le blasphème entraîne des risques juridiques et de sécurité, notamment au Pakistan. Une plus grande spécificité de la règle publique peut également conduire à une application plus précise par les examinateurs.
Le Conseil se préoccupe également du fait que plusieurs examinateurs n’ont pas estimé que le contenu était en infraction, alors que des utilisateurs l’ont signalé à plusieurs reprises et que les directives internes de Meta, qui sont plus claires, indiquent explicitement que les personnes accusées de blasphème au Pakistan font partie d’un groupe à risque. Ce n’est que lorsque le système HERO de Meta a identifié ce contenu, apparemment une fois qu’il est devenu viral, que le contenu a été transmis aux experts en politique internes et a été considéré comme en infraction. Ainsi, les examinateurs locaux de Meta devraient recevoir une formation plus adaptée, en particulier dans des contextes comme celui du Pakistan.
Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de supprimer le contenu.
Le Conseil recommande à Meta ce qui suit :
- Mettre à jour sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles pour rendre plus clair le fait que les utilisateurs n’ont pas le droit de publier des accusations de blasphème à l’encontre d’individus identifiables dans des lieux où le blasphème est un crime et/ou où il existe un risque de sécurité important pour les personnes accusées de blasphème.
- Former les examinateurs locaux des régions où les accusations de blasphème entraînent un risque de préjudice imminent pour la personne accusée et leur fournir des directives plus spécifiques en matière de mise en application afin d’identifier efficacement les publications contenant de telles accusations et de prendre en compte la nuance et le contexte.
Pour plus d'informations
To read public comments for this case, click here.