Renversé

Débat en bengali sur la religion

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook avec un lien vers une vidéo YouTube qui abordait la réticence des théologiens de l’Islam à discuter de l’athéisme.

Type de décision

Résumé

Politiques et sujets

Sujet
Communautés marginalisées, Liberté d’expression, Religion
Norme communautaire
Attaques coordonnées et promotion d’actes criminels

Régions/Pays

Emplacement
Bangladesh, Inde

Plate-forme

Plate-forme
Facebook

Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.

Résumé du cas

Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook avec un lien vers une vidéo YouTube qui abordait la réticence des théologiens de l’Islam à discuter de l’athéisme. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.

Description du cas et contexte

En mai 2023, un utilisateur qui s’identifie comme un athéiste et critique de la religion a publié un lien vers une vidéo YouTube sur Facebook. La miniature de la vidéo pose la question suivante en bengali : « Why are Islamic scholars afraid to debate the atheists on video blogs? » (Pourquoi les théologiens de l’Islam ont-ils peur de débattre avec des athéistes sur les blogs vidéo ?) et contient une image de deux théologiens de l’Islam. La légende de la publication est la suivante : « Join the premiere to get the answer! » (Visionnez la première pour le savoir !) Le contenu a été vu quelque 4000 fois.

Dans son appel au Conseil, l’utilisateur prétend que la vidéo a été partagée dans le but de promouvoir « a healthy debate or discussion » (une discussion ou un débat sain) avec des théologiens de l’Islam, en particulier sur des sujets tels que la théorie de l’évolution et la théorie du Big Bang. L’utilisateur déclare que cette publication est conforme aux Standards de la communauté Facebook parce qu’elle « promoting open discussion » (promeut les échanges constructifs). En outre, l’utilisateur a insisté sur le fait que les activistes athéistes font souvent l’objet d’une censure et de violences au Bangladesh.

Meta a d’abord supprimé le contenu en vertu de sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles, qui interdit « la facilitation, l’organisation, la promotion ou l’admission de certaines activités criminelles ou nuisibles visant des personnes, des entreprises, des biens ou des animaux » dans les contenus. Meta a reconnu que le contenu en question n’enfreignait pas cette politique, bien que les opinions de l’athéiste puissent être considérées comme « provocantes pour de nombreuses personnes au Bangladesh ». Meta n’a pas offert d’autre explication quant à la raison pour laquelle le contenu a été retiré de la plateforme. Bien qu’une attaque directe à l’encontre de personnes sur la base de leur affiliation religieuse puisse être supprimée pour discours haineux (une autre politique de Meta), les politiques de l’entreprise n’interdisent aucunement la critique des idéologies ou des concepts d’une religion.

Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles, et que la suppression était injustifiée. L’entreprise a ensuite restauré le contenu sur Facebook.

Autorité et champ d’application du Conseil

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).

Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.

Importance du cas

Ce cas met en évidence une erreur d’application de la politique de Meta relative aux attaques coordonnées et à la promotion d’actions criminelles. Ces types d’erreurs de modération limitent encore davantage la liberté d’expression des membres de groupes qui font déjà l’objet d’une censure sévère par les autorités étatiques.

La politique de Meta relative aux attaques coordonnées et à la promotion d’actions criminelles stipule que Meta autorise les utilisateurs et les utilisatrices à discuter et à débattre d’« activités nuisibles » tant qu’elles « ne défendent pas ou n’organisent pas de préjudice », nombre des clauses de la politique étant centrées sur l’intention recherchée par la publication. Dans le cas présent, même si la publication de l’utilisateur pouvait être considérée comme provocante (compte tenu de l’animosité avérée à l’encontre des activités athéistes au Bangladesh), l’utilisateur n’a pas défendu ni organisé de préjudice, selon la définition donnée par Meta à de telles activités, ce qui met en évidence le fait que l’intention de l’utilisateur a été mal interprétée. Précédemment, le Conseil a recommandé à plusieurs reprises à Meta de clarifier la manière dont les utilisateurs et les utilisatrices peuvent exprimer clairement leurs intentions non violentes en établissant des distinctions similaires à celles qui sont opérées dans la politique de l’entreprise sur les organismes et les individus dangereux. En ce qui concerne cette politique, le Conseil a encouragé Meta à « expliquer dans les Standards de la communauté comment les utilisateurs peuvent faire comprendre à [Meta] l’intention sous-entendue par leurs publications […] Facebook devrait également fournir des exemples illustratifs pour définir la limite entre les contenus autorisés et interdits » (recommandation n° 6 de la décision sur l’Isolement d’Öcalan. Meta a partiellement suivi cette recommandation.

En outre, le Conseil a émis des recommandations dans le but de prévenir les erreurs de modération dans un sens plus large. Le Conseil a demandé à Meta d’« implémente[r] une procédure d’examen interne pour analyser continuellement un échantillon statistiquement représentatif des décisions de suppression de contenu automatisées afin d’annuler les erreurs de modération et d’en tirer des leçons » (recommandation n° 5 de la décision sur les Symptômes du cancer du sein et nudité). Meta a affirmé qu’elle y travaillait, mais n’a pas publié d’informations pour en donner la preuve. En outre, le Conseil a demandé à Meta d’« améliorer la qualité des informations qu’elle fournit au public au sujet du taux d’erreurs de modération en ajoutant ce taux par pays, par langue et par standard de la communauté dans ses rapports de transparence […] des rapports de transparence plus détaillés aideront le public à détecter les endroits où les erreurs sont les plus fréquentes, y compris les répercussions spécifiques susceptibles de toucher les groupes minoritaires, et à alerter Facebook pour que l’entreprise y remédie » (recommandation n° 3 de la décision Inquiétude pendjabie concernant le RSS en Inde). Meta est toujours en train d’évaluer la faisabilité de cette recommandation.

Décision

Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté ce cas à l’attention de l’entreprise. Le Conseil encourage également Meta à accélérer la mise en œuvre des recommandations restantes pour limiter ce type d’erreurs.

Retour aux décisions de cas et aux avis consultatifs politiques