Renversé
Commentaire sur l’élection du maire de Karachi
Un utilisateur de Facebook a fait appel de la décision de Meta de supprimer son commentaire sur les résultats de l’élection du maire de Karachi et mentionnant Tehreek-e-Labbaik Pakistan (TLP), un parti désigné en vertu de la politique de Meta sur les personnes et organisations dangereuses.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles n’impliquent pas de processus de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur de Facebook a fait appel de la décision de Meta de supprimer son commentaire sur les résultats de l’élection du maire de Karachi en 2023 et mentionnant Tehreek-e-Labbaik Pakistan (TLP), un parti politique islamiste d’extrême droite désigné en vertu de la politique de Meta sur les personnes et organisations dangereuses. Ce cas met en évidence l’application excessive de cette politique et son impact sur la capacité des utilisateurs à partager des commentaires politiques et des reportages d’actualités. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré le commentaire.
Description du cas et contexte
En juin 2023, un utilisateur de Facebook a commenté la publication d’une photo montrant l’homme politique karachite Hafiz Naeem ur Rehman avec l’ancien Premier ministre pakistanais Imran Khan et le Secrétaire général du parti politique Jamaat-e-Islami, Liaqat Baloch. Le commentaire représente un graphique issu d’une émission télévisée, qui montre le nombre de sièges remportés par les différents partis lors de l’élection du maire de Karachi. L’un des partis mentionnés sur la liste est Tehreek-e-Labbaik Pakistan (TLP), un parti politique islamiste d’extrême droite au Pakistan. L’élection du maire de Karachi de 2023 a donné lieu à une course acharnée, à tel point que l’un des partis vaincus a prétendu que l’élection avait été truquée, occasionnant de violentes manifestations entre les soutiens des différents partis.
Meta a d’abord supprimé le commentaire de Facebook, invoquant sa politique relative aux personnes et organisations dangereuses, en vertu de laquelle l’entreprise supprime les types de contenu qui « glorifient », « soutiennent techniquement » ou « représentent » des personnes et organisations qu’elle considère comme dangereuses. Cependant, la politique reconnaît que « les utilisateurs peuvent partager des contenus incluant des références à des personnes et organisations dangereuses dans le cadre d’un discours social et politique. Cela inclut les contenus qui apportent des informations, discutent en toute neutralité ou condamnent les personnes et organisations dangereuses ou leurs activités. »
Dans son appel déposé auprès du Conseil, l’utilisateur s’est désigné lui-même comme un journaliste et a indiqué que son commentaire concernait les résultats de l’élection du maire de Karachi. L’utilisateur a précisé que son intention dans ce commentaire était d’informer le public et d’évoquer le processus démocratique.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas ses politiques. La politique de Meta autorise les discussions neutres sur une entité désignée dans le cadre d’un discours social et politique, dans le cas présent, un reportage sur les résultats d’une élection.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre les processus de modération de contenu impliqués, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en lumière l’application excessive de la politique de Meta sur les personnes et organisations dangereuses. Les cas soumis au Conseil suggèrent que ce type d’erreurs surviennent trop fréquemment. Elles empêchent les utilisateurs, notamment les journalistes, de communiquer des informations factuelles sur les organisations désignées comme dangereuses. La réduction de ces erreurs doit être une priorité pour l’entreprise.
Le Conseil a émis plusieurs recommandations au sujet de la politique de Meta relative aux personnes et organisations dangereuses. Il conseille notamment d’« évaluer les procédures de modération automatisées pour la mise en application de la politique sur les personnes et organisations dangereuses », que Meta a refusé de mettre en œuvre (recommandation n° 2 de la décision Isolement d’Öcalan). Le Conseil a également recommandé à Meta d’« évaluer l’exactitude des équipes d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux personnes et organisations dangereuses afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application » (Mention des talibans dans les informations d’actualité, recommandation n° 5). Meta s’emploie à mettre à jour sa politique sur les personnes et organisations dangereuses, qui détaillera les approches adoptées par Meta au sujet des reportages d’informations et des discussions neutres et de condamnation. Par ailleurs, le Conseil a recommandé à Meta de « fournir une liste publique des personnes et organisations désignées comme dangereuses en vertu du Standard de la communauté sur les personnes et organisations dangereuses », ce que Meta a refusé de mettre en place suite à une évaluation de faisabilité (recommandation n° 3 de la décision Citation nazie).
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques