Renversé
Corruption de la police en Indonésie
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook contenant une vidéo sur la corruption de la police indonésienne. Ce cas met en lumière une incohérence dans la manière dont Meta applique sa politique en matière de violence et d’incitation aux déclarations politiques métaphoriques, ce qui peut constituer un facteur dissuasif important pour la libre expression en ligne au sujet des gouvernements. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restitué la publication.
Il s’agit d’un résumé de la décision Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions comprennent des informations sur les erreurs reconnues de Meta. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil dans son ensemble. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’application de sa politique pourrait être améliorée.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook contenant une vidéo sur la corruption de la police indonésienne. Ce cas met en lumière une incohérence dans la manière dont Meta applique sa politique en matière de violence et d’incitation aux déclarations politiques métaphoriques, ce qui peut constituer un facteur dissuasif important pour la libre expression en ligne au sujet des gouvernements. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restitué la publication.
Description du cas et contexte
En avril 2023, un utilisateur de Facebook a publié une vidéo dans laquelle il dénonce en Bahasa Indonesia les pratiques de corruption de la police nationale indonésienne. L’utilisateur a affirmé que le chef de la police nationale avait déclaré : « If I can’t clean my tail, I’ll cut off its head. » (Si je ne peux pas nettoyer les fondations, je couperai des têtes). L’utilisateur a remarqué que ces fondations sales impossibles à nettoyer étaient en réalité devenu des têtes, car les pratiques de corruption des agents de police subordonnés étaient préservées et maintenues par les hauts gradés des forces de police. L’utilisateur a également nommé certains individus en particulier impliqués dans des affaires de corruption qui ont depuis été promus. Une légende apparaît sous la vidéo disant « How could a dirty broom clean a dirty floor? » (Comment un balai sale peut-il nettoyer un endroit sale ?).
Le Conseil comprend que l’analogie du chef de la police nationale signifie qu’il adoptait une position ferme concernant la corruption et que s’il ne pouvait pas éradiquer la corruption parmi les agents de police subordonnés, il prendrait des mesures contre les hauts gradés. Le Conseil considère que les remarques de l’utilisateur affirmant que « dirty tails became heads » (les fondations sales sont devenues des têtes) sont ironiques, en suggérant que les agents corrompus des échelons les plus bas ont monté en grade et sont devenus des officiers corrompus. Si on y ajoute la légende qui évoquait le « dirty broom » (balai sale), le Conseil considère que c’est la raison pour laquelle l’utilisateur a pensé que la corruption était endémique en Indonésie.
Meta a d’abord supprimé la publication de Facebook, en évoquant sa politique sur la violence et l’incitation, en vertu de laquelle l’entreprise supprime le contenu qui contient des « menaces qui peuvent occasionner le décès (et d’autres formes de violence de haute gravité)… en ciblant des personnes ».
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que la suppression était incorrecte et a rétabli le contenu sur la plateforme. L’entreprise a expliqué au Conseil que, au lieu de cibler une personne ou un groupe de personnes en particulier, l’utilisateur a attiré l’attention sur la nature généralisée de la corruption et la relation entre les hauts gradés de la police et les subordonnés. Meta a donc conclu que le contenu ne faisait pas état d’une violence ciblée, tel que requis pour constituer une infraction en vertu de la politique sur la violence et l’incitation.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut sélectionner ce cas pour un résumé de la décision (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux faire comprendre le processus de modération des contenus, de réduire les erreurs et d’accroître l’équité pour les utilisateurs de Facebook et d’Instagram.
Importance du cas
Ce cas met en évidence une incohérence dans la façon dont Meta applique sa politique en matière de violence et d’incitation aux déclarations politiques métaphoriques. L’incohérence pourrait représenter un important effet dissuasif face aux critiques des gouvernements. Ce cas souligne l’importance de concevoir des systèmes de modération sensibles au contexte en tenant compte de l’ironie, de la satire ou du discours rhétorique, en particulier pour protéger le discours politique. Dans le cadre de ses décisions sur le cas, le Conseil a donc enjoint Meta à mettre en place des procédures dédiées pour évaluer le contenu en fonction de son contexte pertinent ( Meme aux deux boutons, recommandation n° 3). Meta s’est engagée à mettre en place cette recommandation. Sa mise en œuvre intégrale, ici en vue d’évaluer le contenu en Bahasa Indonesia, peut permettre de réduire le taux d’erreur de la modération des contenus lorsque les utilisateurs discutent de la façon dont les gouvernements exercent leur pouvoir, dans un contexte où la valeur de liberté d’expression de Meta est particulièrement importante.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques