Renversé
Illustration montrant l’oppression des femmes par les talibans
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook contenant une illustration représentant l’oppression des femmes afghanes sous le régime des talibans. Ce cas met en évidence des failles dans les pratiques de modération de Meta relatives à sa politique sur les organismes et les individus dangereux.
Il s’agit d’un résumé de la décision. Les résumés des décisions examinent les cas où Meta est revenue sur sa décision initiale concernant un élément de contenu après que le Conseil a porté l’affaire à l’attention de l’entreprise. Ces décisions incluent des informations sur les erreurs reconnues de Meta, et informent le public sur l’impact du travail du Conseil. Elles sont approuvées par un groupe de membres du Conseil, et non par le Conseil tout entier. Elles ne tiennent pas compte des commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les résumés des décisions assurent la transparence des corrections apportées par Meta et mettent en évidence les domaines dans lesquels l’entreprise pourrait améliorer l’application de sa politique.
Résumé du cas
Un utilisateur a fait appel de la décision de Meta de supprimer une publication Facebook contenant une illustration représentant l’oppression des femmes afghanes sous le régime des talibans. Ce cas met en évidence une faille dans les pratiques de modération de Meta relatives à sa politique relative aux organismes et individus dangereux, notamment dans un contexte de débat politique diffusé par le biais de contenu satirique. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication.
Description du cas et contexte
En août 2023, un utilisateur de Facebook, illustrateur professionnel néerlandais, a publié une illustration représentant trois hommes talibans assis sur une machine destinée à écraser les voitures dans une casse automobile. Des femmes en détresse sont illustrées sous la machine. Derrière les hommes, l’illustrateur a ajouté une jauge étiquetée « oppress-o-meter » (opress-o-mètre). Cette jauge est reliée à un tableau de commande et l’un des hommes appuie sur un bouton afin de faire descendre la machine. La légende qui accompagne l’illustration dit : « 2 years of Taliban rule. #Afghanistan #Taliban #women #oppression. » (2 ans de règne des talibans. #Afghanistan #talibans #femmes #oppression). La publication avait été supprimée pour infraction à la politique relative aux organismes et individus dangereux qui interdit la représentation de groupes et d’individus que l’entreprise estime liés à des préjudices dans le monde réel ainsi que certains propos les concernant.
Dans son appel au Conseil, l’utilisateur a indiqué que le contenu en question était une illustration politique satirique au sujet de l’oppression des femmes en Afghanistan, qui se poursuit et s’aggrave sous le règne des talibans. La politique de Meta relative aux organismes et individus dangereux autorise le contenu qui signale, condamne ou engage une discussion neutre sur les activités, les organismes et les individus dangereux.
Après que le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que le contenu n’enfreignait pas la politique relative aux organismes et individus dangereux et que sa suppression était injustifiée. L’entreprise a ensuite restauré le contenu sur Facebook.
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook et Instagram.
Importance du cas
Ce cas met en évidence les défauts des pratiques de modération de Meta, en particulier lorsqu’il s’agit de détecter et d’interpréter des images associées à des organisations et à des individus désignés. La surapplication de cette politique peut mener, comme ce fut le cas ici, à la suppression d’un contenu artistique lié à un débat politique légitime.
En 2022, le Conseil a également recommandé à Meta d’« évaluer l’exactitude des équipes [humaines] d’examen qui appliquent l’autorisation d’informer en vertu de la politique relative aux organismes et individus dangereux afin d’identifier les problèmes systémiques à l’origine des erreurs de mise en application, » (concernant la Mention des talibans dans les informations d’actualité, recommandation n° 5). De plus, dans la même décision (Mention des talibans dans les informations d’actualité, recommandation n° 6), le Conseil a recommandé à Meta de « réviser l’outil HIPO [système de classement des faux positifs à fort impact] afin de déterminer s’il est possible de hiérarchiser plus efficacement les erreurs potentielles dans la mise en application des exceptions à la politique relative aux organismes et individus dangereux ». Meta a informé le Conseil de ses progrès concernant la mise en œuvre de ces deux recommandations.
Le Conseil a recommandé à Meta d’« assurer l’existence de procédures permettant d’analyser correctement le contenu satirique et le contexte et d’assurer que les modérateurs reçoivent des consignes adaptées pour l’analyse du contexte du contenu potentiellement satirique » (Meme aux deux boutons, recommandation n° 3). Meta a indiqué avoir partiellement mis en œuvre cette recommandation.
Le Conseil insiste sur le fait que l’observation de toutes ces recommandations pourrait réduire le nombre d’erreurs d’application en vertu de la politique de Meta sur les organismes et individus dangereux.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à l’attention de l’entreprise.
Retour aux décisions de cas et aux avis consultatifs politiques