Violence homophobe en Afrique de l’Ouest
15 octobre 2024
Le Conseil de surveillance est très préoccupé par le fait que Meta n’a pas retiré une vidéo montrant deux hommes en sang qui semblent avoir été passés à tabac car prétendument homosexuels. Le contenu a été publié au Nigeria, pays qui criminalise les relations entre personnes de même sexe. En annulant la décision initiale de l’entreprise, le Conseil note qu’en laissant la vidéo sur Facebook pendant cinq mois, les hommes risquaient de subir un préjudice immédiat en raison de l’exposition de leur identité, compte tenu de l’environnement hostile aux personnes LGBTQIA+ au Nigéria. Ces dégâts sont immédiats et impossibles à réparer. Le contenu, qui partageait et se moquait de la violence et de la discrimination, tout en enfreignant quatre Standards de la communauté différents, a été signalé à plusieurs reprises et examiné par trois membres de l’équipe de modération manuelle. Le présent cas révèle des défaillances systémiques dans la mise en application des politiques. Les recommandations du Conseil demandent notamment à Meta d’évaluer la mise en application de la règle en question dans le cadre du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles. Ces recommandations portent également sur les défaillances susceptibles d’avoir résulté du fait que Meta n’a pas identifié correctement la langue parlée dans la vidéo et sur la manière dont l’entreprise traite les langues qu’elle ne prend pas en charge dans le cadre de l’examen du contenu à grande échelle.
À propos du cas
Un utilisateur de Facebook au Nigeria a publié une vidéo montrant deux hommes en sang qui semblent avoir été ligotés et battus. Les personnes qui entourent les hommes effrayés leur posent des questions dans l’une des principales langues du Nigeria, l’igbo. L’un des hommes répond par son nom et explique, apparemment sous la contrainte, qu’il a été battu pour avoir eu des relations sexuelles avec un autre homme. L’utilisateur qui a publié ce contenu a ajouté une légende en anglais se moquant de ces hommes, déclarant qu’ils ont été surpris en train d’avoir des relations sexuelles et que c’est « funny » (drôle) parce qu’ils sont mariés.
La vidéo a été vue plus de 3,6 millions de fois. Entre décembre 2023, date de sa publication, et février 2024, 92 utilisateurs ont signalé le contenu, la plupart pour violence et incitation ou discours haineux. Deux membres de l’équipe d’examen manuel ont décidé que la vidéo n’enfreignait aucun des Standards de la communauté et qu’elle devait donc rester sur Facebook. Un utilisateur a fait appel à Meta mais, après un autre examen manuel, l’entreprise a de nouveau conclu qu’il n’y avait pas d’infraction. L’utilisateur a alors fait appel auprès du Conseil. Après que ce dernier a porté le cas à l’attention de Meta, l’entreprise a supprimé la publication en vertu de sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles.
Le Nigeria criminalise les relations entre personnes de même sexe, et les personnes LGBTQIA+ sont confrontées à la discrimination et à de sévères restrictions de leurs droits humains.
Principales observations
Le Conseil estime que le contenu a enfreint quatre Standards de la communauté différents, notamment la règle relative aux attaques coordonnées et à la promotion d’actions criminelles, qui ne permet pas d’identifier les personnes présumées appartenir à un groupe à risque. Dans la vidéo, l’homme admet de force qu’il a eu des relations sexuelles avec un autre homme, tandis que la légende affirme explicitement que les deux hommes sont homosexuels. Le contenu enfreint également les règles relatives au discours haineux, à l’intimidation et au harcèlement, ainsi qu’au contenu violent et explicite.
Il existe deux règles sur la révélation de l’identité d’une personne dans le cadre de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles. La première est pertinente en l’espèce et s’applique à grande échelle. Elle interdit : « le contenu dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Une règle similaire n’est appliquée que lorsque le contenu est transmis aux spécialistes de Meta. Le Conseil est préoccupé par le fait que Meta n’explique pas de manière adéquate les différences entre les deux règles de révélation de l’identité et que la règle appliquée à grande échelle n’indique pas publiquement que le fait de révéler l’identité s’applique aux personnes LGBTQIA+ dans les pays où le risque de préjudice hors ligne est plus élevé, tels que le Nigéria. À l’heure actuelle, seuls des conseils internes mentionnent cette information. Cette ambiguïté peut prêter à confusion, entraver l’observation des règles et empêcher les personnes visées par ces contenus abusifs de faire supprimer ces publications. Meta doit mettre à jour sa règle publique et fournir des exemples de groupes à risque.
Ce contenu est resté en ligne pendant environ cinq mois, bien qu’il ait enfreint quatre règles différentes et qu’il contienne de la violence et de la discrimination. Des équipes de modération humaine ont examiné le contenu et n’ont pas constaté qu’il enfreignait les règles. La vidéo étant restée en ligne, les risques que quelqu’un identifie les hommes et que la publication encourage les utilisateurs à s’en prendre à d’autres personnes LGBTQIA+ au Nigeria ont augmenté. La vidéo a finalement été retirée, mais elle était déjà devenue virale. Même après son retrait, les recherches du Conseil montrent qu’il restait des séquences de cette vidéo sur Facebook.
Lorsque le Conseil a interrogé Meta sur ses mesures de mise en application, l’entreprise a admis deux erreurs. Tout d’abord, ses systèmes automatisés de détection de la langue ont identifié le contenu comme étant de l’anglais, avant de le soumettre à un examen manuel, tandis que les équipes de Meta ont ensuite mal identifié la langue parlée dans la vidéo, en pensant qu’il s’agissait de swahili. La langue correcte est l’igbo, parlée par des millions de personnes au Nigeria, mais elle n’est pas prise en charge par Meta pour la modération de contenu à grande échelle. Si la langue n’est pas prise en charge, comme c’est le cas ici, le contenu est envoyé à des équipes d’examen manuel qui travaillent dans plusieurs langues et s’appuient sur les traductions fournies par les technologies de Meta. Cette situation soulève des inquiétudes quant au traitement des contenus dans des langues non prises en charge, au choix des langues prises en charge par l’entreprise pour l’examen à grande échelle et à l’exactitude des traductions fournies aux équipes d’examen travaillant dans plusieurs langues.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
Le Conseil recommande à Meta ce qui suit :
- Mettre à jour l’interdiction de la « révélation de l’identité » prévue par la politique relative aux attaques coordonnées et à la promotion d’actions criminelles afin d’inclure des exemples illustratifs de « groupes à risque », y compris les personnes LGBTQIA+ dans les pays où les relations entre personnes de même sexe sont interdites et/ou où de telles divulgations créent des risques importants pour leur sécurité
- Procéder à une évaluation de la précision de la mise en application de l’interdiction à grande échelle d’exposer l’identité ou la localisation de toute personne supposée appartenir à un groupe à risque, en vertu du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles.
- Veiller à ce que ses systèmes de détection linguistique identifient avec précision les contenus dans des langues non prises en charge et fournissent des traductions exactes de ces contenus aux équipes d’examen qui ne connaissent pas la langue.
- Veiller à ce que les contenus utilisant une langue non prise en charge, même s’ils sont combinés à des langues prises en charge, soient soumis à un examen indépendant. Il s’agit notamment de donner aux équipes d’examen la possibilité de réacheminer le contenu utilisant une langue non prise en charge vers un examen indépendant.
Pour plus d'informations
To read public comments for this case, click here.