Renversé
Violence homophobe en Afrique de l’Ouest
Le Conseil de surveillance est très préoccupé par le fait que Meta n’a pas retiré une vidéo montrant deux hommes qui semblent avoir été passés à tabac car prétendument homosexuels. En annulant la décision initiale de l’entreprise, le Conseil note qu’en laissant la vidéo sur Facebook pendant cinq mois, les hommes risquaient de subir un préjudice immédiat en raison de l’exposition de leur identité, compte tenu de l’environnement hostile aux personnes LGBTQIA+ au Nigéria.
Pour lire l’intégralité de la décision en igbo, cliquez ici.
Iji gụọ mkpebi ahụ n’uju n’asụsụ Igbo, pịa ebe a.
Résumé
Le Conseil de surveillance est très préoccupé par le fait que Meta n’a pas retiré une vidéo montrant deux hommes en sang qui semblent avoir été passés à tabac car prétendument homosexuels. Le contenu a été publié au Nigeria, pays qui criminalise les relations entre personnes de même sexe. En annulant la décision initiale de l’entreprise, le Conseil note qu’en laissant la vidéo sur Facebook pendant cinq mois, les hommes risquaient de subir un préjudice immédiat en raison de l’exposition de leur identité, compte tenu de l’environnement hostile aux personnes LGBTQIA+ au Nigéria. Ces dégâts sont immédiats et impossibles à réparer. Le contenu, qui partageait et se moquait de la violence et de la discrimination, tout en enfreignant quatre Standards de la communauté différents, a été signalé à plusieurs reprises et examiné par trois membres de l’équipe de modération manuelle. Le présent cas révèle des défaillances systémiques dans la mise en application des politiques. Les recommandations du Conseil demandent notamment à Meta d’évaluer la mise en application de la règle en question dans le cadre du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles. Ces recommandations portent également sur les défaillances susceptibles d’avoir résulté du fait que Meta n’a pas identifié correctement la langue parlée dans la vidéo et sur la manière dont l’entreprise traite les langues qu’elle ne prend pas en charge dans le cadre de l’examen du contenu à grande échelle.
À propos du cas
Un utilisateur de Facebook au Nigeria a publié une vidéo montrant deux hommes en sang qui semblent avoir été ligotés et battus. Les personnes qui entourent les hommes effrayés leur posent des questions dans l’une des principales langues du Nigeria, l’igbo. L’un des hommes répond par son nom et explique, apparemment sous la contrainte, qu’il a été battu pour avoir eu des relations sexuelles avec un autre homme. L’utilisateur qui a publié ce contenu a ajouté une légende en anglais se moquant de ces hommes, déclarant qu’ils ont été surpris en train d’avoir des relations sexuelles et que c’est « funny » (drôle) parce qu’ils sont mariés.
La vidéo a été vue plus de 3,6 millions de fois. Entre décembre 2023, date de sa publication, et février 2024, 92 utilisateurs ont signalé le contenu, la plupart pour violence et incitation ou discours haineux. Deux membres de l’équipe d’examen manuel ont décidé que la vidéo n’enfreignait aucun des Standards de la communauté et qu’elle devait donc rester sur Facebook. Un utilisateur a fait appel à Meta mais, après un autre examen manuel, l’entreprise a de nouveau conclu qu’il n’y avait pas d’infraction. L’utilisateur a alors fait appel auprès du Conseil. Après que ce dernier a porté le cas à l’attention de Meta, l’entreprise a supprimé la publication en vertu de sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles.
Le Nigeria criminalise les relations entre personnes de même sexe, et les personnes LGBTQIA+ sont confrontées à la discrimination et à de sévères restrictions de leurs droits humains.
Principales observations
Le Conseil estime que le contenu a enfreint quatre Standards de la communauté différents, notamment la règle relative aux attaques coordonnées et à la promotion d’actions criminelles, qui ne permet pas d’identifier les personnes présumées appartenir à un groupe à risque. Dans la vidéo, l’homme admet de force qu’il a eu des relations sexuelles avec un autre homme, tandis que la légende affirme explicitement que les deux hommes sont homosexuels. Le contenu enfreint également les règles relatives au discours haineux, à l’intimidation et au harcèlement, ainsi qu’au contenu violent et explicite.
Il existe deux règles sur la révélation de l’identité d’une personne dans le cadre de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles. La première est pertinente en l’espèce et s’applique à grande échelle. Elle interdit : « le contenu dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Une règle similaire n’est appliquée que lorsque le contenu est transmis aux spécialistes de Meta. Le Conseil est préoccupé par le fait que Meta n’explique pas de manière adéquate les différences entre les deux règles de révélation de l’identité et que la règle appliquée à grande échelle n’indique pas publiquement que le fait de révéler l’identité s’applique aux personnes LGBTQIA+ dans les pays où le risque de préjudice hors ligne est plus élevé, tels que le Nigéria. À l’heure actuelle, seuls des conseils internes mentionnent cette information. Cette ambiguïté peut prêter à confusion, entraver l’observation des règles et empêcher les personnes visées par ces contenus abusifs de faire supprimer ces publications. Meta doit mettre à jour sa règle publique et fournir des exemples de groupes à risque.
Ce contenu est resté en ligne pendant environ cinq mois, bien qu’il ait enfreint quatre règles différentes et qu’il contienne de la violence et de la discrimination. Des équipes de modération humaine ont examiné le contenu et n’ont pas constaté qu’il enfreignait les règles. La vidéo étant restée en ligne, les risques que quelqu’un identifie les hommes et que la publication encourage les utilisateurs à s’en prendre à d’autres personnes LGBTQIA+ au Nigeria ont augmenté. La vidéo a finalement été retirée, mais elle était déjà devenue virale. Même après son retrait, les recherches du Conseil montrent qu’il restait des séquences de cette vidéo sur Facebook.
Lorsque le Conseil a interrogé Meta sur ses mesures de mise en application, l’entreprise a admis deux erreurs. Tout d’abord, ses systèmes automatisés de détection de la langue ont identifié le contenu comme étant de l’anglais, avant de le soumettre à un examen manuel, tandis que les équipes de Meta ont ensuite mal identifié la langue parlée dans la vidéo, en pensant qu’il s’agissait de swahili. La langue correcte est l’igbo, parlée par des millions de personnes au Nigeria, mais elle n’est pas prise en charge par Meta pour la modération de contenu à grande échelle. Si la langue n’est pas prise en charge, comme c’est le cas ici, le contenu est envoyé à des équipes d’examen manuel qui travaillent dans plusieurs langues et s’appuient sur les traductions fournies par les technologies de Meta. Cette situation soulève des inquiétudes quant au traitement des contenus dans des langues non prises en charge, au choix des langues prises en charge par l’entreprise pour l’examen à grande échelle et à l’exactitude des traductions fournies aux équipes d’examen travaillant dans plusieurs langues.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
Le Conseil recommande à Meta ce qui suit :
- mettre à jour l’interdiction de la « révélation de l’identité » prévue par la politique relative aux attaques coordonnées et à la promotion d’actions criminelles afin d’inclure des exemples illustratifs de « groupes à risque », y compris les personnes LGBTQIA+ dans les pays où les relations entre personnes de même sexe sont interdites et/ou où de telles divulgations créent des risques importants pour leur sécurité.
- procéder à une évaluation de la précision de la mise en application de l’interdiction à grande échelle d’exposer l’identité ou la localisation de toute personne supposée appartenir à un groupe à risque, en vertu du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles.
- veiller à ce que ses systèmes de détection linguistique identifient avec précision les contenus dans des langues non prises en charge et fournissent des traductions exactes de ces contenus aux équipes d’examen qui ne connaissent pas la langue.
- veiller à ce que les contenus utilisant une langue non prise en charge, même s’ils sont combinés à des langues prises en charge, soient soumis à un examen indépendant. Il s’agit notamment de donner aux équipes d’examen la possibilité de réacheminer le contenu utilisant une langue non prise en charge vers un examen indépendant.
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
En décembre 2023, un utilisateur de Facebook au Nigéria a publié une vidéo montrant deux hommes qui sont clairement visibles et semblent avoir été battus. On les voit assis par terre, près d’un poteau et d’une corde, ce qui laisse penser qu’ils ont été attachés, et ils saignent abondamment. Plusieurs personnes posent des questions aux hommes en igbo, l’une des principales langues du Nigeria. L’un des hommes répond par son nom et explique, apparemment sous la contrainte, qu’il a été battu parce qu’il avait eu des relations sexuelles avec un autre homme. Les deux hommes semblent effrayés et l’un d’eux reçoit un coup de pied d’une personne présente. L’utilisateur qui a publié la vidéo a ajouté une légende en anglais se moquant de ces deux hommes, disant qu’ils ont été surpris en train d’avoir des relations sexuelles et que c’est « funny » (drôle) parce qu’ils sont tous les deux mariés.
Le contenu a été consulté plus de 3,6 millions de fois, a suscité environ 9 000 réactions et 8 000 commentaires et a été partagé environ 5 000 fois. Entre décembre 2023 et février 2024, 92 utilisateurs ont signalé le contenu 112 fois, la majorité de ces signalements relevant des politiques relatives à laviolence et l’incitation et audiscours haineux de Meta. Plusieurs de ces signalements ont été examinés par deux membres de l’équipes de modération manuelle qui ont conclu que le contenu n’enfreignait aucun des Standards de la communauté et qu’il devait donc rester sur Facebook. L’un des utilisateurs a alors fait appel de la décision de Meta de conserver le contenu. À la suite d’un nouvel examen manuel, l’entreprise a de nouveau décidé que le contenu n’enfreignait aucune de ses règles. L’utilisateur a alors fait appel auprès du Conseil. Après que le Conseil a porté le cas à l’attention de Meta, en mai 2024, l’entreprise a examiné la publication en vertu de sa politique relative aux attaques coordonnées et à la promotion d’actions criminelles, et l’a retirée de Facebook. Après le retrait de la vidéo originale par Meta, des recherches plus approfondies ont permis au Conseil d’identifier de nombreux cas où la même vidéo était restée sur la plateforme depuis décembre 2023, notamment dans des Groupes Facebook. Après que le Conseil a signalé des cas où la même vidéo était toujours diffusée sur la plateforme, Meta les a supprimés et a ajouté la vidéo à une banque des services de mise en correspondance du contenu multimédia (MMS), qui identifie et supprime automatiquement les contenus qui ont déjà été classés comme étant en infraction. Bien que ce type d’infraction puisse donner lieu à une sanction standard contre l’utilisateur qui a publié le contenu, Meta ne l’a pas appliquée dans ce cas, car la vidéo a été publiée plus de 90 jours avant qu’une mesure de mise en application ne soit prise. La politique de Meta stipule qu’elle n’applique pas de sanctions standard aux comptes des utilisateurs dont les violations de contenu remontent à plus de 90 jours.
Le Conseil a tenu compte du contexte suivant pour prendre une décision dans ce cas-ci :
Les personnes LGBTQIA+ au Nigeria et dans plusieurs autres parties du monde sont confrontées à la violence, à la torture, à l’emprisonnement et même à la mort en raison de leur orientation sexuelle ou de leur identité de genre, et le sentiment anti-LGBTQIA+ progresse (voir le commentaire public d’Outright International, PC-29658). La discrimination à l’encontre des personnes en raison de leur orientation sexuelle ou de leur identité de genre limite la vie quotidienne et a un impact sur les droits humains et les libertés fondamentales. Amnesty International indique qu’en Afrique, 31 pays criminalisent les relations entre personnes de même sexe. Les sanctions vont de l’emprisonnement aux châtiments corporels. La loi nigériane sur l’interdiction du mariage homosexuel criminalise non seulement les relations entre personnes de même sexe, mais interdit également les manifestations publiques d’affection et restreint le travail des organisations défendant les droits des personnes LGBTQIA+. En outre, les lois de l’ère coloniale et autres lois morales sur la sodomie, l’adultère et l’indécence sont toujours appliquées pour restreindre les droits des personnes LGBTQIA+, ce qui a des conséquences dévastatrices.
Dans un rapport de 2024, l’expert indépendant des Nations Unies sur la protection contre la violence et la discrimination fondées sur l’orientation sexuelle et l’identité de genre a souligné : « Dans toutes les régions du monde, des États ont appliqué des lois et des politiques existantes ou imposé de nouvelles mesures, parfois extrêmes, pour restreindre les libertés d’expression, de réunion pacifique et d’association visant spécifiquement les personnes en fonction de leur orientation sexuelle et de leur identité de genre » (Rapport A/HRC/56/49, juillet 2024, paragraphe 2).
Les militants et les organisations qui soutiennent les communautés LGBTQIA+ peuvent faire l’objet de restrictions juridiques, de harcèlement, d’arrestations arbitraires, de descentes de police et de fermetures, les menaces de violence décourageant le soutien du public aux droits des LGBTQIA+ (voir le commentaire public du Réseau panafricain des défenseurs des droits humains, PC-29657). Les organisations de défense des droits humains peuvent avoir du mal à documenter les cas d’abus et de discrimination par crainte de représailles de la part des autorités publiques et des acteurs non étatiques, tels que les groupes d’autodéfense et les milices. Les journalistes qui couvrent les questions LGBTQIA+ peuvent également être ciblés.
Les réseaux sociaux sont un outil essentiel pour les organisations de défense des droits humains qui documentent les violations des droits des personnes LGBTQIA+ et plaident pour qu’elles soient mieux protégées. Les personnes partagent des vidéos, des témoignages et des rapports pour sensibiliser et inciter les gouvernements à respecter les normes en matière de droits humains (voir le commentaire public de Human Rights Watch, PC-29659). En outre, les plateformes peuvent servir de centres d’information, en informant les personnes sur les nouveaux développements juridiques ainsi qu’en leur offrant un accès à une assistance juridique. Une étude indépendante commandée par le Conseil indique que les plateformes de réseaux sociaux jouent un rôle crucial pour les personnes LGBTQIA+ dans les pays dotés d’un cadre juridique restrictif. La recherche indique que Facebook, par exemple, permet aux utilisateurs de se connecter, y compris de manière anonyme et dans des groupes fermés, pour partager des ressources dans un environnement plus sûr que les espaces hors ligne.
Les experts consultés par le Conseil ont noté que les autorités publiques de certains pays africains utilisent également les réseaux sociaux pour surveiller et restreindre les activités des utilisateurs qui publient des contenus LGBTQIA+ Ils ont également indiqué qu’au Nigeria, les autorités ont restreint l’accès au contenu en ligne sur les questions LGBTQIA+. Selon Freedom House, le Nigeria a introduit une législation pour réglementer plus largement les plateformes de réseaux sociaux, ce qui pourrait avoir un impact sur les droits de la population LGBTQIA+ en ligne. De même, Access Now, une organisation de défense des droits numériques, signale que les lois sur la cybercriminalité au Ghana permettent aux autorités d’émettre des demandes de retrait ou des interdictions de contenu susceptibles de restreindre le discours public sur les questions LGBTQIA+ et de bloquer la documentation sur les violations des droits humains ainsi que les informations vitales pour la communauté.
Des acteurs non étatiques, notamment des groupes d’autodéfense, s’en prennent également aux personnes LGBTQIA+ en commettant des agressions physiques, des violences collectives, des humiliations publiques et en les ostracisant. Par exemple, en août 2024, un utilisateur transgenre de Tik-Tok connu sous le nom de « Abuja Area Mama » a été trouvé mort après avoir été battu à mort dans la capitale du Nigeria, Abuja. Les personnes LGBTQIA+ peuvent être les cibles du chantage exercé par d’autres membres de leur communauté qui découvrent leur orientation sexuelle ou leur identité de genre. Selon Human Rights Watch, le cadre juridique du Nigeria encourage la violence contre les personnes LGBTQIA+, créant un environnement d’impunité pour ses auteurs.
2. Soumissions de l’utilisateur
Dans sa déclaration au Conseil, l’utilisateur qui a signalé le contenu a affirmé que les hommes figurant dans la vidéo avaient été passés à tabac uniquement parce qu’ils étaient homosexuels. L’utilisateur a déclaré qu’en ne supprimant pas la vidéo, Meta permet à sa plateforme de devenir un terrain propice à la haine et à l’homophobie et que si la vidéo portait sur un incident survenu dans un pays occidental, elle aurait été supprimée.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
Politique sur les attaques coordonnées et la promotion d’actions criminelles
La politique de Meta en matière d’attaques coordonnées et de promotion d’actions criminelles vise à « prévenir et empêcher le préjudice hors ligne et les comportements d’imitation » en interdisant « la facilitation, l’organisation, la promotion ou l’admission de certaines activités criminelles ou nuisibles visant des personnes, des entreprises, des biens ou des animaux ». Deux lignes de conduite des Standards de la communauté traitent de la « révélation de l’identité ». La première est appliquée à grande échelle et la seconde nécessite un « contexte supplémentaire pour être appliquée » (ce qui signifie que la ligne de conduite n’est appliquée qu’en cas d’escalation). La première ligne de conduite de cette politique s’applique à ce cas. Elle interdit spécifiquement « le contenu dévoilant l’identité de toute personne, ou les lieux qui lui sont associés, qui, supposément, ferait partie d’un groupe à risque ». Cette ligne de conduite n’indique pas quels groupes sont les « groupes à risque ». La seconde ligne de conduite, qui n’est appliquée qu’en cas d’escalation et ne l’a pas été dans ce cas, interdit également « la révélation de l’identité : exposer l’identité d’une personne et la mettre en danger » pour une liste spécifique de groupes vulnérables, y compris les membres LGBTQIA+, les femmes non voilées, les activistes et les prisonniers de guerre.
Selon les conseils internes de Meta à l’intention des équipes d’examen de contenu sur la première ligne de conduite, l’identité peut être révélée en utilisant des informations personnelles telles que le nom ou l’image d’une personne. Les règles internes de Meta énumèrent les « groupes à risque », notamment les personnes LGBTQIA+ dans les pays où l’affiliation à un groupe peut représenter un risque pour la sécurité personnelle de ses membres. Elles prévoient également que la « révélation de l’identité » doit être involontaire : une personne ne peut pas révéler sa propre identité (par exemple, en déclarant qu’elle est membre d’un groupe à risque).
Politique en matière de contenu violent et explicite
La politique en matière de contenu violent et explicite prévoit que certaines images troublantes de personnes seront placées derrière un écran d’avertissement. Par exemple : « Les images représentant des actes de brutalité (p. ex., actes de violence ou menaces de mort sur des sujets retenus contre leur gré) commis à l’encontre d’une personne ou d’un groupe de personnes. » Toutefois, si ce contenu est accompagné de « remarques sadiques », la publication sera supprimée. Les remarques sadiques sont définies dans les règles applicables au public comme des « commentaires, tels que des légendes ou des commentaires, exprimant la joie ou le plaisir de la souffrance ou de l’humiliation de personnes ou d’animaux ».
Politique en matière d’intimidation et de harcèlement
Le Standard de la communauté en matière d’intimidation et de harcèlement vise à protéger les individus contre les menaces et les différentes formes de contact malveillant sur les plateformes de Meta, et indique qu’un tel comportement « empêche les personnes de se sentir en sécurité et respectées ». La politique interdit les contenus qui ciblent les personnes en « célébrant ou en se moquant de [leur] décès ou de [leur] état de santé ». Les règles internes de Meta expliquent que l’état de santé comprend une maladie, une affection ou une blessure grave.
Politique relative au discours haineux
La justification de la politique de Meta relative au discours haineux définit le discours haineux comme une attaque directe contre des personnes en raison de caractéristiques protégées, notamment l’orientation sexuelle. Elle interdit les contenus ciblant des personnes sous forme écrite ou visuelle en vertu des termes suivants : « Se moquer du concept d’incitation à la haine, d’un évènement particulier de cette nature ou de victimes de ce type d’actes, même s’il s’agit d’une image ne montrant aucune personne réelle. » Les règles internes de Meta définissent les crimes de haine comme un acte criminel « commis avec un motif fondé sur des préjugés et visant des personnes sur la base de leurs [caractéristiques protégées] ».
II. Soumissions de Meta
Après que le Conseil a sélectionné ce cas, Meta a estimé que le contenu enfreignait la politique relative aux attaques coordonnées et à la promotion d’actions criminelles en identifiant les membres présumés d’un « groupe à risque » dans un pays où l’affiliation à un tel groupe peut entraîner un risque pour la sécurité personnelle de ses membres. Meta a noté que la légende de l’utilisateur alléguait que les hommes étaient homosexuels, et que l’aveu de l’un des hommes dans la vidéo était potentiellement contraint, démontrant que la « révélation de l’identité », en exposant leur identité, était involontaire.
Meta a reconnu que les équipes d’examen s’étaient trompées en estimant que la publication n’enfreignait aucun Standard de la communauté et a cherché à connaître la raison de ces erreurs. Dans le cas présent, il semble que les équipes d’examen se soient uniquement concentrées sur la politique en matière d’intimidation et de harcèlement et relative aux « allégations concernant une relation amoureuse, l’orientation sexuelle ou l’identité de genre » à l’encontre d’adultes privés et qu’elles aient conclu qu’elle n’avait pas été enfreinte, sans prendre en compte d’autres infractions potentielles. Cette politique exige que le nom et le visage de l’utilisateur qui signale le contenu correspondent à la personne décrite dans le contenu pour que celui-ci soit supprimé. Étant donné que les utilisateurs signalant le contenu dans ce cas n’apparaissaient pas dans le contenu, les équipes d’examen ont estimé qu’il n’y avait pas d’infraction. À la suite de l’enquête, les équipes d’examen manuel de Meta ont pris des mesures supplémentaires pour améliorer la précision de l’application de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles, en envoyant des rappels et en effectuant des tests de connaissances sur la politique de révélation de l’identité des personnes considérées à haut risque.
En réponse aux questions du Conseil, Meta a confirmé que la publication avait également enfreint trois autres Standards de la communauté.
Elle est allée à l’encontre de la politique sur le contenu violent et explicite, car elle contenait des remarques sadiques sur un acte de « brutalité », les hommes étant soumis à une force excessive alors qu’ils étaient sous la domination des auteurs de cette violence. Sans les remarques sadiques, le contenu n’aurait été marqué comme dérangeant que dans le cadre de cette politique. Il a enfreint la politique en matière d’intimidation et de harcèlement, car la légende se moque des deux hommes en qualifiant leur situation de « funny » (drôle) tout en montrant leurs graves blessures. Enfin, il a enfreint le Standard de la communauté relatif au discours haineux, puisque la légende se moque des victimes d’un crime de haine, en particulier des coups et blessures motivés par des préjugés à l’encontre de deux hommes sur la base de leur orientation sexuelle perçue.
En réponse aux questions du Conseil, Meta a confirmé avoir mené des enquêtes supplémentaires qui ont conduit à la suppression d’autres instances de la même vidéo. La vidéo a été ajoutée aux banques MMS de Meta afin d’empêcher tout téléchargement ultérieur de ce contenu.
Meta a également informé le Conseil qu’elle s’appuie sur ses systèmes de détection de la langue et de traduction automatique pour prendre en charge les contenus en igbo par le biais d’un examen indépendant à grande échelle. Meta dispose de quelques locuteurs d’igbo qui fournissent une expertise linguistique et examinent le contenu en igbo en cas d’escalation (pas à grande échelle). L’entreprise exige de ses équipes d’examen manuel qu’elles maîtrisent l’anglais et « la langue de leur marché ». Avant de confirmer que la langue parlée dans la vidéo était l’igbo, Meta a pensé à tort qu’il s’agissait du swahili dans ses interactions avec le Conseil. Enfin, Meta a expliqué qu’étant donné que la légende de l’utilisateur dans la vidéo était en anglais, les systèmes automatisés de l’entreprise ont identifié la langue du contenu comme étant l’anglais, l’acheminant vers des équipes d’examen manuel anglophones.
Le Conseil a posé à Meta 24 questions sur la mise en application du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles et d’autres politiques de contenu, sur les mesures d’application de Meta au Nigeria, sur la détection par Meta des langues de contenu et sur les affectations d’équipes d’examen manuel, ainsi que sur les demandes gouvernementales et les mesures d’atténuation qu’elle a prises pour prévenir les préjudices. Meta a répondu à toutes ces questions.
4. Commentaires publics
Le Conseil de surveillance a reçu sept commentaires publics qui répondent aux critères de soumission. Quatre de ces commentaires ont été soumis par les États-Unis et le Canada, deux par l’Afrique subsaharienne et un par l’Europe. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions ont porté sur les thèmes suivants : la violence contre les personnes LGBTQIA+ en Afrique de l’Ouest par des acteurs étatiques et non étatiques, et les risques associés à l’exposition de l’orientation sexuelle et/ou de l’identité de genre des personnes ; l’impact de la criminalisation des relations homosexuelles sur les personnes LGBTQIA+ ; l’impact de cette criminalisation et d’autres lois locales au Nigeria, et plus largement en Afrique de l’Ouest, sur le travail effectué par les organisations de défense des droits humains, les groupes de défense et les journalistes ; et l’importance des plateformes de Meta, et plus largement des réseaux sociaux, pour la communication, la mobilisation et la sensibilisation des personnes LGBTQIA+ au Nigeria et en Afrique de l’Ouest.
5. Analyse du Conseil de surveillance
Le Conseil a analysé la décision de Meta dans le cas présent, en la comparant à ses politiques relatives au contenu, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
5.1 Respect des politiques de Meta relatives au contenu
I. Règles relatives au contenu
Le Conseil estime que le contenu enfreint quatre Standards de la communauté : attaques coordonnées et promotion d’actions criminelles, discours haineux, contenu violent et explicite, et intimidation et harcèlement.
Le contenu enfreint la politique relative aux attaques coordonnées et à la promotion d’actions criminelles qui interdit d’identifier les membres présumés d’un groupe à risque. Le Conseil partage l’avis de Meta selon lequel la vidéo révèle l’identité des deux hommes contre leur gré, car ils semblent avoir été battus et sont visiblement effrayés. L’aveu de l’un d’entre eux d’avoir eu des relations sexuelles avec un autre homme est donc forcé et involontaire. En outre, la légende de la vidéo allègue explicitement que ces hommes sont homosexuels.
Cette vidéo est également contraire à la politique relative aux discours haineux, qui interdit les contenus se moquant des victimes de crimes de haine. On y voit les conséquences de la violence contre deux hommes, qui se poursuit dans la vidéo, leurs blessures étant clairement visibles. L’un des hommes explique qu’ils ont été battus parce qu’ils ont eu des relations sexuelles l’un avec l’autre, la légende de la vidéo démontrant en outre que les coups et blessures ont été motivés par l’orientation sexuelle perçue des deux hommes. Étant donné que la légende de la publication ridiculise les victimes de ce crime de haine en disant que c’est « funny » (drôle) qu’elles soient apparemment mariées, le Conseil estime qu’elle répond à la définition de « moquerie » de Meta.
La légende de la publication enfreint également la politique en matière d’intimidation et de harcèlement, car elle se moque de leurs blessures visibles (un « état de santé ») en qualifiant la situation de « funny » (drôle).
Enfin, le Conseil estime que le contenu enfreint également le Standard de la communauté relatif au contenu violent et explicite, car il contient des « remarques sadiques » sur les actes de brutalité commis à l’encontre des deux hommes dans un contexte de souffrance et d’humiliation. En soi, et en l’absence d’autres infractions à la politique, cela justifierait l’application d’un écran d’avertissement. Cependant, comme la légende contient des « remarques sadiques » ridiculisant les actes de violence et d’agression contre les deux hommes, la politique exige le retrait du contenu.
II. Mesures de mise en application
Le Conseil est particulièrement préoccupé par le fait qu’un contenu décrivant une violence et une discrimination aussi graves, et enfreignant quatre Standards de la communauté, a été laissé en ligne pendant environ cinq mois, et que des séquences de cette vidéo sont restées sur la plateforme même après le retrait de la vidéo originale. Après sa publication en décembre 2023, la vidéo a été signalée 112 fois par 92 utilisateurs différents, alors que ce cas unique avait suscité des millions de vues et des milliers de réactions. Trois modérateurs humains ont examiné indépendamment les signalements et les appels subséquents. Tous trois ont conclu qu’il n’y avait pas d’infraction, apparemment parce qu’ils n’ont pas examiné les publications à la lumière de tous les Standards de la communauté. En outre, il est possible que ces examinateurs n’aient pas été familiarisés avec la langue igbo ou qu’ils n’aient pas été en mesure d’effectuer un examen indépendant, étant donné que les systèmes automatisés de Meta ont identifié à tort la langue du contenu comme étant l’anglais et l’ont acheminé vers des examinateurs anglophones.
5.2 Respect des responsabilités de Meta en matière de droits humains
Le Conseil estime que le fait de laisser le contenu sur la plateforme n’était pas conforme aux responsabilités de Meta en matière de droits humains à la lumière des Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains (PDNU). En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. En vertu du Principe directeur 13, les entreprises doivent « éviter de causer ou de contribuer à des impacts négatifs sur les droits humains par leurs propres activités » et « prévenir ou atténuer les impacts négatifs sur les droits humains qui sont directement liés à leurs activités, produits ou services », même si elles n’ont pas contribué à ces impacts.
En interprétant les Principes directeurs des Nations Unies, le Conseil s’est inspiré de la recommandation du Rapporteur spécial des Nations Unies sur la liberté d’expression et d’opinion selon laquelle les entreprises de réseaux sociaux devraient tenir compte des normes mondiales liées à la liberté d’expression énoncées dans les articles 19 et 20 du Pacte international relatif aux droits civils et politiques (PIDCP) (voir paragraphes 44 à 48 du rapport de 2018 du Rapporteur spécial des Nations Unies sur la liberté d’expression, A/HRC/38/35 et paragraphes 41 du rapport 2019 du Rapporteur spécial des Nations Unies sur la liberté d’expression, A/74/486).
Le paragraphe 2 de l’article 20 du PIDCP indique que « tout appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence est interdit par la loi ». Cette interdiction est « pleinement compatible avec le droit à la liberté d’expression tel qu’il est énoncé à l’article 19 [PIDCP], dont l’exercice s’accompagne de devoirs et de responsabilités spéciaux » ( Observation générale n° 11, (1983), paragraphe 2). Le Plan d’action de Rabat sur l’interdiction de l’appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence est une feuille de route importante pour l’interprétation de l’article 20, paragraphe 2 ( A/HRC/22/17/Add.4, 2013, paragraphe 29). Il énonce six facteurs pertinents qui aident les États à savoir s’il faut interdire la liberté d’expression : « le contexte de la déclaration ; le statut de l’intervenant ; l’intention d’inciter l’audience contre le groupe cible ; le contenu de la déclaration ; l’ampleur de la diffusion et la probabilité de préjudice, y compris l’imminence ». Le Conseil s’est appuyé sur ces facteurs pour déterminer la nécessité et la proportionnalité des restrictions à la liberté d’expression imposées par Meta. Dans le cas présent, le Conseil tient compte des mêmes facteurs lorsqu’il évalue si Meta devrait retirer le contenu compte tenu de ses responsabilités en matière de droits humains.
Le Conseil estime que la décision initiale de Meta de laisser le contenu sur la plateforme créait un risque de préjudice immédiat pour les hommes dans la vidéo, justifiant ainsi le retrait. Dans des pays comme le Nigeria, où les attitudes sociétales et la criminalisation des relations homosexuelles alimentent la violence homophobe, les personnes LGBTQIA+ qui sont dénoncées en ligne peuvent être victimes de violence et de discrimination hors ligne. Le fait que Meta n’a pas agi en temps opportun à l’égard de cette vidéo, ce qui lui a permis d’être partagée à grande échelle, a probablement contribué à cet environnement hostile, exposant d’autres personnes à certains risques (voir le commentaire public de Human Rights Watch, PC-29659). Le Conseil note également que la publication a suscité un grand nombre de vues (plus de 3,6 millions), ce qui a augmenté les risques que quelqu’un identifie les hommes représentés dans la vidéo et que la publication incite les utilisateurs à faire du mal aux personnes LGBTQIA+, plus largement. De plus, le Conseil souligne les remarques sadiques accompagnant la vidéo, qui indiquent l’intention de l’utilisateur de dénoncer et d’humilier les hommes, en incitant les autres à les discriminer et à leur nuire. Le grand nombre de réactions (environ 9 000), de commentaires (environ 8 000) et de partages (environ 5 000) indiquent que l’utilisateur a réussi à engager son audience, augmentant encore la probabilité de préjudice, tant pour les hommes que l’on voit dans la vidéo que pour les personnes LGBTQIA+ au Nigeria.
Les restrictions à la liberté d’expression fondées sur l’article 20, paragraphe 2, du PIDCP devraient également répondre au triple critère de l’article 19 du PIDCP (Observation générale n° 34, paragraphe 50). L’analyse qui suit conclut que le retrait de la publication était conforme à l’article 19.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP prévoit une large protection de l’expression, y compris l’expression politique et le débat sur les droits humains, ainsi que les expressions qui peuvent être considérées comme « profondément offensantes » (Observation générale n° 34, (2011), paragraphe 11, voir également le paragraphe 17 du rapport de 2019 du Rapporteur spécial des Nations Unies sur la liberté d’expression, A/74/486). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, et de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ». Le Conseil s’appuie sur ce cadre pour interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
Bien que le Conseil note que plusieurs politiques sur le contenu s’appliquent à ce cas, son analyse en trois parties est axée sur le Standard de la communauté de Meta sur les attaques coordonnées et la promotion d’actions criminelles, étant donné qu’il s’agit de la politique en vertu de laquelle l’entreprise a finalement supprimé le contenu.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (Observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid.). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil estime que l’interdiction imposée par Meta de « dévoiler » des personnes en exposant leur identité ou les lieux auxquels elles sont affiliées en tant que membres présumés d’un groupe à risque n’est pas suffisamment claire et compréhensible pour les utilisateurs.
Le Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles n’offre pas d’explication suffisante pour que les utilisateurs comprennent et fassent la distinction entre les deux règles similaires de « révélation ». Le Conseil est particulièrement préoccupé par le fait que le Standard de la communauté n’explique pas clairement que la règle à grande échelle interdisant la « révélation » s’applique à l’identification des personnes comme LGBTQIA+ dans les pays où le contexte local indique des risques plus élevés de préjudice hors ligne. À l’heure actuelle, ces informations ne sont disponibles que dans les conseils internes destinés aux équipes d’examen, ce qui empêche les utilisateurs de savoir que les personnes présumées appartenir à des groupes dont l’identification est « à risque » incluent des personnes LGBTQIA+ dans certains pays.
Le Conseil craint que l’ambiguïté entourant les politiques de Meta sur le contenu identifiant les personnes LGBTQIA+ n’entraîne une confusion chez les utilisateurs et ne les empêche de se conformer aux règles de la plateforme. Cela crée également des obstacles pour les personnes ciblées par des contenus abusifs qui cherchent à obtenir le retrait de ces publications. Meta devrait donc mettre à jour sa politique en matière d’attaques coordonnées et de promotion d’actions criminelles, qui interdit la révélation et que l’entreprise applique à grande échelle, afin d’inclure des exemples illustratifs de groupes à risque, y compris les personnes LGBTQIA+ dans certains pays.
II. Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3 du PIDCP).
La politique relative aux attaques coordonnées et à la promotion d’actions criminelles sert l’objectif légitime de « prévenir et de perturber les dommages hors ligne », notamment en protégeant les droits des personnes LGBTQIA+ et des personnes perçues comme telles dans les pays du monde où la « révélation » crée des risques pour la sécurité. Ces droits comprennent le droit à la non-discrimination (articles 2 et 26 du PIDCP), y compris dans l’exercice de leurs droits à la liberté d’expression et de réunion (articles 19 et 21 du PIDCP), à la vie privée (article 17 du PIDCP), à la vie (article 6 du PIDCP), ainsi qu’à la liberté et à la sécurité (article 9 du PIDCP).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Le Conseil estime que la décision finale de Meta de supprimer le contenu de la plateforme était nécessaire et proportionnée. Des recherches commandées par le Conseil indiquent que les personnes LGBTQIA+ au Nigeria sont continuellement exposées à la violence, aux arrestations arbitraires, au harcèlement, au chantage et à la discrimination, ainsi qu’aux risques de sanctions juridiques. Le contenu lui-même décrit les conséquences de ce qui semble être un châtiment corporel pour une relation homosexuelle présumée. Dans ces circonstances, le Conseil détermine qu’il est essentiel d’appliquer correctement les politiques visant à protéger les personnes LGBTQIA+, en particulier dans les pays qui criminalisent les relations homosexuelles. Compte tenu de ces risques, le Conseil estime que la suppression de contenu est le moyen le moins intrusif d’assurer la protection des personnes « identifiées » dans ce contexte. Les dégâts de la « révélation » sont immédiats et impossibles à réparer ; de telles mesures ne peuvent être efficaces que si elles sont mises en œuvre en temps opportun.
Le Conseil est préoccupé par le fait que Meta n’a pas été en mesure d’identifier et de supprimer rapidement les contenus clairement préjudiciables qui exposent involontairement l’identité de personnes présumées homosexuelles, ce qui perpétue à son tour une atmosphère de peur pour les personnes LGBTQIA+ et favorise un environnement où le ciblage des groupes marginalisés est davantage accepté et normalisé (voir le commentaire public de GLAAD, PC-29655). Même si le contenu a enfreint quatre Standards de la communauté différents, a été signalé 112 fois et examiné par trois modérateurs différents, ce n’est qu’après que le Conseil a sélectionné le cas pour examen que Meta a supprimé la publication et s’est assurée du retrait de chaque contenu similaire diffusant la vidéo. Le Conseil est particulièrement alarmé par la viralité de la vidéo, qui a été vue plus de 3,6 millions de fois, a suscité environ 9 000 réactions et 8 000 commentaires, et a été partagée environ 5 000 fois en l’espace de cinq mois.
Le Conseil comprend que des erreurs d’application sont à prévoir dans la modération du contenu à grande échelle, cependant, les explications de Meta dans ce cas révèlent des défaillances systémiques. Bien que Meta ait pris des mesures supplémentaires pour améliorer la précision de l’application de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles, et qu’elle ait cherché à prévenir des erreurs similaires par le biais d’une formation supplémentaire, elle n’a pas fourni de détails sur les mesures mises en œuvre pour s’assurer que les équipes d’examen manuel évaluent le contenu en vertu de l’ensemble des politiques de Meta. Cela est particulièrement pertinent dans ce cas, dans lequel le contenu a été examiné par trois modérateurs qui ont commis la même erreur, sans évaluer la publication par rapport à d’autres Standards de la communauté pertinents. Cela indique que les systèmes de mise en application de Meta étaient inadaptés.
Le Conseil estime que l’erreur de mise en application de Meta est particulièrement alarmante compte tenu du contexte au Nigéria, qui criminalise les relations entre personnes de même sexe. Afin d’améliorer la mise en œuvre de ses politiques, et en plus des mesures déjà déployées par l’entreprise, Meta devrait évaluer l’exactitude de la mise en application de la règle sur les attaques coordonnées et la promotion d’actions criminelles, qui interdit l’identification des personnes ou leur localisation. Sur la base des résultats de cette évaluation, Meta doit ensuite améliorer la précision de la mise en application de la politique, notamment par le biais d’une formation actualisée pour les équipes d’examen de contenu, étant donné qu’il ne devrait y avoir aucune tolérance pour ce type de contenu.
Le Conseil a également examiné les pratiques de mise en application de Meta dans les régions multilingues. Dans ses échanges avec le Conseil, Meta a d’abord identifié à tort la langue de la vidéo comme étant le swahili, alors qu’il s’agissait en fait de l’igbo. En réponse à une question du Conseil, Meta a noté que l’igbo n’est pas une langue prise en charge pour la modération de contenu à grande échelle pour le marché nigérian, même si l’entreprise fournit un soutien pour la modération du contenu en igbo par le biais d’un examen indépendant. Selon Meta, la langue n’est pas prise en charge car la demande de modération de contenu en igbo est faible. Cependant, Meta a informé le Conseil que lorsque le contenu est dans une langue non prise en charge par ses équipes d’examen à grande échelle, comme l’igbo, il est acheminé vers des équipes d’examen indépendantes (équipes d’examen qui travaillent avec du contenu en plusieurs langues) qui évaluent le contenu sur la base des traductions fournies par les systèmes de traduction automatique de Meta. Meta a également informé le Conseil qu’elle dispose de quelques locuteurs de l’igbo qui fournissent une expertise linguistique et examinent le contenu en igbo pour l’entreprise, bien que cela ne se fasse pas à grande échelle.
Le Conseil reconnaît que Meta a mis en place des mécanismes pour permettre la modération dans les langues non prises en charge, tels que l’examen indépendant de la langue et quelques spécialistes ayant une expertise en igbo. Cependant, le Conseil est préoccupé par le fait qu’en n’impliquant pas d’équipes d’examen manuel parlant l’igbo dans la modération à grande échelle du contenu dans cette langue, qui est parlée par des dizaines de millions de personnes au Nigeria et dans le monde, l’entreprise se trouve face à une capacité réduite pour modérer efficacement le contenu et atténuer les risques potentiels. Cela pourrait entraîner un préjudice potentiel pour les droits et la sécurité des utilisateurs, comme celui subi par les hommes montrés dans la vidéo du cas qui nous préoccupe. À la lumière de ses engagements en matière de droits humains, Meta devrait réévaluer ses critères de sélection des langues pour soutenir ses équipes d’examen à grande échelle afin d’être mieux à même de prévenir et d’atténuer les préjudices associés à l’utilisation de ses plateformes.
En outre, Meta a informé le Conseil que ses systèmes automatisés avaient détecté que la langue était l’anglais, avant d’acheminer le contenu pour un examen manuel. Selon Meta, cela vient du fait que la légende de l’utilisateur de la vidéo était en anglais. Bien que la légende soit en anglais, la vidéo est entièrement en igbo. Meta a reconnu avoir mal identifié la langue du contenu. Le Conseil est préoccupé par le fait que le contenu bilingue est mal acheminé, ce qui pourrait entraîner une mise en application inexacte.
Afin d’accroître l’efficacité et la précision de l’examen de contenu dans les langues non prises en charge, Meta doit s’assurer que ses systèmes de détection linguistique peuvent identifier précisément le contenu dans les langues non prises en charge et fournir des traductions précises de ce contenu aux équipes d’examen indépendantes quant à la langue. Meta doit également s’assurer que ce type de contenu est toujours acheminé vers des équipes d’examen indépendantes de la langue, même s’il utilise un mélange de langues prises en charge et non prises en charge. L’entreprise devrait également offrir aux équipes d’examen la possibilité de réacheminer le contenu utilisant une langue non prise en charge vers un examen indépendant.
Le Conseil est très préoccupé par le fait que, même après que Meta a supprimé le contenu dans ce cas, les recherches du Conseil ont mis au jour d’autres instances de cette même vidéo remontant à décembre 2023, y compris dans des Groupes Facebook, qui n’avaient pas été supprimées. Cela indique que Meta doit prendre beaucoup plus au sérieux ses responsabilités en matière de diligence raisonnable pour respecter les droits humains en vertu des Principes directeurs des Nations Unies. Le Conseil se félicite du fait que cette vidéo a été ajoutée à une banque MMS afin d’empêcher d’autres téléchargements, après que le Conseil a signalé à Meta les séquences restantes de la vidéo sur Facebook. Compte tenu de la gravité des atteintes aux droits humains qui peuvent résulter de l’utilisation des plateformes de Meta pour diffuser des vidéos de ce type, Meta devrait utiliser pleinement la mise en application automatisée pour supprimer de manière proactive les contenus similaires en infraction, en plus d’utiliser les banques MMS pour empêcher de nouveaux téléchargements.
6. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
7. Recommandations
Politique de contenu
1. Meta doit mettre à jour l’interdiction de la « révélation de l’identité » prévue par la politique relative aux attaques coordonnées et à la promotion d’actions criminelles afin d’inclure des exemples illustratifs de « groupes à risque », y compris les personnes LGBTQIA+ dans les pays où les relations entre personnes de même sexe sont interdites et/ou où de telles divulgations créent des risques importants pour leur sécurité.
Le Conseil considérera que cette recommandation aura été mise en œuvre lorsque le libellé public de la politique relative aux attaques coordonnées et à la promotion d’actions criminelles reflétera la modification proposée.
Mise en application
2. Pour améliorer la mise en œuvre de sa politique, Meta devrait procéder à une évaluation de la précision de la mise en application de l’interdiction à grande échelle d’exposer l’identité ou la localisation de toute personne supposée appartenir à un groupe à risque, en vertu du Standard de la communauté relatif aux attaques coordonnées et à la promotion d’actions criminelles.
Le Conseil considérera que cette recommandation aura été mise en œuvre lorsque Meta aura rendu publics les résultats de l’évaluation et qu’elle expliquera comment elle entend améliorer l’exactitude de la mise en application de cette politique.
3. Pour accroître l’efficacité et la précision de l’examen de contenu dans les langues non prises en charge, Meta doit s’assurer que ses systèmes de détection linguistique identifient précisément le contenu dans les langues non prises en charge et fournir des traductions précises de ce contenu aux équipes d’examen indépendantes quant à la langue.
Le Conseil considérera que cette recommandation aura été mise en œuvre lorsque Meta partagera des données signalant une précision accrue dans l’acheminement et l’examen du contenu dans des langues non prises en charge.
4. Meta devra veiller à ce que les contenus dans une langue non prise en charge, même s’ils sont combinés à des langues prises en charge, soient soumis à un examen indépendant. Il s’agit notamment de donner aux équipes d’examen la possibilité de réacheminer le contenu utilisant une langue non prise en charge vers un examen indépendant.
Le Conseil considérera que cette recommandation aura été mise en œuvre lorsque Meta lui fournira des données sur la mise en œuvre réussie de cette option d’acheminement pour les équipes d’examen.
* Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, un groupe d’investigations numériques fournissant des services de conseil en matière de risques et de renseignements sur les menaces pour atténuer les préjudices en ligne, a également fourni des recherches. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques