Renversé
Musique drill britannique
Le Conseil de surveillance a annulé la décision de Meta de supprimer d’Instagram un vidéo-clip de musique drill britannique.
MISE À JOUR – JANVIER 2023 :
Dans ce cas, le Conseil de surveillance a soumis au service de la Police métropolitaine (MPS, Metropolitan Police Service) une demande de liberté d’information contenant des questions sur la nature et le volume des demandes adressées par le MPS aux entreprises de médias sociaux, Meta y compris, pour qu’elles examinent ou suppriment du contenu ayant trait à la musique drill sur une période d’un an. Le MPS a répondu le 7 octobre 2022 et a fourni des chiffres sur le nombre de demandes envoyées et sur le nombre de demandes ayant entraîné une suppression du contenu. La réponse du MPS a été publiée dans son intégralité en parallèle à la décision et les chiffres ont été inclus dans la décision du Conseil du 22 novembre 2022. Le 4 janvier 2023, le MPS a contacté le Conseil en déclarant avoir repéré des erreurs dans sa réponse et les avoir corrigées. Les corrections portaient notamment sur les éléments suivants : l’ensemble des 992 demandes [286 dans la réponse précédente] envoyées aux sociétés de médias sociaux et de streaming par la Police métropolitaine pour qu’elles examinent ou suppriment du contenu entre juin 2021 et mai 2022 impliquaient de la musique drill et ces demandes ont entraîné 879 suppressions [255 dans la réponse précédente] ; 28 demandes concernaient les programmes Meta [21 dans la réponse précédente], dont 24 ont débouché sur une suppression [14 dans la réponse précédente]. La décision contient les anciens chiffres, antérieurs aux corrections du MPS. Cette mise à jour n’apporte aucune modification à l’analyse ou à la décision du Conseil de surveillance dans ce cas. La réponse mise à jour à cette demande de liberté d’information peut être consultée ici.
Résumé du cas
Le Conseil de surveillance a annulé la décision de Meta de supprimer d’Instagram un vidéo-clip de musique drill britannique. Meta avait à l’origine supprimé le contenu suite à une demande de la Police métropolitaine. Ce cas soulève des inquiétudes quant aux relations de Meta avec la police, qui est susceptible de favoriser les préjugés. Le Conseil fait des recommandations visant à améliorer le respect des procédures et la transparence dans ces relations.
À propos du cas
En janvier 2022, un compte Instagram qui se décrit comme faisant la promotion de la musique britannique a publié du contenu mettant à la une la sortie du morceau de musique drill britannique, « Secrets Not Safe » (Des secrets mal gardés) par Chinx (OS), notamment un clip du vidéo-clip du morceau.
Peu après, la Police métropolitaine, qui est responsable de l’application de la loi dans le Grand Londres, a envoyé un e-mail à Meta lui demandant d’examiner tout le contenu contenant « Secrets Not Safe » (Des secrets mal gardés). Meta a également reçu un contexte supplémentaire de la part de la Police métropolitaine. Selon Meta, il s’agissait d’informations sur la violence des gangs, notamment les meurtres, à Londres, et de la crainte de la police que le morceau ne conduise à de nouvelles violences en guise de représailles.
Les équipes spécialisées de Meta ont examiné le contenu. En s’appuyant sur le contexte fourni par la Police métropolitaine, elles ont estimé qu’il contenait une « menace voilée », en faisant référence à une fusillade de 2017, qui pourrait potentiellement conduire à d’autres violences. L’entreprise a supprimé le contenu du compte en question pour violation de sa politique relative à la violence et l’incitation. Elle a également supprimé 52 contenus contenant le morceau « Secrets Not Safe » (Des secrets mal gardés) d’autres comptes, dont celui de Chinx (OS). Les systèmes automatisés de Meta ont ensuite supprimé le contenu encore 112 fois.
Meta a transmis ce cas au Conseil. Le Conseil a demandé que Meta transmette également la publication du contenu de Chinx (OS). Toutefois, Meta a déclaré que cela était impossible, car la suppression de la vidéo « Secrets Not Safe » (Des secrets mal gardés) du compte de Chinx (OS) a finalement entraîné la suppression du compte, et son contenu n’a pas été préservé.
Principales observations
Le Conseil estime que la suppression de ce contenu n’est pas conforme aux Standards de la communauté de Meta, à ses valeurs ou à ses responsabilités en matière de droits de l’homme.
Meta ne disposait pas de preuves suffisantes pour conclure que le contenu contenait une menace crédible, et l’examen du Conseil n’a pas permis de découvrir de preuves à l’appui d’une telle conclusion. En l’absence de telles preuves, Meta aurait dû accorder davantage de crédit à la nature artistique du contenu.
Ce cas soulève des inquiétudes quant aux relations de Meta avec les gouvernements, en particulier lorsque des demandes d’application de la loi conduisent à l’examen d’un contenu licite au regard des Standards de la communauté et à sa suppression. Même si la police peut parfois fournir un contexte et une expertise, tous les contenus que la police souhaiterait voir supprimés ne doivent pas nécessairement l’être. Il est donc essentiel que Meta évalue ces demandes de manière indépendante, en particulier lorsqu’elles concernent l’expression artistique de personnes appartenant à des groupes minoritaires ou marginalisés pour lesquels le risque de préjugés culturels à l’encontre de leur contenu est élevé.
Les canaux par lesquels la police adresse ses demandes à Meta sont aléatoires et opaques. Il n’est pas demandé à la police de respecter des critères minimaux pour justifier ses demandes, et les interactions manquent donc de cohérence. Les données que Meta publie sur les demandes du gouvernement sont également incomplètes.
Le manque de transparence concernant la relation entre Meta et la police permet à l’entreprise de favoriser les préjugés. Une demande de liberté d’information faite par le Conseil a révélé que la totalité des 286 demandes que la Police métropolitaine a adressées aux entreprises de réseaux sociaux et aux services de streaming pour examiner ou supprimer des contenus musicaux entre juin 2021 et mai 2022 concernaient la musique drill, particulièrement populaire chez les jeunes Britanniques noirs. 255 de ces demandes ont abouti à la suppression du contenu par les plateformes. 21 demandes relatives aux plateformes Meta ont entraîné 14 suppressions de contenu. Le Conseil estime que, pour respecter ses valeurs et ses responsabilités en matière de droits de l’homme, la réponse de Meta aux demandes de la police doit respecter une procédure régulière et être plus transparente.
Ce cas soulève également des inquiétudes quant à l’accès au recours. Dans le cadre de ce cas, Meta a déclaré au Conseil que lorsque l’entreprise prend des décisions « à un niveau hiérarchique supérieur » sur le contenu, les utilisateurs ne peuvent pas faire appel au Conseil. Une décision prise « à un niveau hiérarchique supérieur » est rendue par les équipes spécialisées internes de Meta. Selon Meta, toutes les décisions relatives aux demandes de la police sont prises « à un niveau hiérarchique supérieur » (sauf si la demande est faite par le biais d’un « outil de signalement intégré au produit » accessible au public), tout comme les décisions relatives à certaines politiques qui ne peuvent être appliquées que par les équipes internes de Meta. Cette situation s’ajoute aux préoccupations soulevées lors de la préparation de l’avis consultatif de politique générale du Conseil sur le contrôle croisé, où Meta a révélé qu’entre mai et juin 2022, environ un tiers du contenu de vérification contrôlée n’a pas pu être transmis au Conseil.
Meta a remis le contenu transmis à un niveau hiérarchique supérieur au Conseil à plusieurs reprises, y compris cette fois-ci. Cependant, le Conseil est préoccupé par le fait que les utilisateurs se sont vu refuser l’accès à un recours lorsque Meta prend certaines de ses décisions les plus importantes en matière de contenu. L’entreprise doit s’attaquer à ce problème de toute urgence.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu.
Le Conseil recommande à Meta de :
- Créer un système normalisé pour recevoir les demandes de suppression de contenu émanant d’acteurs étatiques. Il s’agit notamment de demander des critères tels que la manière dont une politique a été violée, et les preuves de cette violation.
- Publier des données sur les demandes d’examen et de suppression de contenu par les acteurs étatiques en cas de violation des Standards de la communauté.
- Examiner régulièrement ses données sur les décisions de modération de contenu motivées par des demandes d’acteurs étatiques afin d’y déceler d’éventuels préjugés systémiques, et créer un mécanisme permettant de remédier à tout préjugé identifié.
- Donner aux utilisateurs la possibilité de faire appel au Conseil de surveillance lorsque celui-ci prend des décisions relatives au contenu « à un niveau hiérarchique supérieur ».
- Préserver les comptes et les contenus pénalisés ou désactivés pour avoir publié des contenus faisant l’objet d’une enquête ouverte par le Conseil.
- Mettre à jour sa valeur « Liberté d’expression » pour refléter l’importance de l’expression artistique.
- Préciser dans les Standards de la communauté que pour supprimer un contenu en tant que « menace voilée », un signal primaire et un signal secondaire sont nécessaires. Il convient d’indiquer clairement quel est ce signal.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision de Meta de supprimer un clip d’Instagram annonçant la sortie d’un titre de musique drill britannique de l’artiste Chinx (OS).
Meta a transmis ce cas au Conseil, car il soulève des questions récurrentes sur le traitement approprié de l’expression artistique qui fait référence à la violence. Il s’agit de trouver un équilibre entre les valeurs de Meta que sont la « Liberté d’expression », sous forme d’expression artistique, et la « Sécurité ».
Le Conseil estime que Meta n’avait pas suffisamment de preuves pour conclure de manière indépendante que le contenu contenait une menace voilée crédible. Selon le Conseil, le contenu n’aurait pas dû être supprimé en l’absence de preuves plus solides que ce contenu pouvait entraîner un préjudice imminent. Meta aurait dû prendre davantage en compte le contexte artistique du contenu pour évaluer la crédibilité de la menace supposée. Le Conseil estime que le contenu n’a pas violé le Standard de la communauté de Meta relatif à la violence et l’incitation, et que sa suppression n’a pas suffisamment protégé la valeur de « Liberté d’expression » de Meta, ni respecté les responsabilités de Meta en matière de droits de l’homme en tant qu’entreprise.
Ce cas soulève des préoccupations plus larges concernant la relation de Meta avec les gouvernements, notamment lorsque la police demande à Meta d’évaluer si un contenu licite est conforme à ses Standards de la communauté. Le Conseil estime que les canaux par lesquels les gouvernements peuvent demander de telles évaluations sont opaques et aléatoires. L’absence de transparence et de garanties adéquates concernant la relation de Meta avec la police offre la possibilité à l’entreprise d’exacerber les pratiques gouvernementales abusives ou discriminatoires.
Ce cas révèle également que, pour les décisions de modération de contenu que Meta prend à un niveau hiérarchique supérieur, les utilisateurs se sont vus refuser à tort la possibilité de faire appel auprès du Conseil de surveillance. Les décisions prises « à un niveau hiérarchique supérieur » sont celles rendues par les équipes internes spécialisées de Meta plutôt que par le processus d’examen de contenu « à l’échelle ». Ce manque de possibilité d’appel s’ajoute aux préoccupations concernant l’accès au Conseil qui seront abordées dans le prochain avis consultatif de politique du Conseil sur la vérification croisée. Ces préoccupations réunies soulèvent de sérieuses questions sur le droit d’accès des utilisateurs au recours lorsque Meta prend certaines de ses décisions les plus conséquentes en matière de contenu au moment de la transmission à un niveau hiérarchique supérieur. L’entreprise doit s’attaquer à ce problème de toute urgence.
2. Description du cas et contexte
En janvier 2022, un compte Instagram public se décrivant comme faisant la promotion de la musique britannique a publié une vidéo comprenant une courte légende. La vidéo était un extrait de 21 secondes d’un morceau de musique drill britannique intitulé « Secrets Not Safe » (Des secrets mal gardés) du rappeur britannique Chinx (OS). La légende mentionnait Chinx (OS) et un autre artiste et soulignait que le morceau venait de sortir. Le vidéo-clip présente le deuxième couplet du morceau et se termine par un écran noir avec le texte « OUT NOW » (MAINTENANT DISPONIBLE).
Le drill est un sous-genre de la musique rap populaire au Royaume-Uni, en particulier chez les jeunes Noirs, avec de nombreux artistes et fans de drill à Londres. Ce genre musical est hyper-local, les collectifs de drill pouvant être associés à des zones aussi petites que des lotissements. Il s’agit d’un genre populaire, largement pratiqué en anglais dans un contexte urbain où la frontière entre artistes professionnels et amateurs est mince. Les artistes parlent souvent en détail des conflits violents qui se déroulent dans les rues, en utilisant un récit à la première personne avec des images et des paroles qui dépeignent ou décrivent des actes violents. Les revendications potentielles de violence et la bravade performative sont considérées comme faisant partie du genre, une forme d’expression artistique où la réalité et la fiction peuvent s’entremêler. Par le biais de ces revendications, les artistes se disputent la pertinence et la popularité. La question de savoir si la musique drill induit ou non de la violence dans le monde réel est contestée, notamment la fiabilité des affirmations probantes avancées dans le débat.
Au cours des dernières années, les incidents enregistrés avec armes à feu et couteaux à Londres ont été élevés, avec des effets disproportionnés sur les communautés noires.
Les paroles de l’extrait du morceau sont citées ci-dessous. Le Conseil a ajouté la signification des termes anglais non standard entre crochets et a censuré les noms des personnes :
« Ay, broski [a close friend], wait there one sec (wait) ». (Eh, mon ami, attends là une seconde [attends]). « You know the same mash [gun] that I showed [name redacted] was the same mash that [name redacted] got bun [shot] with ». (Vous savez que le même [pistolet] que j’ai montré à [nom censuré] était le même que celui avec lequel [nom censuré] s’est fait tirer dessus). « Hold up, I’m gonna leave somebody upset (Ah, fuck) ». (Attends, je vais mettre quelqu’un en colère (Ah, merde)). « I’m gonna have man fuming ». (Un homme va être en colère.) « He was with me putting loud on a Blue Slim [smoking cannabis] after he heard that [name redacted] got wounded. [Name redacted] got bun, he was loosing (bow, bow) [he was beaten] ». (Il était avec moi en train de mettre du bruit sur un Blue Slim [en fumant du cannabis] après avoir entendu que [nom censuré] avait été blessé. [Nom censuré] a été blessé, il crevait (bow, bow) [il a été battu]. « Reverse that whip [car], confused him ». (Renverser cette caisse [voiture], ça l’a pertubé) « They ain’t ever wheeled up a booting [a drive-by shooting] (Boom) ». Ils n’ont jamais fait de fusillade en voiture (Boom). « Don’t hit man clean, he was moving. » (Ne frappe pas l’homme proprement, il était en mouvement.) Beat [shoot] at the crowd, I ain’t picking and choosing (No, no). (Battre [tirer] sur la foule, je ne choisis pas (Non, non).) Leave man red [bleeding], but you know [track fades out]. (Laissez l’homme tout rouge [en sang], mais vous savez [la piste s’éteint].
Peu de temps après la publication de la vidéo, Meta a reçu une demande par e-mail de la Police métropolitaine du Royaume-Uni pour examiner tout le contenu qui incluait ce morceau de Chinx (OS). Meta indique que la police a fourni le contexte de la violence des gangs et des meurtres qui y sont liés à Londres, et a signalé que certains éléments du morceau complet pourraient augmenter le risque de représailles de la part des gangs.
Après avoir reçu la demande de la Police métropolitaine, Meta a transmis l’examen de contenu à son équipe interne de global operations (opérations globales), puis à son équipe chargée de la politique de contenu. L’équipe chargée de la politique de contenu de Meta prend les décisions de suppression après avoir consulté des spécialistes en la matière et après des examens contextuels spécialisés. Sur la base du contexte supplémentaire fourni par la Police métropolitaine, Meta a estimé que l’extrait du morceau faisait référence à une fusillade en 2017. Elle a déterminé que le contenu allait à l’encontre de la politique en matière de violence et d’incitation, qui interdit notamment les « déclarations codées dans lesquelles la méthode de violence ou le préjudice n’est pas clairement défini, mais la menace est voilée ou implicite ». Meta a estimé que les paroles du morceau « constituaient un appel à l’action menaçant qui pouvait contribuer à un risque de violence ou de dommage physique imminent, y compris des représailles de la part de gangs ». Meta a donc supprimé le contenu.
Quelques heures plus tard, le créateur du contenu a fait appel de la décision auprès de Meta. En général, les utilisateurs ne peuvent pas faire appel des décisions relatives au contenu de Meta que l’entreprise prend dans le cadre de sa procédure de transmission à un niveau hiérarchique supérieur. En effet, les appels des utilisateurs à Meta ne sont pas transmis à des équipes à un niveau hiérarchique supérieur mais vers des examinateurs à l’échelle. Sans accès au contexte supplémentaire disponible lors de la transmission à un niveau hiérarchique supérieur, ces examinateurs risquent davantage de commettre des erreurs et d’annuler à tort les décisions prises lors de cette transmission. Dans ce cas, cependant, en raison d’une erreur humaine, l’utilisateur a pu faire appel de la décision escaladée auprès des examinateurs de Meta. Un examinateur à l’échelle a considéré le contenu comme n’étant pas en infraction et l’a restauré sur Instagram.
Huit jours plus tard, à la suite d’une deuxième demande de la Police métropolitaine britannique, Meta a supprimé le contenu par le biais de sa procédure de transmission à un niveau hiérarchique supérieur.
Dans ce cas, le compte est suivi par moins de 1 000 followers, la plupart vivant au Royaume-Uni. La personne a reçu des notifications de Meta les deux fois où son contenu a été supprimé, mais n’a pas été informée que ces suppressions avaient été effectuées sur demande des autorités britanniques.
En plus de supprimer le contenu en question, Meta a identifié et supprimé 52 éléments de contenu comportant le titre « Secrets Not Safe » (Des secrets mal gardés) d’autres comptes, dont celui de Chinx (OS). Meta a ajouté le contenu en cause dans ce cas à la banque de données du Service de mise en correspondance du contenu multimédia sur la violence et l’incitation, en le signalant comme étant en infraction. Ces banques identifient automatiquement les contenus correspondants et peuvent les supprimer ou empêcher leur mise en ligne sur Facebook et Instagram. L’ajout de la vidéo à la banque du service de mise en correspondance du contenu multimédia a entraîné 112 suppressions automatiques supplémentaires de contenu correspondant de la part d’autres utilisateurs.
Meta a transmis ce cas au Conseil. Le contenu auquel il fait référence a été publié à partir d’un compte qui n’était pas directement associé à Chinx (OS). Étant donné que la musique de Chinx (OS) est au centre de ce cas, le Conseil a demandé à Meta de renvoyer également sa décision de supprimer la publication de Chinx (OS) contenant le même morceau. Meta a expliqué que ce n’était pas possible, car la suppression de la vidéo du compte de l’artiste avait entraîné une grève. Le compte a donc dépassé le seuil de désactivation permanente. Après six mois, et avant la demande de renvoi supplémentaire du Conseil, Meta a supprimé définitivement le compte désactivé de Chinx (OS), dans le cadre d’un processus régulier et automatisé, malgré la décision en attente du Conseil de surveillance sur ce cas. L’action visant à supprimer le compte de Chinx (OS), ainsi que le contenu de celui-ci, était irréversible, rendant impossible sa transmission au Conseil.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil est compétent pour examiner les décisions que Meta transmet pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
Lorsque le Conseil identifie des cas qui soulèvent des questions similaires, ils peuvent être assignés ensemble à un panel. Dans ce cas, le Conseil a demandé à Meta de transmettre également le contenu comportant le même morceau publié par l’artiste Chinx (OS). Selon le Conseil, la difficulté de trouver un équilibre entre la sécurité et l’expression artistique aurait pu être mieux prise en compte en transmettant à Meta la publication de Chinx (OS) de sa musique depuis son propre compte. Cela aurait également permis au Conseil de prendre une décision contraignante concernant la publication de l’artiste. Les actions de Meta dans ce cas ont effectivement exclu l’artiste de la participation formelle aux processus du Conseil, et ont supprimé le compte de Chinx (OS) de la plateforme sans accès à un recours.
À plusieurs reprises, y compris cette fois-ci, Meta a transmis au Conseil des contenus qui avaient fait l’objet d’une remontée au sein de Meta (voir, par exemple, le cas du Bureau des affaires de communication du Tigré » et le cas « Suspension de l’ancien président américain Trump »). Lorsque Meta prend une décision sur le contenu « à un niveau hiérarchique supérieur », les utilisateurs ne peuvent pas faire appel de la décision auprès de l’entreprise ou du Conseil. Étant donné que Meta est en mesure de transmettre au Conseil les cas décidés au niveau de la transmission à un niveau hiérarchique supérieur, les utilisateurs qui ont rédigé ou signalé le contenu devraient également avoir le droit de faire appel au Conseil. Les décisions prises au moment de la transmission à un niveau hiérarchique supérieur sont susceptibles d’être parmi les plus importantes et les plus difficiles, et c’est là que le contrôle indépendant est le plus important. Les documents de gouvernance du Conseil prévoient que toutes les décisions de modération de contenu qui entrent dans le champ d’application et ne sont pas exclues par les statuts (article 2, sections 1.2, 1.2.1 des statuts) et qui ont épuisé la procédure d’appel interne de Meta (article 2, section 1 de la charte) peuvent faire l’objet d’un appel auprès du Conseil.
4. Sources d’autorité
Le Conseil de surveillance a pris en compte les autorités et les standards suivants dans sa décision :
I. Décisions du Conseil de surveillance :
- « Dessin représentant la police colombienne » (décision 2022-004-FB-UA) : en réponse aux préoccupations selon lesquelles les banques du Service de mise en correspondance du contenu multimédia peuvent amplifier l’impact des décisions incorrectes, le Conseil a recommandé à Meta d’améliorer de toute urgence les procédures visant à supprimer rapidement les contenus non violents ajoutés à tort à ces banques.
- « Dessin animé de Knin » (décision 2022-001-FB-UA) : le Conseil a annulé la décision de Meta de laisser du contenu sur la plateforme, estimant qu’une comparaison implicite entre les Serbes ethniques et les rats violait le Standard de la communauté relatif aux discours haineux, et que la référence, dans cette comparaison, à un évènement historique passé violait également le Standard de la communauté relatif à la violence et à l’incitation.
- « Collier de wampum » (décision sur le cas 2021-012-FB-UA) : le Conseil a souligné l’importance pour Meta de respecter l’expression artistique.
- « Publication partagée d’Al Jazeera » (décision sur le cas 2021-009-FB-UA) : le Conseil a recommandé à Meta de formaliser un processus transparent sur la façon dont elle traite et rend public les demandes du gouvernement. Les rapports de transparence devraient faire la distinction entre les demandes gouvernementales qui ont engendré la suppression pour infraction aux Standards de la communauté et les demandes qui ont engendré la suppression ou le blocage géographique de contenus pour infraction aux lois locales, en plus des demandes qui n’ont engendré aucune action.
- « Isolement d’Öcalan » (décision sur le cas 2021-006-IG-UA) : le Conseil a recommandé que Meta informe les utilisateurs lorsque leur contenu est supprimé à la suite d’une demande du gouvernement. La décision a également formulé des recommandations sur la transparence des rapports relatifs à ces demandes.
- « Manifestation en Inde contre la France » (décision sur le cas 2020-007-FB-FBR) : le Conseil a noté les difficultés à traiter les menaces voilées de violence à l’échelle en raison de l’importance de l’analyse contextuelle.
- « Symptômes du cancer du sein et nudité » (décision sur le cas 2020-004-IG-UA) : le Conseil a recommandé à Meta de préciser aux utilisateurs d’Instagram que les Standards de la communauté Facebook s’appliquent à Instagram de la même manière qu’à Facebook. Cette recommandation a été également formulée dans la décision sur le cas « Réappropriation de mots arabes » ( 2022-003-IG-UA).
II. Règles de Meta relatives au contenu :
Ce cas implique les Règles de la communauté Instagram et les Standards de la communauté Facebook.
Les Règles de la communauté Instagram indiquent, sous le titre « Respecter les autres membres de la communauté Instagram », que l’entreprise souhaite « favoriser une communauté positive et diversifiée. » L’entreprise supprime les contenus contenant des « menaces crédibles », ces mots étant liés au Standard de la communauté Facebook relatif à la violence et l’incitation. Les Règles précisent en outre ce qui suit :
Les menaces sérieuses d’atteintes à la sécurité publique et personnelle sont interdites. Cela inclut aussi bien les menaces précises de violence physique que les menaces de vol, de vandalisme et de tout autre préjudice financier. Nous examinons attentivement les signalements de menaces et prenons en compte un grand nombre d’éléments afin de déterminer si une menace est réelle.
La justification du Standard de la communauté Facebook relatif à la violence et l’incitation indique qu’il « vise à prévenir le préjudice hors ligne potentiel qui peut être lié au contenu sur Facebook » et que, même si Meta « comprend que les utilisateurs expriment couramment leur mépris ou leur désaccord en menaçant ou en appelant à la violence de manière non sérieuse, nous supprimons le langage qui incite ou facilite la violence réelle ». Il prévoit également que Meta supprime des contenus, désactive des comptes et collabore avec la police « lorsqu’elle estime qu’il existe un risque réel de blessures physiques ou des menaces directes pour la sécurité publique ». Meta déclare qu’elle essaie également « d’examiner le langage utilisé et le contexte pour distinguer les déclarations triviales de celles qui représentent une menace réelle pour la sécurité ».
Sous un sous-titre indiquant que Meta nécessite « des informations et/ou un contexte supplémentaires pour être appliqué », le Standard de la communauté prévoit que les utilisateurs ne doivent pas publier de déclarations codées « lorsque la méthode de violence ou de préjudice n’est pas clairement articulée, mais que la menace est voilée ou implicite ». Il s’agit notamment des « références à des incidents de violence historiques ou fictifs » et lorsque « le contexte local ou l’expertise du sujet confirment que la déclaration en question pourrait être menaçante et/ou pourrait conduire à une violence ou à des blessures physiques imminentes ».
III. Valeurs de Meta :
La « liberté d’expression » y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté est de créer un espace d’expression et de donner la parole au public. Meta souhaite que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouver à redire.
Meta limite la « Liberté d’expression » au profit de 4 valeurs. La « Sécurité » et la « Dignité » sont les plus pertinentes dans le cas présent.
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Nous supprimons les contenus susceptibles de menacer la sécurité physique. Les formes d’expression menaçantes peuvent intimider les autres personnes, les exclure ou les réduire au silence, et ne sont donc pas autorisées sur Facebook.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
IV. Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme en l’espèce s’est appuyée sur les standards des droits de l’homme suivants :
- Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018), A/74/486 (2019), A/HRC/44/49/Add.2 (2020).
- Le droit à la vie : Article 6, ICCPR.
- Le droit à la sécurité de sa personne : Article 9, para. 1, PIDCP.
- Le droit à un recours effectif : l’article 2 du PIDCP ; l’observation générale n° 31, Comité des droits de l’homme, (2004).
- Égalité et non-discrimination : l’article 2, paragraphe 1 et l’article 26 (PIDCP) ; article 2 du CIEDR.
- Droits culturels : l’article 27 du PIDCP ; l’article 15 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC) ; le rapport de la Rapporteuse spéciale des Nations unies dans le domaine des droits culturels sur la liberté d’expression artistique et de création, A/HRC/23/34, 2013.
5. Soumissions de l’utilisateur
Meta a transmis ce cas au Conseil, qui l’a sélectionné à la mi-juin 2022. En raison d’une erreur technique qui a depuis été corrigée, Meta n’a pas réussi à informer l’utilisateur que le Conseil avait sélectionné un cas concernant le contenu qu’il avait publié et ne l’a pas invité à soumettre une déclaration au Conseil. Fin août, Meta a notifié manuellement l’utilisateur, mais ce dernier n’a pas fourni de déclaration dans le délai de 15 jours.
6. Soumissions de Meta
Meta a expliqué au le Conseil qu’elle avait supprimé le contenu parce que la publication Instagram violait sa politique en matière de violence et d’incitation en contenant une menace voilée de violence. Meta a fait valoir que sa décision est conforme aux principes internationaux des droits de l’homme parce que les Standards de la communauté expliquent que les utilisateurs ne peuvent pas publier de menaces voilées de violence ; parce que l’application de cette politique sert l’objectif légitime de protéger les droits d’autrui et l’ordre public ; et parce que la suppression du contenu en question était nécessaire et proportionnée pour atteindre ces objectifs.
Meta estime que cette décision est particulièrement difficile à prendre car sa politique en matière de violence et d’incitation ne prévoit pas d’exceptions explicites pour l’humour, la satire ou l’expression artistique. La politique exige que Meta évalue si une menace est crédible ou s’il s’agit simplement d’une démonstration de bravade ou d’une expression provocatrice, mais finalement non violente. Meta considère que ce cas est important, car il soulève des questions récurrentes sur le traitement approprié de l’expression artistique qui fait référence à la violence. Cette évaluation implique de trouver un équilibre entre ses valeurs de « liberté d’expression » et de « sécurité ». Meta a indiqué au Conseil que, lorsque l’œuvre d’un créateur comprend des menaces de violence ou des déclarations qui pourraient contribuer à un risque de violence, elle « privilégie la suppression de nos plateformes ».
Les Règles internes de Meta destinées aux modérateurs, les Standards internes de mise en application, définissent « l’analyse des menaces voilées » que Meta utilise pour déterminer l’existence de menaces voilées au titre du Standard de la communauté relatif à la violence et l’incitation. Cela explique que pour qu’un contenu soit considéré comme une menace voilée, il doit y avoir à la fois un signal primaire (comme une référence à un acte de violence passé) et un signal secondaire. Les signaux secondaires comprennent le contexte local ou l’expertise en la matière indiquant que le contenu est potentiellement menaçant, ou la confirmation par la cible qu’elle considère le contenu comme menaçant. Selon Meta, les ONG locales, les forces de l’ordre, l’équipe de politique publique de Meta ou d’autres spécialistes locaux fournissent des signaux secondaires. « L’analyse des menaces voilées » n’est effectuée qu’« à un niveau hiérarchique supérieur », ce qui signifie qu’elle ne peut pas être effectuée par des examinateurs « à l’échelle ». Elle ne peut être menée que par les équipes internes de Meta.
Dans ce cas, Meta a estimé que le contenu contenait un signal primaire en faisant référence à la participation du rappeur à une fusillade antérieure et en indiquant une intention de réagir davantage. Selon Meta, le signal secondaire était la confirmation par la Police métropolitaine britannique qu’elle considérait le contenu comme potentiellement menaçant ou susceptible de contribuer à une violence ou des blessures physiques imminentes. La police n’a pas allégué que le contenu violait la loi locale. Meta affirme qu’elle évalue les rapports de la police en même temps que l’expertise politique, culturelle et linguistique des équipes internes de Meta.
Meta a affirmé que la musique drill a souvent été liée à la violence, citant un rapport d’échange de politiques affirmant qu’environ un quart des meurtres commis par des gangs londoniens ont été liés à la musique drill. Toutefois, Meta a reconnu par la suite que ce rapport avait fait l’objet de « quelques critiques de la part des criminologues ». Meta a cité une lettre ouverte, signée par 49 criminologues, spécialistes des sciences sociales et organisations professionnelles, qui « rejette le rapport comme étant factuellement inexact, trompeur et politiquement dangereux » et pour avoir « commis de graves erreurs de causalité et corrélation.
Certaines politiques de Meta ne peuvent être appliquées que par les équipes internes de Meta, par le biais de son processus de transmission à un niveau hiérarchique supérieur interne. C’est ce qu’on appelle une décision prise « à un niveau hiérarchique supérieur ». Meta a fourni une liste d’environ 40 règles « de transmission à un niveau hiérarchique supérieur uniquement » dans 9 domaines politiques. Le Conseil a demandé à Meta comment, dans ce cas, un examinateur à l’échelle a pu restaurer une publication qui avait été supprimée à un niveau hiérarchique supérieur. Meta a répondu qu’« exceptionnellement dans ce cas et en raison d’une erreur humaine, le créateur du contenu a pu faire appel de la décision initiale de suppression. » Meta a révélé que lorsque le contenu est traité par le processus de transmission à un niveau hiérarchique supérieur interne de Meta, il n’est généralement pas possible de faire appel pour un second examen par la société. Il s’agit d’empêcher les examinateurs « à l’échelle » de revenir sur des décisions prises « à un niveau hiérarchique supérieur » sans avoir accès au contexte disponible dans la révision prise à un niveau hiérarchique supérieur.
À la demande du Conseil, Meta a présenté une séance d’information sur les « demandes gouvernementales d’examen du contenu pour les violations des Standards de la communauté ». Meta a expliqué au Conseil que les gouvernements peuvent demander à l’entreprise de supprimer du contenu par e-mail, par courrier postal ou par le biais des Pages d’aide, ainsi que par le biais d’outils de rapport intégrés au produit, qui envoient le contenu à un examen automatisé ou « à l’échelle ».
Meta a expliqué que lorsqu’elle reçoit une demande de la police faite en dehors des outils intégrés au produit, le contenu passe par un processus de transmission à un niveau hiérarchique supérieur interne. indépendamment de la manière dont une transmission à un niveau hiérarchique supérieur est reçue, il existe un processus standard de champ d’application et de définition des priorités pour évaluer l’urgence, la sensibilité et la complexité de la transmission à un niveau hiérarchique supérieur. Ce processus détermine quelle équipe de Meta traitera la demande et la position de la demande dans la file d’attente. Suite à une demande d’examen de la part d’un tiers, notamment les gouvernements, l’équipe de global operations (opérations globales) de Meta remplit manuellement un formulaire avec des signaux. Le modèle de priorisation et les piliers prennent en compte les signaux liés aux risques juridiques, de réputation et réglementaires, l’impact sur la sécurité physique de la communauté de Meta, la portée et l’audience du problème en question, et la sensibilité temporelle du problème.
Ces piliers de priorisation sont classés par ordre d’importance et un score de priorité est automatiquement calculé sur la base des signaux saisis. Le modèle est dynamique et réagit aux changements de l’environnement (par exemple, les évènements hors ligne) et les améliorations que Meta introduit. Les transmissions à un niveau hiérarchique supérieur de haute priorité, comme dans le cas présent, sont envoyées à une équipe spécialisée au sein de l’équipe de global operations (opérations globales) de Meta. L’équipe examine le contenu par rapport aux Standards de la communauté, mène une enquête, demande aux parties prenantes de procéder à une évaluation supplémentaire si nécessaire, et prend une décision de mise en application. Dans certains cas, dont celui-ci, le contenu est ensuite transmis à l’équipe chargée de la politique de contenu pour qu’elle y apporte sa contribution. Les mesures prises sont communiquées à la (aux) personne(s) externe(s) qui a (ont) soumis la demande initiale. Meta a indiqué que son équipe chargée des droits de l’homme ne se prononce généralement pas sur les applications individuelles du cadre des menaces voilées.
Meta déclare que lorsqu’elle reçoit des demandes de suppression de contenu de la part des forces de l’ordre, elle évalue le contenu par rapport aux Standards de la communauté de la même manière qu’elle le ferait pour tout autre élément de contenu, indépendamment de la manière dont il a été détecté ou transmis. Meta affirme que cela signifie que les demandes sont traitées de la même manière dans tous les pays. Meta a expliqué que le score de priorité est affecté par le contexte qui est fourni par rapport aux piliers. Même si l’identité du demandeur n’est pas un facteur qui affecte directement la priorisation, ces types de contexte spécifiques ont un impact sur la priorisation.
Pour faire appel auprès du Conseil de surveillance, un utilisateur doit avoir un ID de référence d’appel. Meta délivre ces ID dans le cadre de sa procédure d’appel. En réponse aux questions du Conseil, Meta a confirmé qu’elle procède ainsi pour les décisions relatives au contenu qui peuvent faire l’objet d’un appel interne et après qu’un deuxième examen a été épuisé. Par conséquent, dans les situations où Meta agit sur le contenu sans permettre un appel, il n’y a pas de possibilité d’appel auprès du Conseil. C’est généralement le cas pour les décisions prises « à un niveau hiérarchique supérieur », comme celles qui sont examinées à la suite de demandes du gouvernement (faites en dehors des outils de signalement intégrés au produit), et le contenu examiné dans le cadre de politiques « de transmission à un niveau hiérarchique supérieur uniquement ».
Le Conseil a formellement envoyé à Meta un total de 26 questions écrites, dont 3 séries de questions complémentaires. Ces chiffres ne tiennent pas compte des questions posées par le Conseil lors de la séance d’information en personne que Meta a fournie au Conseil sur la façon de traiter les demandes du gouvernement. 23 des questions écrites ont reçu une réponse complète et 3 demandes n’ont pas été complétées par Meta. Meta a refusé de fournir des données sur les demandes d’application de la loi dans le monde et au Royaume-Uni portant sur les « menaces voilées », la musique drill, ou la proportion de demandes aboutissant à une suppression pour violation des Standards de la communauté. De plus, Meta a refusé de fournir une copie des demandes d’examen de contenu reçues de la Police métropolitaine dans ce cas. Cependant, la Police métropolitaine a fourni au Conseil une copie de la première demande envoyée à Meta, à condition que le contenu de la demande reste confidentiel.
7. Commentaires publics
Le Conseil de surveillance a reçu 10 commentaires publics en rapport avec ce cas. Un commentaire a été envoyé par chacune des régions suivantes : Europe ; Moyen-Orient et Afrique du Nord ; et Amérique latine et Caraïbes. Deux de ces commentaires provenaient de l’Asie centrale et du Sud, et cinq des États-Unis et du Canada. La Police métropolitaine a fourni un commentaire ; elle a compris que le Conseil divulguerait ce fait, mais n’a pas autorisé la publication de ce commentaire. Le Conseil a demandé à la Police métropolitaine de revoir cette décision dans un souci de transparence, mais elle a refusé. La Police métropolitaine a indiqué qu’elle pourrait être en mesure de donner son consentement ultérieurement. Si cela se produit, le Conseil partagera le commentaire public.
Les commentaires portaient sur les thèmes suivants : les préjugés raciaux et le ciblage disproportionné des communautés noires par la police ; l’importance du contexte socioculturel dans l’évaluation de l’expression artistique ; les liens de causalité entre la musique drill et la violence ; et le traitement des demandes de suppression émises par le gouvernement.
Le Conseil a déposé une demande en vertu de la loi sur la liberté d’information (référence nº : 01/FOI/22/025946) à la Police métropolitaine afin de fournir des informations sur ses politiques et pratiques concernant les demandes adressées aux réseaux sociaux et aux sociétés de streaming pour qu’ils examinent et/ou suppriment des contenus. Leurs réponses à cette demande éclairent l’analyse du Conseil ci-dessous.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici. Pour lire la réponse de la Police métropolitaine à la demande de liberté d’information du Conseil, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné la question de la restauration de ce contenu sous 3 angles : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Le Conseil estime que la suppression du contenu en question par Meta dans ce cas n’a pas respecté le Standard de la communauté relatif à la violence et à l’incitation.
Il est difficile de détecter et d’évaluer les menaces à l’échelle, en particulier lorsqu’elles sont voilées et qu’une expertise culturelle ou linguistique spécifique peut être nécessaire pour évaluer le contexte (voir les décisions du Conseil de surveillance « Manifestation en Inde contre la France » et « Dessin animé de Knin »). L’expression artistique peut contenir des menaces voilées, comme tout autre média. La difficulté d’évaluer la crédibilité des menaces voilées dans l’art est particulièrement élevée. Les messages dans l’art peuvent être intentionnellement obscurs dans leur intention et délibérément sujets à interprétation. Les déclarations faisant référence à la violence peuvent être codées, mais peuvent aussi être de nature performative ou satirique. Elles peuvent même caractériser certaines formes d’art, comme la musique drill. Meta a reconnu ces défis lorsqu’elle a soumis ce cas au Conseil.
Le Conseil est d’accord avec Meta sur le fait que les paroles du vidéo-clip ne contenaient pas de menace manifeste de violence au sens du Standard de la communauté relatif à la violence et l’incitation.
Il est plus difficile de déterminer si la vidéo contient une menace voilée au titre de la même politique. La justification de la politique souligne que Meta cherche à « prévenir les préjudices potentiels hors ligne » et que le langage « qui incite ou facilite la violence grave » et qui « présente un risque réel de blessures physiques ou de menaces directes pour la sécurité publique » sera supprimé. L’accent est mis sur la distinction entre les menaces crédibles et les menaces non crédibles. L’établissement d’une relation de cause à effet entre la langue et le risque de préjudice nécessite une analyse exigeante en ressources.
Pour qu’un contenu constitue une menace « voilée ou implicite » au sens du Standard de la communauté relatif à la violence et l’incitation, il n’est pas nécessaire que la méthode de violence ou de préjudice soit clairement énoncée. Meta utilise son « analyse des menaces voilées », présentée dans ses règles non publiques aux modérateurs, les règles de mise en application internes, pour évaluer si une menace voilée est présente. Il faut pour cela qu’un signal primaire et un signal secondaire soient identifiés pour que le contenu puisse être considéré comme une menace voilée.
Le Conseil partage l’avis de Meta selon lequel un signal primaire est présent dans ce cas. Les paroles font référence à un incident « historique » de violence. Un contexte supplémentaire est nécessaire pour comprendre qu’il s’agit d’une fusillade de 2017 entre deux gangs rivaux à Londres. Pour Meta, l’extrait dans son intégralité faisait référence à ces évènements. La conclusion du Conseil, qui rejoint celle de Meta selon laquelle un signal primaire est présent, est basée sur deux analyses indépendantes de tiers des paroles recherchées par le Conseil. Le Conseil note que ces analyses différaient de manière significative de l’interprétation de Meta. Par exemple, Meta a interprété le terme « mash » comme signifiant « cannabis », alors que les spécialistes consultés par le Conseil ont interprété ce terme comme signifiant « pistolet ». Meta a interprété le terme « bun » comme signifiant « haut », alors que les spécialistes du Conseil l’ont interprété comme signifiant « tiré ».
L’identification d’une menace voilée ou implicite requiert également un signal secondaire montrant que la référence « pourrait être menaçante et/ou pourrait conduire à une violence ou des blessures physiques imminentes » [mise en avant ajoutée]. Ce signal dépend du contexte local, souvent fourni par des tiers tels que la police, qui confirme que le contenu « est considéré comme potentiellement menaçant ou susceptible de contribuer à une violence ou des blessures physiques imminentes » [mise en avant ajoutée]. Dans ce cas, la Police métropolitaine britannique a fourni cette confirmation. Meta a déterminé que la référence de Chinx (OS) à la fusillade de 2017 était potentiellement menaçante, ou susceptible de contribuer à une violence imminente ou à des blessures physiques et qualifiée de menace voilée. L’évaluation contextuelle de Meta comprenait la rivalité spécifique entre les gangs associée à la fusillade de 2017, ainsi que le contexte plus large de la violence et des meurtres entre gangs à Londres.
Il convient que Meta s’appuie sur l’expertise locale en la matière pour évaluer le contexte pertinent et la crédibilité des menaces voilées. Le Conseil note qu’il existe une anxiété compréhensible concernant les niveaux élevés de violence armée et de violence au couteau ces dernières années à Londres, avec des effets disproportionnés sur les communautés noires. La police peut parfois fournir ce contexte et cette expertise. Mais tous les contenus que la police préférerait voir supprimés, et même tous les contenus qui ont le potentiel de conduire à une escalade de la violence, ne doivent pas être supprimés. Il est donc essentiel que Meta évalue elle-même ces demandes et parvienne à une conclusion indépendante. L’entreprise dit qu’elle le fait. L’indépendance est cruciale, et l’évaluation doit exiger des preuves spécifiques de la façon dont le contenu cause un préjudice. Ceci est particulièrement important pour éviter que la police ne partage les informations de manière sélective et que les autres parties prenantes n’aient la possibilité d’exprimer leur point de vue. Pour les expressions artistiques émanant de personnes appartenant à des groupes minoritaires ou marginalisés, le risque de préjugés culturels à l’encontre de leur contenu est particulièrement élevé.
En l’espèce, Meta n’a pas démontré que les paroles du contenu examiné constituaient une menace crédible ou un risque de dommage imminent, et l’examen du Conseil n’a pas permis de trouver des preuves à l’appui d’une telle conclusion. Pour établir que la référence à une fusillade survenue il y a cinq ans présente un risque de préjudice aujourd’hui, il faut des preuves supplémentaires au-delà de la référence elle-même. Le fait que le morceau fasse référence à des évènements impliquant des gangs engagés dans une rivalité violente ne signifie pas que les références artistiques à cette rivalité constituent nécessairement une menace. En l’absence de détails suffisants pour rendre ce lien de causalité plus clair, tels que des preuves de paroles passées se matérialisant par des actes de violence ou un rapport de la cible de la prétendue menace indiquant qu’elle était en danger, un poids plus important aurait dû être accordé à la nature artistique de la prétendue menace lors de l’évaluation de sa crédibilité. Le fait que la bravade performative soit courante dans ce genre musical était un contexte pertinent qui aurait dû éclairer l’analyse de Meta sur la probabilité que la référence du morceau à la violence passée constitue une menace actuelle crédible. Des spécialistes tiers ont informé le Conseil qu’une analyse ligne par ligne des paroles pour déterminer la preuve d’actes répréhensibles passés ou le risque de préjudice futur est notoirement inexacte et qu’il est difficile de vérifier des déclarations supposées factuelles dans des paroles de musique drill (Digital Rights Foundation, PC-10618). Des commentaires publics (par exemple, Electronic Frontier Foundation, PC-10971) ont critiqué le contrôle de la musique drill légale par la police, et la recherche Meta citée dans ses soumissions a été largement critiquée par les criminologues, comme l’a reconnu l’entreprise. De l’avis du Conseil, cette critique aurait également dû être prise en compte dans l’analyse de Meta et l’inciter à demander des informations supplémentaires à la police et/ou à d’autres parties concernant le lien de causalité avant de supprimer le contenu.
Le Conseil note également que le morceau complet de Chinx (OS), qui a été extrait dans ce cas, reste disponible sur les plateformes de streaming musical accessibles au Royaume-Uni et il n’a vu aucune preuve que cela ait conduit à un quelconque acte de violence. Ce contexte n’était pas disponible pour Meta au moment de sa décision initiale dans ce cas, mais il est néanmoins pertinent pour l’examen indépendant du contenu par le Conseil.
Le Conseil reconnaît la nature profondément contextuelle de ce type de décision sur le contenu que Meta doit prendre, ainsi que la pression temporelle associée lorsqu’il peut y avoir des risques de préjudice grave. Des personnes raisonnables peuvent diverger, comme dans le cas présent, sur la question de savoir si un contenu donné constitue une menace voilée. Néanmoins, le manque de transparence sur les décisions de Meta de supprimer le contenu résultant des demandes du gouvernement rend difficile d’évaluer si l’erreur de Meta dans un cas individuel reflète un désaccord raisonnable ou est indicative d’un préjudice systémique potentiel qui nécessite des données supplémentaires et une enquête plus approfondie. Meta insiste sur le fait que son « analyse des menaces voilées » est indépendante, et le Conseil convient qu’elle devrait l’être, mais dans ce contexte, la parole de Meta ne suffit pas. Meta déclare qu’elle évalue le contenu par rapport aux Standards de la communauté de la même manière qu’elle le ferait pour tout autre élément de contenu, indépendamment de la manière dont il est détecté. « L’analyse des menaces voilées » place la police dans la position où elle doit à la fois signaler le contenu (c’est-à-dire signaler un signal primaire) et fournir toutes les informations contextuelles dont Meta a besoin pour évaluer le danger potentiel (c’est-à-dire fournir les connaissances locales nécessaires pour le signal secondaire). S’il peut y avoir de bonnes raisons d’adopter un cadre de priorisation garantissant une évaluation rapide des rapports émanant des services de police, ce processus doit être conçu de manière à garantir que ces rapports contiennent suffisamment d’informations pour permettre une évaluation indépendante, y compris la recherche d’informations supplémentaires auprès de l’entité requérante ou d’autres parties si nécessaire.
Le Conseil fait la distinction entre cette décision et sa décision concernant le « Dessin animé de Knin ». Dans ce cas, le contexte supplémentaire pour appliquer la règle de la « menace voilée » était la présence, dans le dessin dessiné, d’un discours haineux contre le groupe visé par l’incident violent antérieur. Le Conseil a principalement justifié la suppression en se fondant sur le Standard de la communauté relatif au discours haineux. Pour conclure que le contenu violait en outre le Standard de la communauté relatif à la violence et à l’incitation, le Conseil s’est appuyé sur des connaissances contextuelles permettant de comprendre l’incident historique (Opération Storm) mentionné dans la publication. Cette connaissance du contexte est bien connue dans la région, tant des locuteurs de langue croate que des Serbes d’origine. Cela a été démontré par le nombre de signalements que le contenu dans ce cas a reçu (près de 400), comparé au contenu dans ce cas qui n’a reçu aucun signalement. L’incitation à la haine contre un groupe ethnique était immédiatement apparente pour un observateur occasionnel. Si la compréhension de nombreuses références dans le contenu repose sur des connaissances contextuelles spécifiques, ces connaissances peuvent être acquises sans faire appel à des tiers.
II. Mesures de mise en application et transparence
Dans ce cas, une demande de la police a entraîné 52 suppressions manuelles et 112 suppressions automatisées de contenus correspondants (entre le 28 janvier 2022 et le 28 août 2022). Il est important de reconnaître que les mesures prises par Meta en réponse à la demande de la Police métropolitaine ont eu un impact non seulement sur le propriétaire du compte Instagram dans ce cas, mais également sur Chinx (OS) et beaucoup d’autres personnes (voir également : le cas du « Dessin représentant la police colombienne »).
L’ampleur de ces suppressions souligne l’importance d’une procédure régulière et de la transparence autour de la relation de Meta avec la police et des conséquences des actions prises dans le cadre de cette relation (voir également les décisions du Conseil de surveillance « Isolement d’Öcalan » et « Publication partagée d’Al Jazeera »). Pour répondre à ces préoccupations, il est nécessaire de mettre en place un processus clair et uniforme avec des garanties contre la maltraitance, y compris des audits, une notification adéquate aux utilisateurs de l’implication du gouvernement dans l’action entreprise à leur encontre, et un rapport transparent de ces interactions au public. Ces trois aspects sont étroitement liés et doivent tous être abordés.
a. Transparence envers le public
Meta publie des rapports dans son Espace modération sur les demandes gouvernementales de suppression de contenu fondées sur la législation locale. Elle publie également des rapports distincts sur les demandes gouvernementales de données relatives aux utilisateurs. Il existe un rapport distinct sur la mise en application des Standards de la communauté. Cependant, aucun de ces rapports ne différencie les données sur les contenus supprimés pour violation des politiques de contenu à la suite d’une demande d’examen par le gouvernement. Les données actuelles de transparence sur les demandes de suppression des gouvernements ne représentent pas toute l’étendue des interactions entre Meta et la police sur les suppressions de contenu. En se concentrant sur l’action de Meta (suppression pour violation de la loi locale), le rapport sur les demandes gouvernementales exclut tous les signalements reçus de la police qui entraînent une suppression pour violation des politiques de contenu. Les contenus signalés par la police qui violent à la fois la législation locale et les politiques de contenu ne sont pas inclus. C’est pourquoi le Conseil a envoyé une demande de liberté d’information à la Police métropolitaine afin de mieux comprendre les enjeux de ce cas.
Meta a affirmé que la transparence autour des demandes de suppression des gouvernements basées sur les politiques de contenu est d’une utilité limitée, puisque les gouvernements peuvent (et utilisent) également des outils de signalement intégrés au produit. Ces outils ne font pas de distinction entre les demandes du gouvernement et celles des autres utilisateurs.
Ce cas démontre le niveau d’accès privilégié de la police aux équipes internes de Meta chargées de la mise en application de la loi, comme en témoigne la correspondance que le Conseil a vue, et comment certaines politiques dépendent de l’interaction avec des tiers, tels que la police, pour être appliquées. La manière dont cette relation fonctionne pour les politiques de transmission à un niveau hiérarchique supérieur uniquement, comme dans ce cas, remet en question la capacité de Meta à évaluer de manière indépendante les conclusions des acteurs gouvernementaux qui manquent de preuves détaillées.
Le Conseil reconnaît que Meta a fait des progrès en matière de transparence depuis les premières décisions du Conseil sur ce sujet. Il s’agit notamment de mener un exercice de cadrage sur la mesure du contenu supprimé en vertu des Standards de la communauté à la suite de demandes gouvernementales, et de contribuer à Lumen, un projet de recherche du Berkman Klein Center for Internet & Society sur les demandes de suppression gouvernementales. De nouveaux efforts de transparence dans ce domaine seront extrêmement utiles au débat public sur les implications des interactions entre les gouvernements et les entreprises de réseaux sociaux.
b. Processus de réception des demandes de la police
Même si Meta a divulgué publiquement la manière dont elle répond aux demandes gouvernementales de suppressions fondées sur des violations de la législation locale, les canaux par lesquels les gouvernements peuvent demander un examen des violations des politiques de contenu de Meta restent opaques.
Ce cas démontre qu’il existe des failles importantes dans le système de Meta régissant les demandes d’application de la loi, lorsque ces demandes ne sont pas fondées sur la législation locale et qu’elles sont faites en dehors de ses outils de signalement intégrés au produit (c’est-à-dire les fonctions auxquelles tous les utilisateurs réguliers ont accès pour signaler ou marquer du contenu). Dans la décision « Publication partagée d’Al Jazeera », le Conseil a recommandé à Meta de mettre en place une procédure formelle et transparente pour recevoir toutes les demandes gouvernementales de suppression de contenu. Les services de l’ordre formulent des demandes par divers canaux de communication, ce qui rend difficile la normalisation et la centralisation des demandes, ainsi que la collecte de données à leur sujet. Le système de réception actuel, dans lequel Meta remplit le formulaire de réception, se concentre uniquement sur la priorisation des demandes entrantes. Le système ne garantit pas de manière adéquate que les demandes des tiers répondent aux standards minimum et ne permet pas la collecte précise de données permettant de contrôler et d’auditer correctement les effets de ce système. Certaines demandes peuvent faire référence à des violations des Standards de la communauté de Meta, d’autres à des violations de la législation nationale, et d’autres encore à des préoccupations générales concernant des préjudices potentiels sans les relier à des allégations d’activités illégales ou de violations des politiques de la plateforme. Il n’est pas demandé à la police de répondre à des critères minimum pour contextualiser et justifier pleinement ses demandes, ce qui conduit à des interactions non structurées, ad hoc et incohérentes avec Meta. Les critères minimaux peuvent inclure, par exemple, une indication de la politique de Meta qui selon la police a été violée, la raison pour laquelle elle a été violée, et une base probante suffisamment détaillée pour cette conclusion.
c. Notification aux utilisateurs
Dans sa mise à jour trimestrielle du 2e trimestre 2022 sur le Conseil de surveillance, Meta a révélé qu’elle améliore les notifications aux utilisateurs en indiquant spécifiquement quand un contenu a été supprimé pour violation des Standards de la communauté après avoir été signalé par une entité gouvernementale (en appliquant la recommandation du Conseil dans la décision sur le cas de « l’isolement d’Öcalan »). Dans ce cas, si ces modifications avaient été appliquées, tous les utilisateurs concernés par les 164 suppressions supplémentaires de contenu auraient dû recevoir des notifications de ce type. Meta a admis ne pouvoir concevoir et tester l’envoi de notifications plus détaillées aux utilisateurs que lorsqu’elle aura mis en place l’infrastructure nécessaire pour recueillir des données plus précises à partir des demandes du gouvernement. Le Conseil convient donc avec Meta que ce travail dépend du suivi et de la fourniture de plus d’informations sur les demandes du gouvernement, qui peuvent ensuite être publiées dans les rapports de transparence publics de Meta.
8.2 Respect des valeurs de Meta
Le Conseil estime que la suppression du contenu n’était pas conforme aux valeurs de Meta. Ce cas démontre les défis auxquels Meta est confronté pour équilibrer les valeurs de « Liberté d’expression » et de « Sécurité », lorsqu’il s’agit de traiter un grand nombre de menaces voilées potentielles dans l’art, à l’échelle mondiale et en temps voulu. Toutefois, Meta affirme que la « Liberté d’expression » est sa valeur primordiale. Comme l’a déclaré le Conseil dans sa décision « Collier de wampum », l’art est une expression particulièrement importante et puissante de la « Liberté d’expression », surtout pour les personnes issues de groupes marginalisés qui créent des œuvres inspirées de leurs expériences. Meta ne disposait pas d’informations suffisantes pour conclure que ce contenu présentait un risque pour la « Sécurité » en supplantant la valeur de « Liberté d’expression ».
Le Conseil est préoccupé par la description de Meta, qui, au vu des doutes quant à la crédibilité du risque de préjudice que présente le contenu, privilégie la valeur de « Sécurité » plutôt que celle de la « Liberté d’expression ». Quand le doute surgit, comme dans ce cas, en raison du manque de spécificité des informations fournies par la police au sujet d’une œuvre d’expression artistique, une telle approche est incompatible avec les valeurs que Meta s’attribue. Le Conseil reconnaît qu’il est important de protéger les personnes contre la violence, et que cela est particulièrement important pour les communautés touchées de manière disproportionnée par cette violence. Le Conseil est également conscient que les décisions concernant les menaces présumées doivent souvent être prises rapidement, sans bénéficier d’une réflexion approfondie. Cependant, une présomption contre la valeur de la « Liberté d’expression » peut avoir un impact disproportionné sur la liberté d’expression des personnes marginalisées. Dans la pratique, elle peut également accroître de manière significative le pouvoir et l’influence de la police, qui peut revendiquer des connaissances difficiles à vérifier par d’autres sources.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil conclut que Meta n’a pas assumé ses responsabilités en matière de droits de l’homme en tant qu’entreprise en décidant de supprimer cette publication.
Toute personne a droit à la liberté d’expression sans discrimination (article 19, paragraphe 2 du PIDCP ; article 2, paragraphe 1 du PIDCP). Ce cas soulève également la question du droit des personnes appartenant à des minorités ethniques de jouir, en commun avec les autres membres de leur groupe, de leur propre culture (article 27 du PIDCP) et du droit de participer à la vie culturelle (article 15 du PIDESC). Le droit d’accès à un recours est une composante essentielle du droit international des droits de l’homme (article 2, paragraphe 3 du PIDCP ; Observation générale n° 31), et le recours est un troisième pilier des PDNU et un domaine d’intervention de la politique de Meta relative aux droits de l’homme.
Liberté d’expression (article 19 du PIDCP) ; article 5 du CIEDR)
L’article 19 du PIDCP mentionne spécifiquement la protection de l’expression « sous forme d’art ». Les normes internationales relatives aux droits de l’homme renforcent l’importance de l’expression artistique ( Observation générale nº 34, paragraphe 11 ; Shin contre la République de Corée, Comité des droits de l’homme, communication n° 926/2000). La Convention internationale sur l’élimination de toutes les formes de discrimination raciale (ICERD) protège l’exercice du droit à la liberté d’expression sans discrimination fondée sur l’origine ethnique (article 5). La Comité sur l’élimination de la discrimination raciale a souligné l’importance de la liberté d’expression pour aider « les groupes vulnérables à rétablir l’équilibre des forces dans la société » et pour proposer « des points de vue différents ou opposés » dans les discussions (recommandation générale n° 35 du CEDR, paragraphe 29). La musique drill offre aux jeunes, et en particulier aux jeunes Noirs, un moyen d’expression créatif.
L’art est souvent politique et les normes internationales reconnaissent son rôle unique et puissant dans la remise en cause du statu quo (rapporteuse spéciale des Nations unies dans le domaine des droits culturels, A/HRC/23/34, paragraphes 3 et 4). Internet et les plateformes de réseaux sociaux telles que Facebook et Instagram en particulier, revêtent une valeur particulière pour les artistes, en les aidant à toucher de nouvelles et de plus grandes audiences. Les sources de revenus des artistes, ainsi que leurs droits sociaux et économiques, peuvent dépendre de l’accès aux plateformes sociales qui dominent Internet. La musique drill s’appuie sur des revendications véhémentes de violence pour alimenter le succès commercial des artistes sur les réseaux sociaux. De telles revendications et performances sont attendues comme faisant partie du genre. En raison des actions de Meta dans ce cas, Chinx (OS) a été supprimé d’Instagram de façon définitive, ce qui aura probablement un impact important sur sa capacité à atteindre son public et à trouver un succès commercial.
En vertu de l’article 19 du PIDCP, lorsqu’un État impose des limitations à la liberté d’expression, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Le rapporteur spécial des Nations unies sur la liberté d’expression a encouragé les entreprises de médias sociaux à s’inspirer de ces principes lorsqu’elles modèrent l’expression en ligne, tout en sachant que la réglementation de l’expression à grande échelle par des entreprises privées peut susciter des préoccupations particulières à ce contexte (A/HRC/38/35, paragraphes 45 et 70). Le Conseil a eu recours au test tripartite basé sur l’article 19 du PIDCP dans toutes ses décisions à ce jour.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité exige que les lois limitant l’expression soient claires et accessibles, afin que la population comprenne ce qui est autorisé et ce qui ne l’est pas. En outre, il prévoit que ces lois soient spécifiques, afin de garantir que les personnes chargées de leur mise en application ne disposent pas d’un pouvoir discrétionnaire excessif (Observation générale nº 34, paragraphe 25). Le Conseil applique ces principes pour évaluer la clarté et l’accessibilité des règles de contenu de Meta, ainsi que les conseils dont disposent les examinateurs pour prendre des décisions équitables sur la base de ces règles.
Le Conseil réitère ses préoccupations précédemment exprimées selon lesquelles la relation entre les Règles de la communauté Instagram et les Standards de la communauté Facebook n’est pas claire. En août 2022, Meta s’est engagée à mettre en œuvre les recommandations antérieures du Conseil dans ce domaine ( Mise à jour trimestrielle du 2e trimestre 2022 sur le Conseil de surveillance) et à adapter les Standards de la communauté et les Règles à long terme.
Les différences entre le Standard de la communauté relatif à la violence et l’incitation, accessible au public, et les Standards internes d’application de Meta sont également préoccupantes. Meta utilise des « signaux » pour déterminer si un contenu contient une menace voilée. Les « signaux » ont été ajoutés aux Standards de la communauté accessibles au public à la suite des recommandations antérieures du Conseil. Cependant, les Standards de la communauté n’expliquent pas que Meta divise ces signaux en signaux primaires et secondaires, ou qu’il faut à la fois un signal primaire et secondaire pour conclure à une violation de la politique. Cette précision sera utile aux utilisateurs qui déposent des plaintes concernant le contenu de la plateforme, y compris les tiers de confiance et la police. La clarté des signaux est particulièrement importante, car le signal secondaire valide le risque de préjudice résultant du contenu et conduit à la décision de suppression. Les tiers qui fournissent un signal primaire sans signal secondaire peuvent être désorientés si le contenu qu’ils signalent n’est pas suivi d’effet.
II. Objectif légitime
Les restrictions de la liberté d’expression doivent poursuivre un objectif légitime. Le Standard de la communauté relatif à la violence et à l’incitation existe en partie pour prévenir le préjudice hors ligne. Cette politique sert donc l’objectif légitime de la protection des droits d’autrui (les droits à la vie et à la sécurité de la personne des personnes visées par la publication).
III. Nécessité et proportionnalité
Le Conseil estime que la suppression du contenu n’était pas nécessaire pour atteindre l’objectif de la politique.
Le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34). La forme d’expression en question, telle que l’expression sous forme d’art, doit être prise en considération (Observation générale 34, paragraphe 34).
La rapporteuse spéciale des Nations unies sur la liberté d’expression a observé les difficultés rencontrées par les artistes dans leur utilisation des réseaux sociaux, car cette expression a tendance à avoir des caractéristiques complexes et peut facilement tomber sous le coup des règles des plateformes, avec des mécanismes de recours inadéquats (A/HRC/44/49/Add.2, aux paragraphes 44 à 46). Cela confirme des observations plus larges faites par la Rapporteuse spéciale sur les déficiences de la modération du contenu contextuel par les plateformes, y compris sur les questions nécessitant une nuance historique ou culturelle (A/HRC/38/35, au paragraphe 29).
La complexité de l’expression artistique a été soulignée par la rapporteuse spéciale des Nations unies dans le domaine des droits culturels (A/HRC/23/34, au paragraphe 37) :
Une œuvre d’art diffère des déclarations non fictionnelles, car elle offre un champ beaucoup plus large pour l’attribution de significations multiples : les hypothèses concernant le message porté par une œuvre d’art sont donc extrêmement difficiles à prouver, et les interprétations données à une œuvre d’art ne coïncident pas nécessairement avec le sens voulu par l’auteur. Les expressions et les créations artistiques ne sont pas toujours porteuses d’un message ou d’une information spécifique, et ne doivent pas être réduites à cela. En outre, le recours à la fiction et à l’imaginaire doit être compris et respecté comme un élément crucial de la liberté indispensable aux activités créatives et aux expressions artistiques : les représentations du réel ne doivent pas être confondues avec le réel... Ainsi, les artistes devraient pouvoir explorer le côté le plus sombre de l’humanité, et représenter des crimes... sans être accusés de les promouvoir.
Les observations de la Rapporteuse spéciale n’excluent pas la possibilité que l’art puisse être destiné à causer un préjudice et puisse atteindre cet objectif. Pour une entreprise dans la position de Meta, faire ces évaluations rapidement, à l’échelle et à l’échelle mondiale est un défi. La création par Meta de politiques « de transmission à un niveau hiérarchique supérieur uniquement » qui nécessitent une analyse contextuelle plus complète pour supprimer le contenu montre le respect du principe de nécessité. Les responsabilités de Meta en matière de droits de l’homme l’obligent à prévenir et à atténuer les risques pour le droit à la vie et le droit à la sécurité de la personne, pour les personnes qui peuvent être mises en danger par des publications contenant des menaces voilées. Toutefois, pour les raisons exposées à l’article 8.1 de la présente décision, cette analyse nécessite un examen plus approfondi de la causalité et doit être plus nuancée dans son évaluation de l’art afin de satisfaire aux exigences de la nécessité. Comme le Conseil n’a pas vu de preuves suffisantes pour démontrer une menace crédible dans ce cas, la suppression n’était pas nécessaire.
À cet égard, la politique relative à la violence et l’incitation utilise une terminologie qui peut être interprétée comme autorisant des suppressions excessives de contenu. Une menace « potentielle », ou un contenu qui « pourrait » entraîner la violence à un moment donné, comme du sarcasme, était trop large dans cette décision pour satisfaire aux exigences de la nécessité. Dans des cas antérieurs, le Conseil n’a pas exigé que le risque de violence future soit imminent pour que la suppression soit autorisée (voir, par exemple, le cas « Dessin animé de Knin »), puisque les responsabilités de Meta en matière de droits de la personne peuvent différer de celles d’un État imposant des sanctions pénales ou civiles (voir, par exemple, le cas « Insultes en Afrique du Sud »). Le Conseil a toutefois exigé une preuve plus significative de la présence et de la crédibilité d’une menace qu’en l’espèce (voir, par exemple, le cas « Manifestation en Inde contre la France »).
Non-discrimination et accès à un recours (article 2(1), PIDCP)
Le Comité des droits de l’homme a clairement indiqué que toute restriction à l’expression doit respecter le principe de non-discrimination (Observation générale n° 34, au paragraphe 32). Ce principe éclaire l’interprétation que fait le Conseil des responsabilités de Meta en matière de droits de l’homme (Rapporteuse spéciale des Nations unies sur la liberté d’expression, A/HRC/38/35, paragraphe 48).
Dans son commentaire public, la Digital Rights Foundation a fait valoir que si certains ont dépeint la musique drill comme un appel au ralliement à la violence des gangs, elle sert de moyen aux jeunes, en particulier aux jeunes Noirs et Bruns, d’exprimer leur mécontentement à l’encontre d’un système qui perpétue la discrimination et l’exclusion (PC-10618). JUSTICE, dans son rapport « La lutte contre l’injustice raciale : Les enfants et le système de justice des mineurs » cite l’utilisation abusive par la police de la musique drill pour obtenir des condamnations comme un exemple de racisme systémique. Le Conseil a appris, grâce à sa demande de liberté d’information, que les 286 demandes que la Police métropolitaine a adressées aux entreprises de réseaux sociaux et aux services de streaming pour examiner le contenu musical entre le 1er juin 2021 et le 31 mai 2022 concernaient toutes de la musique drill. 255 de ces demandes ont abouti à la suppression du contenu de la plateforme. 21 de ces 286 demandes concernaient les plateformes de Meta, et 14 d’entre elles ont été traitées par des suppressions. Comme indiqué ci-dessus, une seule demande peut entraîner la suppression de plusieurs contenus. Cette attention intense sur un genre musical parmi tant d’autres qui font référence à la violence soulève de sérieuses inquiétudes quant à la possibilité d’un contrôle excessif de certaines communautés. Il n’est pas du ressort du Conseil de dire si ces demandes représentent un bon travail de police, mais il incombe au Conseil d’évaluer comment Meta peut honorer ses valeurs et ses responsabilités en matière de droits de l’homme lorsqu’elle répond à de telles demandes. Par conséquent, et comme décrit ci-dessous, la réponse de Meta aux demandes de mise en application de la loi doit, en plus de répondre aux exigences minimales en matière de preuves, être suffisamment systématisée, auditée et transparente, pour les utilisateurs concernés et le grand public, afin de permettre à l’entreprise, au Conseil et à d’autres d’évaluer dans quelle mesure Meta respecte ses valeurs et assume ses responsabilités en matière de droits de l’homme.
Lorsqu’un acteur gouvernemental est impliqué dans l’interférence avec l’expression d’un individu, comme c’est le cas ici, la procédure régulière et la transparence sont essentielles pour permettre aux utilisateurs concernés de faire valoir leurs droits et même de contester cet acteur gouvernemental. Meta devrait examiner si ses processus, tels qu’ils sont actuellement, le permettent ou l’entravent. L’entreprise ne peut pas permettre que sa coopération avec la police soit opaque au point d’empêcher les utilisateurs d’accéder à des recours en cas de violations potentielles des droits de l’homme.
Il est également important que Meta offre à ses utilisateurs un accès adéquat à des voies de recours pour les décisions relatives au contenu qu’elle prend et qui ont un impact sur les droits des utilisateurs. La Rapporteuse spéciale des Nations unies sur la liberté d’expression s’est penchée sur les responsabilités des entreprises de réseaux sociaux en matière d’expression artistique (A/HRC/44/49/Add.2, paragraphe 41 et suivants). Leurs observations sur l’accès au recours des femmes artistes sont pertinentes pour la situation des artistes noirs au Royaume-Uni :
Des artistes auraient fait l’expérience de fermetures de pages Facebook et Twitter personnelles et professionnelles. Les violations de vagues Règles de la communauté peuvent laisser les artistes sans procédures de « contre-avis » permettant de contester les suppressions de leurs œuvres. L’absence de garanties procédurales et d’accès aux voies de recours pour les utilisateurs prive les artistes d’une plateforme pour exposer leurs œuvres et de spectateurs pour les apprécier. Dans certains cas, les États travaillent avec des entreprises pour contrôler les types de contenus disponibles en ligne. Cette collaboration dangereuse a pour effet de réduire les artistes au silence et d’empêcher les individus... de recevoir l’art en tant qu’expression.
La Rapporteuse spécial des Nations unies pour la liberté d’expression a indiqué, au sujet du processus de réparation pour les entreprises de réseaux sociaux, que « les mécanismes de contestation des décisions des plateformes doivent être transparents et faciles d’utilisation et les entreprises doivent publier une réponse détaillant les raisons ayant motivé leur intervention » (A/74/486, paragraphe 53).
Même si le contenu examiné dans ce cas a été publié par un compte Instagram n’appartenant pas à Chinx (OS), l’artiste avait publié la même vidéo sur son propre compte. Celle-ci a été supprimée en même temps que le contenu de ce cas, ce qui a entraîné la désactivation de son compte, puis sa suppression. Cela montre comment la collaboration entre la police et Meta peut aboutir à limiter considérablement l’expression des artistes, en privant leur public de l’accès à l’art sur la plateforme. Comme le confirme la demande de liberté d’information du Conseil, cette collaboration cible spécifiquement et exclusivement les artistes de musique drill, qui sont pour la plupart de jeunes hommes noirs.
Le Conseil a demandé que Meta transmette la suppression du contenu du compte de Chinx (OS) pour examen, afin qu’il puisse être examiné en même temps que le contenu dans ce cas. Ce n’était pas techniquement possible en raison de la suppression du compte par Meta. Cela soulève d’importantes préoccupations quant au droit de recours, tout comme le fait que les utilisateurs ne puissent pas faire appel des décisions prises « à un niveau hiérarchique supérieur » auprès du Comité de surveillance. Cela inclut des décisions importantes et difficiles concernant le « contexte supplémentaire pour appliquer » les politiques, qui ne sont décidées que « lors de la transmission à un niveau hiérarchique supérieur ». Cela comprend également toutes les demandes de suppression formulées par le gouvernement (en dehors de l’utilisation d’un « outil intégré au produit »), y compris les contenus licites, qui peuvent être examinés et qui entrent dans le champ d’application de la charte du Conseil de surveillance. Ce dernier point est particulièrement préoccupant pour les personnes appartenant à des groupes victimes de discrimination, qui risquent d’être confrontées à des obstacles supplémentaires pour accéder à la justice en raison des choix de conception des produits de Meta.
Ces préoccupations concernant le droit de recours s’ajoutent à celles qui ont été soulevées au cours du travail du Conseil dans le cadre de l’avis consultatif de la politique à venir sur la vérification croisée. La vérification croisée est le système utilisé par Meta pour réduire les erreurs d’application en fournissant des couches supplémentaires d’examen manuel pour certaines publications initialement identifiées comme enfreignant ses règles, avant de supprimer le contenu. Meta a indiqué au Conseil qu’entre mai et juin 2022, environ un tiers des décisions relatives au contenu dans le système de vérification croisée n’ont pas pu faire l’objet d’un recours par les utilisateurs auprès du Conseil. Le Conseil abordera cette question plus en détail dans l’avis consultatif sur la politique de vérification croisée.
8.4 Contenu identique avec un contexte parallèle
Le Conseil note que ce contenu a été ajouté à la banque du service de mise en correspondance du contenu multimédia pour la violence et l’incitation, ce qui a entraîné des suppressions automatiques du contenu correspondant et potentiellement des actions supplémentaires au niveau du compte sur d’autres comptes. À la suite de cette décision, Meta doit s’assurer que le contenu est supprimé de cette banque, restaurer le contenu identique qu’elle a supprimé à tort lorsque cela est possible, et annuler toute grève ou pénalité au niveau du compte. Elle devrait supprimer toute interdiction pour Chinx (OS) de rétablir un compte sur Instagram ou Facebook.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Meta visant à supprimer le contenu et demande que la publication soit restaurée.
10. Avis consultatif sur la politique
A. Politique de contenu
1. La description de la valeur « Liberté d’expression » de Meta devrait être mise à jour pour refléter l’importance de l’expression artistique et créative. Le Conseil estimera que cette recommandation a été suivie lorsque Meta mettra à jour ses valeurs.
2. Meta devrait préciser que pour qu’un contenu soit supprimé en tant que « menace voilée » en vertu du Standard de la communauté relatif à la violence et l’incitation, un signal primaire et un signal secondaire sont nécessaires. La liste des signaux doit être divisée entre signaux primaires et secondaires, conformément aux Standards internes de mise en application. Cela rendra la politique de contenu de Meta dans ce domaine plus facile à comprendre, en particulier pour les utilisateurs qui signalent des contenus potentiellement violents. Le Conseil considérera que cette recommandation a été suivie lorsque le langage du Standard de la communauté relatif à la violence et l’incitation aura été mis à jour.
B. Mise en application
3. Meta doit offrir aux utilisateurs la possibilité de faire appel au Conseil de surveillance pour toute décision prise par le biais du processus de transmission à un niveau hiérarchique supérieur interne de Meta, y compris les décisions de supprimer du contenu et de laisser du contenu en ligne. Cela est nécessaire pour offrir la possibilité d’un accès au recours au Conseil et pour permettre au Conseil de recevoir des appels pour des décisions d’exécution « de transmission à un niveau hiérarchique supérieur uniquement ». Cela doit également inclure les appels contre les suppressions effectuées pour des violations des Standards de la communauté à la suite de rapports de « signaleurs de confiance » ou d’acteurs gouvernementaux effectués en dehors des outils intégrés au produit. Le Conseil considérera que cette mesure a été mise en œuvre lorsqu’il verra des appels d’utilisateurs provenant de décisions prises lors de la transmission à un niveau hiérarchique supérieur et lorsque Meta partagera avec le Conseil des données montrant que pour 100 % des décisions transmises à un niveau supérieur hiérarchique supérieur admissibles, les utilisateurs reçoivent des ID de référence pour introduire des appels.
4. Meta doit mettre en œuvre et garantir une approche cohérente à l’échelle mondiale pour recevoir les demandes de suppression de contenu (en dehors des outils de signalement intégrés au produit) de la part des acteurs étatiques en créant un formulaire de réception standardisé demandant des critères minimums, par exemple, la ligne de politique violée, la raison pour laquelle elle a été violée, et une base de preuve détaillée pour cette conclusion, avant que de telles demandes ne soient traitées par Meta en interne. Cela contribue à assurer une collecte d’informations plus organisée à des fins de rapports de transparence. Le Conseil considérera cette mesure appliquée lorsque Meta divulguera les règles internes qui décrivent le système de réception normalisé au Conseil et dans l’Espace modération.
5. Meta doit marquer et préserver les comptes et les contenus qui ont été pénalisés ou désactivés pour avoir publié des contenus faisant l’objet d’une enquête ouverte par le Conseil. Cela permet d’éviter que ces comptes ne soient définitivement supprimés lorsque le Conseil souhaite demander que le contenu soit transmis pour décision ou pour s’assurer que ses décisions puissent s’appliquer à tout contenu identique avec un contexte parallèle qui aurait pu être supprimé à tort. Le Conseil considérera cette mise en œuvre lorsque les décisions du Conseil seront applicables aux entités susmentionnées et que Meta divulguera le nombre desdites entités concernées pour chaque décision du Conseil.
C. Transparence
6. Meta doit créer une section dans son Espace modération, à côté de son « Rapport d’application des Standards de la communauté » et de son « Rapport sur les demandes légales de restrictions de contenu », pour rendre compte des demandes des acteurs étatiques d’examiner le contenu pour les violations des Standards de la communauté. Elle doit inclure des détails sur le nombre de demandes d’examen et de suppression par pays et par agence gouvernementale, et le nombre de rejets par Meta. Ceci est nécessaire pour améliorer la transparence. Le Conseil tiendra compte de cette mise en œuvre lorsque Meta publiera une section distincte dans son « Rapport d’application des Standards de la communauté » sur les demandes des acteurs étatiques qui ont conduit à une suppression pour violation de la politique de contenu.
7. Meta doit régulièrement examiner les données relatives à ses décisions de modération de contenu motivées par des demandes d’examen de contenu émanant d’acteurs étatiques afin d’évaluer tout préjugé systémique. Meta doit créer une transmission d’avis pour corriger tout préjugé et/ou impact démesuré découlant de ses décisions sur les suppressions de contenu gouvernemental. Le Conseil considérera que cette recommandation a été suivie lorsque Meta publiera régulièrement les enseignements généraux tirés de ces audits et les mesures prises pour atténuer les préjugés systémiques.
*Note de procédure :
les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques