Décision sur plusieurs affaires

Publications soutenant les émeutes au Royaume-Uni

Après avoir examiné trois publications différentes partagées au cours des émeutes qui ont eu lieu au Royaume-Uni durant l’été 2024, le Conseil a annulé les décisions prises initialement par Meta de laisser ces publications sur Facebook. Chacune d’entre elles entraînait un risque de préjudice probable et imminent pendant une période de colère contagieuse et de violence croissante.

3 cas inclus dans ce lot

Renversé

FB-9IQK53AU

Cas relatif aux sur Facebook

Plate-forme
Facebook
Sujet
Fausses informations,Religion,Violence
Emplacement
Royaume-Uni
Date
Publié le 23 avril 2025
Renversé

FB-EAJQEE0E

Cas relatif aux sur Facebook

Plate-forme
Facebook
Sujet
Fausses informations,Religion,Violence
Emplacement
Royaume-Uni
Date
Publié le 23 avril 2025
Renversé

FB-93YJ4A6J

Cas relatif aux sur Facebook

Plate-forme
Facebook
Sujet
Fausses informations,Religion,Violence
Emplacement
Royaume-Uni
Date
Publié le 23 avril 2025

Résumé

Après avoir examiné trois publications différentes partagées au cours des émeutes qui ont eu lieu au Royaume-Uni durant l’été 2024, le Conseil a annulé la décision initiale prise par Meta de laisser ces publications sur Facebook. Chacune d’entre elles entraînait un risque de préjudice probable et imminent. Ces publications auraient dû être retirées. Le contenu a été publié pendant une période de colère contagieuse et de violence croissante, alimentée par de fausses informations et de la désinformation sur les réseaux sociaux. Des propos antimusulmans et anti-immigrés ont envahi les rues. Meta a alors activé le protocole de politique de crise en réponse aux émeutes et a identifié le Royaume-Uni comme lieu à haut risque le 6 août. Ces mesures ont néanmoins été prises trop tard. À ce moment-là, les trois publications avaient déjà été partagées. Le Conseil déplore la lenteur de Meta à mettre en place des mesures de crise. Si ces mesures avaient été prises plus rapidement, elles auraient en effet permis d’éviter que le contenu nuisible ne se propage davantage.

Remarque supplémentaire : Les révisions apportées par Meta le 7 janvier 2025 à la nouvelle politique en matière de conduite haineuse n’ont pas influé sur l’issue de ces trois cas, bien que le Conseil ait tenu compte des règles en vigueur au moment de leur publication et de leurs mises à jour au cours de ses délibérations. En ce qui concerne les changements plus larges de politique et de mise en application annoncés à la hâte par Meta en janvier, le Conseil s’inquiète du fait que Meta n’a pas fait part publiquement de la diligence raisonnable dont elle a fait preuve en matière de droits humains, le cas échéant, conformément à ses engagements au titre des principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme. Il est indispensable que Meta veille à ce que toute répercussion négative sur les droits humains dans le monde soit identifiée et évitée.

À propos des cas

Dans le premier cas, une publication, composée uniquement de texte et partagée au début des émeutes, appelait à détruire les mosquées et à incendier les bâtiments où vivent les « migrants », les « terroristes » et la « racaille ». Cette publication a été vue à plus de 1000 reprises.

Les deuxième et troisième cas concernent quant à elles des republications d’images vraisemblablement générées par l’IA. L’une d’entre elles représente un homme gigantesque vêtu d’un T-shirt arborant le drapeau britannique, qui poursuit d’un air menaçant des hommes musulmans de plus petite taille. Sur l’image, un texte indique l’heure et le lieu de rassemblement pour l’une des manifestations et inclut le hashtag « EnoughIsEnough » (« Trop, c’est trop »). Une légende accompagne également l’image et indique : « Here we go again » (« C’est reparti pour un tour »). Cette publication a été vue à moins de 1000 reprises. L’autre image montre quatre hommes musulmans courant devant le Parlement britannique après un bambin aux cheveux blonds en pleurs. L’un des hommes brandit un couteau tandis qu’un avion se dirige vers Big Ben. Cette image arbore le logo d’un compte influent sur les réseaux sociaux connu pour ses commentaires anti-immigrés en Europe, y compris de fausses informations et de la désinformation. Cette publication a été vue à plus de 1000 reprises.

Les trois publications ont été signalées par d’autres utilisateurs de Facebook pour violence ou discours haineux. Meta les a maintenues en ligne après un examen réalisé par ses systèmes automatisés uniquement. Après plusieurs réclamations introduites par des utilisateurs auprès du Conseil et la sélection de ces cas, le contenu a été examiné manuellement et Meta a retiré la publication composée uniquement de texte faisant l’objet du premier cas. L’entreprise a confirmé sa décision initiale de maintenir en ligne les deux images vraisemblablement générées par l’IA.

Entre le 30 juillet et le 7 août 2024, des émeutes violentes ont éclaté au Royaume-Uni à la suite du meurtre de trois jeunes filles survenu dans la ville de Southport. Peu de temps après cette attaque au couteau, de fausses informations et de la désinformation ont envahi les réseaux sociaux et ont suggéré que l’auteur des faits était un demandeur d’asile musulman.

Principales conclusions

Le Conseil a conclu que le texte de la publication et l’image représentant le géant enfreignaient tous deux la politique relative à la violence et à l’incitation. Cette dernière interdit les menaces de violence de haute gravité à l’encontre d’une cible ainsi que les menaces de violence visant des individus ou des groupes sur la base de leurs caractéristiques protégées et de leur statut d’immigration. La publication sous forme de texte constitue à la fois une menace générale et une incitation à la violence contre les personnes et les biens. Elle identifie, en outre, des cibles en fonction de leur religion et de leur statut d’immigré. L’image représentant le géant constitue un appel clair à se rassembler et à perpétrer des actes de violence discriminatoire à un moment et en un lieu précis. La conclusion de Meta selon laquelle cette image (représentant un homme agressif poursuivant des musulmans en fuite, associée à une date et un lieu et au hashtag « EnoughIsEnough ») ne cible personne en particulier ou ne constitue pas une menace, manque de crédibilité. Ce contenu a été partagé le 4 août, soit au cours de la semaine des émeutes. Le contexte était donc plus que suffisant pour justifier un retrait.

L’image générée par l’IA représentant quatre musulmans qui poursuivent un bambin aux cheveux blonds en pleurs enfreint la règle de la politique en matière de conduite haineuse (anciennement connue sous le nom de « politique relative aux discours haineux ») qui interdit les attaques à l’encontre de personnes sur la base de leurs caractéristiques protégées, notamment en prétendant qu’il s’agit de graves criminels. Meta a interprété ce message comme une déclaration qualifiée sous forme visuelle faisant référence à « l’homme ou aux hommes musulmans qui ont été accusés à tort d’avoir poignardé les jeunes filles à Southport ». Avant le 7 janvier, les directives internes de Meta autorisaient les déclarations qualifiées qui ne présentent pas de manière généralisée tous les membres d’un groupe comme des criminels. Le Conseil n’est pas d’accord avec la manière dont Meta a appliqué cette règle dans ce cas, car l’image ne constitue pas une déclaration qualifiée étant donné qu’elle ne représente pas l’attaque à l’arme blanche de Southport sous quelque forme que ce soit. L’action se déroule en effet à Londres (et non à Southport) et implique quatre hommes (et non un seul) courant après un bambin (et non trois jeunes filles). De plus, un avion volant en direction de Big Ben apparaît également sur le visuel, ce qui évoque les images du 11 septembre et dépeint les musulmans comme une menace pour la Grande-Bretagne.

Lors de l’examen de ces cas, le Conseil a constaté des problèmes de clarté concernant les politiques relatives à la violence et à l’incitation ainsi qu’à la conduite haineuse, causés par des divergences entre le langage public et les règles internes. Le Conseil s’interroge également sur la capacité de Meta à modérer correctement les images haineuses et violentes. L’échec des experts de Meta à identifier le caractère non autorisé des deux images probablement générées par l’IA indique que les directives suivies actuellement par l’équipe d’examen sont trop stéréotypées, ignorent le fonctionnement des images et sont obsolètes.

Enfin, le Conseil note que Meta a fait appel à des médias de vérification tiers pour examiner certains contenus contenant le faux nom de l’auteur de l’attaque de Southport pendant les émeutes, qui ont qualifié ces contenus de « faux » et en ont réduit la visibilité. Meta ayant remplacé son système de vérification des informations par des tiers aux États-Unis, le Conseil recommande à l’entreprise de se pencher sur le fonctionnement d’autres plateformes utilisant des notes de la communauté et d’étudier leur efficacité.

La décision du Conseil de surveillance

Le Conseil annule les décisions initiales de Meta de laisser les trois publications sur la plateforme.

Le Conseil recommande également à Meta de :

  • préciser que toutes les menaces de violence très graves visant des lieux sont strictement interdites, tout comme celles perpétrées à l’encontre de personnes ;
  • élaborer des critères clairs et solides permettant d’identifier les graves allégations criminelles basées sur des caractéristiques protégées sous forme visuelle. Ces critères doivent être en adéquation avec les standards en matière de comportement haineux sous forme de texte et les modifier ;
  • revoir ses critères pour le déclenchement du protocole de politique de crise, notamment en identifiant les critères essentiels qui, lorsqu’ils sont remplis, suffisent à l’activation immédiate du protocole ;
  • veiller, dans le cadre du protocole de politique de crise, à ce que les violations potentielles de la politique qui pourraient conduire à des actes probables et imminents de violence soient signalées à l’équipe interne d’examen, qui devrait fournir des conseils basés sur le contexte et limités dans le temps à l’ensemble des examinateurs de l’entreprise.
  • procéder à des évaluations continues de l’efficacité des notes de la communauté par rapport à la vérification des informations par des tiers, en particulier dans les situations où la diffusion rapide de fausses informations engendre un risque pour la sécurité publique.

* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Description du cas et contexte

Le Conseil de surveillance a examiné trois cas impliquant du contenu publié par différents utilisateurs sur Facebook au cours des émeutes qui ont eu lieu au Royaume-Uni entre le 30 juillet et le 7 août 2024.

Ces émeutes ont éclaté à la suite d’une attaque au couteau survenue lors d’un stage de danse organisé à Southport le 29 juillet. Trois jeunes filles y ont trouvé la mort et dix autres ont été blessées. Axel Rudakubana, un jeune britannique de 17 ans, avait été arrêté dans la foulée et condamné ensuite pour l’attaque. Néanmoins, de fausses informations et de la désinformation concernant son identité, dont un faux nom, se sont rapidement propagées en ligne après l’attaque, indiquant à tort qu’il s’agissait d’un demandeur d’asile musulman qui était arrivé il y a peu en Grande-Bretagne par bateau. L’une de ces publications avait été partagée plus de six millions de fois. Malgré une déclaration faite par la police à midi le 30 juillet contestant les rumeurs en ligne, des manifestations anti-immigrés et antimusulmans ont eu lieu dans 28 villes et villages, dont beaucoup ont tourné à l’émeute. Ces manifestations ont réuni des milliers de personnes, dont des groupes antimusulmans et anti-immigrés. Plusieurs centres de réfugiés et hôtels abritant des immigrés, entre autres, ont été attaqués ou incendiés, sans compter les pillages et autres troubles. De nombreuses personnes, dont plus de 100 agents de police, ont été blessées à la suite de ces actes de violence. Le 1er août, une ordonnance judiciaire a levé l’anonymat de l’agresseur de Southport en tant que mineur pour mettre fin aux troubles, mais cette mesure n’a pas immédiatement porté ses fruits.

La première publication examinée par le Conseil a été partagée deux jours après la tuerie. Elle soutenait les émeutes en cours, appelant à détruire les mosquées et à incendier les bâtiments où vivent les « migrants », les « terroristes » et la « racaille ». La publication reconnaissait que les émeutes avaient entraîné la dégradation de biens privés et blessé de nombreux policiers, mais que cette violence était nécessaire pour faire entendre raison aux autorités et éradiquer « toute cette racaille qui entre en Grande-Bretagne. » Par ailleurs, le message invitait ceux qui n’étaient pas d’accord avec les émeutes à réfléchir au meurtre des « petites filles », affirmant qu’elles ne seraient pas « les dernières victimes » si le public restait les bras croisés. Cette publication a accumulé plus de 1000 vues et généré moins de 50 commentaires.

La deuxième publication a été partagée six jours après l’attaque et était un repartage d’une autre publication. Il s’agit d’une image vraisemblablement générée par l’IA représentant un gigantesque homme blanc, en colère et agressif, portant un T-shirt arborant l’Union Jack (le drapeau du Royaume-Uni), qui poursuit de manière menaçante plusieurs hommes musulmans de plus petite taille. L’image est accompagnée de la légende suivante : « Here we go again » (« C’est reparti pour un tour »). Un texte incrusté indique l’heure et le lieu de rassemblement pour une manifestation dans la ville de Newcastle le 10 août et est accompagné du hashtag « EnoughIsEnough » (« Trop, c’est trop »). Ce contenu a été vu à plus de 1000 reprises.

Partagée deux jours après l’attaque, la troisième publication est une republication d’une autre image probablement générée par l’IA. On y voit quatre musulmans barbus portant des kurtas (tuniques) blancs courir devant le Parlement de Londres à la poursuite d’un bambin aux cheveux blonds en pleurs vêtu d’un T-shirt à l’effigie du drapeau du Royaume-Uni. L’un des hommes brandit un couteau. Un avion se dirige également vers Big Ben, évoquant sans doute les attentats du 11 septembre 2001 à New York. La légende comprend les mots « Réveillez-vous », ainsi que le logo d’un compte influent sur les réseaux sociaux connu pour ses commentaires anti-immigrés en Europe, y compris de fausses informations et de la désinformation. Ce contenu a été vu à plus de 1000 reprises et a généré moins de 50 commentaires.

Plusieurs utilisateurs Facebook ont signalé les trois publications en indiquant qu’elles enfreignaient la politique relative aux discours haineux (renommée « politique en matière de conduite haineuse ») ou la politique relative à la violence et à l’incitation. Les outils automatisés de Meta ont considéré qu’aucune de ces trois publications n’enfreignait les règles et elles ont donc été maintenues en ligne. Lorsque les utilisateurs ont introduit des réclamations auprès de Meta, les systèmes automatisés de l’entreprise ont confirmé les décisions de conserver le contenu. Ces trois publications n’ont été examinées manuellement que lors de la sélection de ces cas par le Conseil. Meta est par conséquent revenue sur sa décision concernant la publication composée uniquement de texte en la retirant de sa plateforme parce qu’elle enfreignait la politique relative à la violence et à l’incitation, mais elle a confirmé les décisions qu’elle avait prises initialement pour les deux autres publications.

Le 7 janvier 2025, Meta a annoncé la mise à jour de sa politique en matière de discours haineux et l’a renommée la politique en matière de conduite haineuse. Ces modifications, dans la mesure où elles sont pertinentes dans ces cas, seront décrites dans la section 3 et analysées dans la section 5. Le Conseil note que le contenu est accessible en permanence sur les plateformes de Meta et que les politiques mises à jour sont appliquées à tout le contenu présent sur la plateforme, quelle que soit la date à laquelle il a été publié. Le Conseil évalue donc l’application des politiques telles qu’elles étaient au moment de leur publication et, le cas échéant, telles qu’elles ont été révisées depuis (voir également l’approche adoptée pour les contenus négationnistes).

2.Soumissions de l’utilisateur

Aucun des utilisateurs à l’origine de la publication des contenus liés à ces cas n’a répondu aux invitations à soumettre une déclaration auprès du Conseil.

Les utilisateurs qui ont signalé les publications ont fourni des déclarations au Conseil en indiquant que ces publications encourageaient clairement le public à prendre part à des manifestations racistes, incitaient à la violence envers les immigrés et les musulmans ou invitaient les partisans de l’extrême droit à poursuivre les émeutes. L’un des utilisateurs a affirmé être un immigré et se sentir menacé par la publication qu’il avait signalée.

3. Politiques de Meta relatives au contenu et soumissions

I. Politiques de Meta relatives au contenu

Violence et incitation

La justification de la politique relative à la violence et à l’incitation précise que l’entreprise doit retirer « tout contenu qui incite à la violence ou la facilite et toute menace crédible pour la sécurité publique ou celle d’un individu », dont « les discours violents ciblant une personne ou un groupe de personnes du fait de leur(s) caractéristique(s) protégée(s) ou de leur statut d’immigration ». La justification de la politique explique également que Meta examine « le langage utilisé et le contexte pour distinguer les déclarations triviales ou à but sensibilisateur de celles qui représentent une menace réelle pour la sécurité publique ou celle d’un individu ».

La politique a pour but de protéger tout le monde des « menaces de violence pouvant entraîner la mort (ou toute autre forme de violence de haute gravité) » et des « menaces de violence pouvant entraîner de graves blessures (violence de moyenne gravité) ». Les directives internes de Meta destinées aux modérateurs indique que cette protection s’étend également aux attaques ciblant des lieux qui pourraient entraîner de graves blessures, voire la mort d’une personne. Cela comprend donc les invitations à incendier ou à attaquer un lieu. La politique n’exige pas des modérateurs qu’ils confirment que des personnes se trouvent à l’intérieur du bâtiment.

La politique définit les menaces de violence comme « des déclarations ou des images représentant une intention, une aspiration ou un appel à la violence à l’encontre d’une cible, et les menaces peuvent être exprimées dans divers types de déclarations telles que des déclarations d’intention, des appels à l’action, des plaidoyers, des déclarations d’aspiration, des déclarations d’espoir et des déclarations conditionnelles ».

Conduite haineuse (précédemment connue sous le nom de « discours haineux »)

Meta définit la « conduite haineuse » de la même manière qu’elle définissait le « discours haineux », à savoir comme des « attaques directes envers des personnes » du fait de leurs caractéristiques protégées, notamment leur origine ethnique, leur religion et leur nationalité. La politique continue de protéger « les réfugiés, les migrants, les immigrés et les demandeurs d’asile » dans le cadre du niveau 1 de la politique, que Meta considère comme les attaques les plus graves. Ces mêmes personnes ne sont toutefois pas protégées des attaques au titre du niveau 2, et ce, afin de permettre « les commentaires et les critiques sur les politiques migratoires ». Selon la justification de la politique, cela s’explique par le fait que certaines personnes « appellent parfois à l’exclusion ou utilisent un langage insultant dans le cadre de discussions sur des sujets politiques ou religieux, comme […] l’immigration ». Meta affirme explicitement que ses « politiques ont été élaborées pour permettre ces types de discours ».

Le niveau 1 de la politique interdit les attaques directes ciblant des personnes sur la base d’une caractéristique protégée ou d’un statut d’immigration par le biais « d’allégations sur des actes immoraux ou criminels graves ». L’exemple des criminels violents (« terroristes » et « assassins ») est d’ailleurs cité.

Avant le 7 janvier, les directives internes de Meta destinées à ses équipes d’examen autorisaient les « déclarations comportementales qualifiées », les distinguant des généralisations interdites, dont les déclarations comportementales non qualifiées, qualifiant les personnes ciblées de criminels graves. Les déclarations comportementales qualifiées décrivent les actions que des individus ou des groupes ont entreprises ou leur participation à des événements, tout en mentionnant leur caractéristique protégée ou leur statut d’immigration. Les généralisations interdites, quant à elles, attribuent des traits inhérents à l’ensemble ou la plupart des membres d’un groupe entier (en les qualifiant par exemple de « tueurs » ou en affirmant qu’ils « tuent »). Depuis le 7 janvier, les directives de Meta destinées à ses équipes d’examen n’interdisent plus les déclarations comportementales, y compris celles qui visent un groupe entier sur la base d’une caractéristique protégée ou d’un statut d’immigration. Autrement dit, qualifier un groupe de « tueurs » sur la base d’une caractéristique protégée est tout à fait autorisé puisqu’il s’agit d’une déclaration comportementale.

II. Soumissions de Meta

Publication uniquement composée de texte

Concernant ce cas, Meta est revenue sur sa décision initiale en la retirant de sa plateforme, car elle enfreignait sa politique relative à la violence et à l’incitation. Elle a estimé en effet que ces invitations à prendre part à des émeutes, à « détruire des mosquées » et à « endommager des bâtiments » où vivaient les « migrants » et les « terroristes » étaient des « déclarations d’incitation à la violence à l’encontre d’un lieu pouvant entraîner de graves blessures ou la mort ».

Publication représentant le géant

Meta a considéré que cette publication n’enfreignait pas sa politique relative à la violence et à l’incitation. Malgré l’invitation à participer à un rassemblement spécifique, Meta a estimé que la publication ne contenait pas de menace de violence à l’encontre de personnes ou de biens privés. Meta souligne que sa politique, fondée sur le droit à la parole, vise à protéger le discours politique autour des manifestations. Ainsi, même en cas de désordre généralisé, un message doit contenir une menace ou une cible claire pour être considéré comme une violation.

Publication représentant les quatre musulmans

Meta a estimé que cette publication n’enfreignait pas la politique en matière de conduite haineuse (anciennement connue sous le nom de « politique relative aux discours haineux »). Si les généralisations, telles que les attaques visant l’ensemble ou la plupart des musulmans en les qualifiant de criminels violents, sont interdites, « faire référence à une personne musulmane spécifique en la qualifiant de criminel violent » ne l’est pas. Meta a interprété cette image comme faisant référence à « l’homme ou aux hommes musulmans qui ont été accusés à tort d’avoir poignardé les jeunes filles à Southport », vu les fausses informations qui circulaient à ce moment-là.

Mesures de crise

En réponse aux questions du Conseil, Meta a expliqué avoir activé le protocole de politique de crise en août et désigné l’ensemble du territoire du Royaume-Uni comme lieu temporaire à haut risque du 6 au 20 août, une fois le protocole activé. La qualification de lieu temporaire à haut risque est un mécanisme qui permet à Meta de mettre en place des mesures de sécurité supplémentaires, telles que des restrictions de contenu supplémentaires ou un suivi proactif, afin de prévenir les incitations à la violence dans les lieux identifiés comme étant à haut risque à la suite d’événements survenant dans le monde réel. Pendant cette période, Meta a retiré tous les appels à apporter des armes sur l’ensemble du territoire britannique ou à pénétrer de force dans les lieux à haut risque. L’entreprise n’a pas mis en place de centre de gestion des produits d’intégrité (« IPOC »), que Meta décrit comme une « mesure qui rassemble plusieurs équipes, spécialistes en la matière et personnes compétentes issus de toute l’entreprise […] pour répondre en temps réel à des problèmes ou des tendances potentiels ».

Vérification des informations par des tiers

Meta a fait appel à des médias de vérification tiers pour examiner le contenu publié sur sa plateforme au cours des émeutes et en évaluer la véracité. Les « contenus […] comportant le faux nom du meurtrier de Southport » et évalués comme « faux » ont été maintenus sur la plateforme par Meta, mais se sont vu apposer une étiquette. Par ailleurs, Meta a retiré le contenu des recommandations et l’a rétrogradé dans le fil des utilisateurs qui suivaient le compte. Elle affirme que cette mesure a permis de réduire la visibilité de ces contenus « dans les heures qui ont suivi leur apparition sur la plateforme ». Meta a également créé un groupe de travail interne composé de membres de ses équipes chargées de la politique, des opérations et de l’application de la loi, afin de suivre la situation et d’y répondre.

Le Conseil a posé 13 questions à Meta au sujet des mesures de crise spécifiques qu’elle a prises pendant les émeutes au Royaume-Uni, dont le rôle des médias de vérification tiers, les compétences de ses classificateurs de discours haineux, la manière dont le contexte des émeutes a influencé l’analyse du contenu faite par Meta, les éventuelles rétrogradations des publications et les risques pour la liberté d’expression et l’accès aux informations liés à l’application excessive des règles. Meta a répondu à l’ensemble de ces questions.

4. Commentaires publics

Le Conseil de surveillance a reçu neuf commentaires publics qui répondaient aux critères de soumission. Cinq d’entre eux provenaient d’Europe, trois des États-Unis et du Canada et un du Moyen-Orient et d’Afrique du Nord. Étant donné que la période pour la soumission de commentaires publics expirait avant le 7 janvier 2025, aucun des commentaires n’a abordé les changements de politique annoncés par Meta à cette date. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.

Les soumissions portaient sur les thèmes suivants : le rôle des réseaux sociaux dans les émeutes survenues en 2024 au Royaume-Uni, y compris dans la propagation de fausses informations et dans l’organisation et la coordination des émeutes, les liens entre le discours anti-immigrés et antimusulmans en ligne et la violence, l’utilisation d’images dans le cadre du discours haineux et de la déshumanisation, les risques pour la liberté d’expression liés à l’application excessive des règles, et les mesures de modération autres que la suppression de contenu.

5. Analyse du Conseil de surveillance

Le Conseil a sélectionné ces cas afin d’examiner la manière dont Meta favorise la liberté d’expression dans les discussions autour de l’immigration, tout en respectant les droits humains des immigrés et les minorités religieuses en contexte de crise. Ces cas s’inscrivent dans les priorités stratégiques du Conseil, à savoir les situations de crise et de conflit et les discours haineux contre les groupes marginalisés.

Le Conseil a analysé les décisions de Meta dans ces cas, en les comparant à ses politiques relatives au contenu, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ces cas pour l’approche plus globale de Meta dans le cadre de la gouvernance du contenu.

5.1 Respect des politiques de Meta relatives au contenu

I. Règles relatives au contenu

Publication uniquement composée de texte

Le Conseil estime que cette publication enfreint la politique de Meta relative à la violence et à l’incitation qui interdit les menaces de violence de haute gravité à l’encontre d’une cible ainsi que les menaces de violence visant des individus ou des groupes sur la base de leurs caractéristiques protégées et de leur statut d’immigration.

S’il arrive souvent que des personnes publient en ligne des propos violents ou menaçants sous forme d’hyperboles ou de plaisanteries non sérieuses, le langage et le contexte permettent de distinguer les déclarations triviales des menaces crédibles pour la sécurité publique ou celle d’un individu. Cette publication encourage explicitement le public à se révolter, à « détruire des mosquées » et à « endommager des bâtiments » où vivent les « migrants » et les « terroristes ». Il s’agit donc d’une violation flagrante de la politique de Meta relative à la violence et à l’incitation, et ce à deux égards : d’une part, la menace générale et l’incitation à la violence de haute gravité contre les personnes et les biens ; d’autre part, l’identification des cibles en fonction de leur religion et de leur statut d’immigration. Il est inconcevable d’interpréter cette publication comme une déclaration triviale ou non sérieuse. Elle a été publiée le 31 juillet alors que la violence se répandait au Royaume-Uni, un jour après qu’un groupe a jeté des briques et des bombes à essence sur une mosquée et incendié une voiture de police, blessant huit agents par la même occasion. Dans les semaines qui ont suivi, des violences similaires ont eu lieu dans tout le pays.

Publication représentant le géant

Le Conseil estime que cette publication enfreint la politique de Meta relative à la violence et à l’incitation qui interdit les menaces de violence visant des individus ou des groupes sur la base d’une caractéristique protégée, en l’occurrence leur religion, et de leur statut d’immigration.

Le Conseil note que cette publication ne contenait pas de mots écrits appelant directement et expressément à la violence. Cela dit, ce contenu démontre parfaitement que des images combinées à des références écrites moins directes à la violence peuvent également constituer une forme non équivoque d’incitation.

Le texte intégré à l’image précisait la date, l’heure et l’endroit du rassemblement, à un monument spécifique à Newcastle, le 10 août. Cette publication a été partagée après plusieurs jours d’émeutes violentes dans tout le pays, au cours desquelles les musulmans et les immigrés ont été pris pour cibles et des personnes avaient déjà, entre autres, attaqué un hôtel hébergeant des demandeurs d’asile, incendié une bibliothèque et un centre communautaire, et bombardé des policiers à l’aide de bouteilles et de canettes. La légende « Here we go again » (« C’est reparti pour un tour »), associée à l’image d’un homme blanc gigantesque poursuivant agressivement des hommes bruns de plus petite taille portant des vêtements islamiques, est un appel clair à poursuivre ces actes de violence discriminatoire et d’intimidation à un moment et dans un lieu précis. Alors que les propos « Enough Is Enough » (« Trop, c’est trop ») pourraient être, seuls et détachés de leur contexte, une déclaration politique non violente sur l’immigration, ils ont ici été utilisés comme hashtag pour organiser des émeutes antérieures et mettre en contact des personnes à cette fin.

Le Conseil estime que les éléments combinés de ce message rendent évidente la violation de la politique de contenu. La conclusion de Meta selon laquelle l’image ne contient pas de cible ou de menace est peu crédible et soulève des questions quant à la raison pour laquelle il a fallu tant de temps à l’entreprise pour activer le protocole de politique de crise. Au moment où cette publication a été partagée, Meta disposait de plus qu’assez de contexte sur la façon dont les informations sur les émeutes se propageaient en ligne pour s’assurer que les éléments incitant à la violence présents dans cette publication soient identifiés, si le contenu comme celui-ci avait été priorisé pour un examen manuel et si des instructions appropriées en matière d’interprétation avaient été fournies.

Publication représentant les quatre musulmans

Le Conseil estime que le contenu du troisième cas enfreint la politique de Meta en matière de conduite haineuse et plus précisément l’interdiction sur les allégations de criminalité grave vis-à-vis d’un groupe sur la base d’une caractéristique protégée. Les modifications apportées à la politique le 7 janvier n’ont pas modifié cette évaluation.

Dans ce cas, le visuel représentant plusieurs hommes musulmans poursuivant un enfant blond en pleurs, ainsi que l’iconographie terroriste dépeignent de manière généralisée les musulmans comme des criminels violents et des terroristes, et comme une menace pour les Britanniques et plus particulièrement les enfants.

Cette image est un exemple parfait de trope déshumanisant qui cherche à exploiter le sentiment anti-immigrés en mobilisant des stéréotypes anti-musulmans. Par ses éléments, la publication décrit de manière généralisée les musulmans comme une menace nationale collective, les dépeint comme menaçants et leur attribue faussement une image de criminels et de personnes violentes en tant que groupe défini par sa religion. En associant sous forme visuelle les musulmans à l’un des événements terroristes les plus tristement célèbres de l’histoire moderne, l’image suggère à tort que tous les musulmans sont des terroristes et représentent un danger pour la Grande-Bretagne.

Le Conseil n’est pas d’accord avec la manière dont Meta a évalué cette image en la considérant comme une « déclaration qualifiée », à savoir le lien qu’elle a établi entre l’image d’un musulman brandissant un couteau et l’auteur présumé de l’attaque de Southport, plutôt que les musulmans de manière plus générale. Pour le Conseil, bien que ce contenu ait été publié dans le contexte des troubles publics qui ont suivi l’attaque à l’arme blanche de Southport et qu’il cherche à exploiter les émotions exacerbées qu’elles ont suscitées, il ne représente pas ces événements sous forme visuelle. Lors de la publication de l’image, il était de notoriété publique que l’agresseur de Southport était une personne seule et non quatre musulmans, que les victimes étaient trois jeunes filles et non un bambin de sexe masculin, et que les attaques n’avaient aucun lien avec Londres ou les attentats du 11 septembre. Il était donc erroné de déduire que la représentation de quatre hommes musulmans pouvait faire référence à cet agresseur isolé. En outre, même si le contenu avait représenté un musulman isolé, il aurait été étrange d’invoquer une désinformation largement alimentée par des préjugés antimusulmans pour autoriser un discours haineux.

II. Mesures de mise en application

Les deux cas impliquant du contenu sous forme d’images enfreignant les politiques de Meta relatives à la violence et à l’incitation, ainsi qu’à la conduite haineuse, soulèvent des inquiétudes quant à la manière dont Meta modère le contenu nuisible lorsqu’il est basé sur des images plutôt que sur du texte. Le Conseil avait déjà fait part d’inquiétudes similaires dans le cadre de publications en polonais ciblant des personnes transgenres, du racisme en lien avec la Planète des singes, d’un montage vidéo contenant des mèmes haineux, d’un dessin animé sur la conspiration des médias et d’un dessin animé de Knin. Ces préoccupations sont d’autant plus vives dans ces cas qu’elles démontrent que les obstacles à la création de visuels persuasifs contenant des discours haineux et des incitations à la violence diminuent considérablement avec le développement de nouveaux outils d’IA. Bien que la génération automatique d’une image ne change rien à son caractère infractionnel ou non, les nouveaux outils d’IA pourraient augmenter de manière significative la prévalence de ce contenu. Meta doit donc veiller à ce que ses outils automatisés soient mieux formés pour détecter les infractions dans les images et privilégier les examens manuels jusqu’à ce que les examens automatisés soient plus fiables.

Le Conseil est préoccupé par le temps qu’il a fallu à Meta pour activer son protocole de politique de crise, un mécanisme que l’entreprise a créé en réponse aux recommandations précédentes du Conseil. Près d’une semaine s’est écoulée avant que l’entreprise ne désigne le Royaume-Uni comme lieu temporaire à haut risque. Dans le cadre de cette mesure, Meta a introduit des interdictions temporaires sur les appels à apporter des armes ou à entrer de force dans des lieux spécifiques.

Le Conseil estime que l’activation du protocole de politique de crise aurait été plus efficace si elle avait eu lieu plus tôt, dans les heures et les jours critiques qui ont suivi l’attentat, lorsque de fausses informations sur l’assaillant se sont rapidement répandues en ligne et que les réseaux sociaux ont été utilisés pour organiser et coordonner la violence alimentée par un sentiment anti-immigrés, raciste et antimusulman.

Des interventions supplémentaires auraient pu permettre une modération proactive plus rapide et plus précise des contenus liés aux émeutes et interrompre la propagation des contenus nuisibles tout en réduisant sans doute le risque de plus amples dommages. Des outils opérationnels auraient pu être déployés pour identifier et examiner les contenus potentiellement interdits, analyser de manière proactive les plateformes à la recherche de mots-clés ou de hashtags spécifiques et affecter des équipes régionales spécialisées. Ces équipes auraient pu fournir un contexte et des instructions supplémentaires aux équipes d’examen de toute l’entreprise qui sont chargées de modérer les discours haineux et les incitations à la haine, y compris sous forme visuelle.

Le Conseil souligne que les décisions d’activer des mesures de crise doivent être prises dans les plus brefs délais. Pour ce faire, l’entreprise doit identifier les critères essentiels qui, lorsqu’ils sont réunis dans des combinaisons prédéfinies ou de manière individuelle, déclenchent l’activation immédiate du protocole de politique de crise. En outre, cette évaluation doit être répétée tout au long de la crise pour s’assurer que les mesures en place sont appropriées, efficaces et calibrées en fonction de l’évolution des risques.

5.2 Respect des responsabilités de Meta en matière de droits humains

Le Conseil estime que la suppression des trois publications, telle que l’exige une interprétation correcte des politiques de Meta en matière de contenu, est également conforme aux responsabilités de Meta en matière de droits humains.

Liberté d’expression (article 19 du PIDCP)

L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une large protection de la liberté d’expression, notamment dans le cadre de la politique, des affaires publiques et des droits humains (observation générale n° 34, paragraphes 11 et 12). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ».

Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme de l’ONU (PDNU), que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test à la fois pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. En vertu du Principe directeur 13, les entreprises doivent « éviter de causer ou de contribuer à des impacts négatifs sur les droits humains par leurs propres activités » et « prévenir ou atténuer les impacts négatifs sur les droits humains qui sont directement liés à leurs activités, produits ou services ». Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41). Parallèlement, lorsque les règles de l’entreprise diffèrent des standards internationaux, les entreprises sont tenues de fournir à l’avance une explication motivée de la différence de politique (ibid., paragraphe 48).

I. Légalité (clarté et accessibilité des règles)

Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (Ibid). Le Rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.

Le Conseil estime qu’il n’est pas clair pour les utilisateurs que la politique de Meta relative à la violence et à l’incitation interdit les menaces tant contre les lieux que les personnes. Dans le contexte des émeutes au Royaume-Uni, de nombreux lieux ont en effet été ciblés en raison de leur association avec des musulmans, des demandeurs d’asile et des immigrés.

Le Conseil estime, par ailleurs, que l’interdiction des allégations relatives à des « auteurs de crimes violents (notamment, les terroristes et les assassins) » dans le cadre de la politique en matière de conduite haineuse est suffisamment claire en ce qui concerne les quatre hommes musulmans visés par la publication. Cependant, la tentative de Meta de distinguer les généralisations interdites sur les qualités intrinsèques d’un groupe entier des déclarations comportementales acceptables qui peuvent ne pas s’appliquer à un groupe entier (c’est-à-dire faire référence à un groupe en tant que « terroristes » ou « assassins » plutôt que de dire qu’ils « assassinent ») crée une confusion importante. Dans les deux cas, il peut s’agir de généralisations déshumanisantes, selon le contexte, et la distinction en matière de mise en application peut donner l’impression d’être arbitraire.

II. Objectif légitime

Toute restriction de la liberté d’expression doit répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent les « droits d’autrui » et la « sauvegarde de l’ordre public » (article 19, paragraphe 3 du PIDCP). Le Conseil a précédemment conclu que la politique de Meta relative à la violence et à l’incitation avait pour but légitime de sauvegarder l’ordre public et de protéger les droits d’autrui, en particulier le droit à la vie (voir les cas concernant la confrontation subie par une femme iranienne dans la rue et le Bureau des affaires de communication du Tigré). En outre, le Conseil a précédemment estimé que la politique de Meta en matière de discours haineux (rebaptisée « politique en matière de conduite haineuse ») visait à sauvegarder le droit à l’égalité et à la non-discrimination, un objectif légitime reconnu par les normes internationales relatives aux droits humains (voir les cas concernant le dessin animé de Knin et le Bot au Myanmar). Cela continue d’être l’objectif légitime de la politique en matière de conduite haineuse.

III. Nécessité et proportionnalité

Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34). Le Rapporteur spécial sur la liberté d’expression a également fait remarquer que, sur les réseaux sociaux, « l’ampleur et la complexité de la lutte contre l’expression de la haine soulèvent des défis à long terme » (A/HRC/38/35, paragraphe 28). Toutefois, selon le Rapporteur spécial, les entreprises doivent « démontrer la nécessité et la proportionnalité de toute mesure prise à l’égard de contenus (comme les suppressions ou les suspensions de compte) ». Les entreprises sont tenues « de se poser les mêmes questions […] quant à la protection de la liberté d’expression de leurs utilisateurs » (ibid. paragraphe 41).

La valeur de l’expression est particulièrement élevée lorsque des sujets d’intérêt public sont abordés et le droit à la liberté d’expression est primordial lors de l’évaluation de discours et de commentaires politiques concernant des affaires publiques. Les individus ont le droit de rechercher, de recevoir et de diffuser des idées et des opinions de toutes sortes, y compris celles qui peuvent être considérées comme controversées ou profondément offensantes (observation générale n° 34, paragraphe 11). Dans sa décision relative aux commentaires d’une personnalité politique sur des changements démographiques, le Conseil a estimé que même si elle était controversée, l’expression de cette opinion sur l’immigration ne contenait pas de propos haineux ou déshumanisants directs envers des groupes vulnérables, ni d’appel à la violence. Cela dit, lorsque de telles conditions sont remplies, la suppression du contenu peut être judicieuse (voir également la décision concernant les critiques envers les politiques migratoires européennes et les immigrés).

Le Conseil estime que toutes les trois publications auraient dû être retirées conformément aux politiques de Meta, et que leur suppression est nécessaire et proportionnelle au vu des six facteurs énumérés dans le Plan d’action de Rabat (Plan d’action de Rabat, HCDH, A/HRC/22/17/Add.4, 2013). Ces facteurs sont : le contexte social et politique, le statut de l'orateur, l'intention d'inciter le public à prendre pour cible un certain groupe, le contenu et la forme du discours, l'ampleur de sa diffusion et la probabilité du préjudice, y compris son imminence.

  • Contexte : Les émeutes ont été marquées par une escalade de la violence envers plusieurs groupes spécifiques. Elles ont été alimentées par de la désinformation virale sur les réseaux sociaux, généralement amplifiée par des comptes influents (voir également le commentaire public de l’Institute for Strategic Dialogue, PC-30832). Certains de ces comptes se sont avérés liés à des groupes et des individus d’extrême droite. Ces derniers ont profité du pic d’activité en ligne pour organiser des manifestations antimusulmans devant la mosquée de Southport et encourager le public à y participer. Ces manifestations ont viré à l’émeute, tout comme beaucoup d’autres rassemblements qui ont suivi, dont ceux de Sunderland, Rotherham et Manchester.
  • Contenu et forme : Comme expliqué ci-dessus, le contenu des trois publications, tant sous forme écrite que visuelle, peut être clairement considéré comme incitant le public à prendre part aux émeutes, de manière directe ou par la diffusion de propos déshumanisants et haineux envers les musulmans et les immigrés au milieu d’émeutes violentes.
  • Statut, intention et portée de l’auteur de la publication : Au vu de l’importance des troubles publics, toute publication, y compris celles de personnalités sans grande influence encourageant des actes spécifiques de violence, était susceptible de devenir virale et de causer un préjudice considérable. Le troisième contenu, représentant quatre musulmans courant après un enfant, arborait également le logo d’un compte important sur les réseaux sociaux. En décembre 2024, Radio Free Europe a publié une enquête sur les méthodes utilisées par ces comptes pour propager de fausses informations ciblant les immigrés, ainsi que sur les mesures prises par ces comptes pour éviter que leur propriétaire ne soit démasqué.
  • Probabilité et imminence de la violence, la discrimination et l’hostilité : Au cours de cette période, et étant donné que chaque publication constitue une incitation directe à la violence à l’encontre des musulmans et des immigrés, la probabilité que la moindre publication haineuse incite à des troubles et à des violences supplémentaires était importante. Au vu du contexte dans lequel ces publications ont été partagées, des mesures moins restrictives n’auraient pas été suffisantes pour atténuer le risque probable et imminent de violence, et la suppression du contenu au titre des politiques de Meta aurait été nécessaire et proportionnelle à leur objectif légitime.

Mise en application

Le Conseil s’inquiète de constater que Meta, même après la sélection de ces cas par le Conseil, a confirmé que les deux publications contenant des images générées par l’IA n’enfreignaient pas ses politiques. Il semble que les modérateurs (et même les équipes chargées des politiques de Meta) se soient vu attribuer une checklist qui est interprétée de manière trop stricte et qui exige la présence d’éléments spécifiques pour qu’une infraction soit identifiée. Cette approche semble s’inscrire dans le cadre d’une application cohérente des règles. Basées majoritairement sur des publications écrites, ces instructions ne tiennent toutefois pas compte du fonctionnement des images, ce qui entraîne des incohérences en matière de mise en application. Pour Meta, l’application de ses règles relatives au contenu comportant des allégations de criminalité inhérente à l’encontre d’un groupe sur la base d’une caractéristique protégée représente donc un défi majeur, comme le démontrent ces cas. Les directives actuelles que suivent les équipes d’examen semblent être particulièrement obsolètes au vu de la prédominance des images et des vidéos dans les contenus partagés sur les réseaux sociaux.

Bien que la cohérence soit un gage incontestable de qualité pour la modération de Meta, cette cohérence ne peut être assurée au détriment du contexte, en particulier lorsqu’il s’agit d’éléments visuels basés sur un discours haineux et une incitation à la haine. Lorsqu’une crise évolue à toute vitesse, comme les émeutes survenues au Royaume-Uni, la menace réelle pour les personnes et les biens est un prix bien trop élevé. Il est indispensable de tenir compte du contexte et de faire preuve de bon sens dans ce genre de cas. Comme mentionné ci-dessus, il est particulièrement important que le protocole de politique de crise de Meta soit activé sans tarder et que les équipes d’examen reçoivent des instructions spécifiques au contexte pour qu’elles puissent veiller à l’application correcte des politiques de Meta.

Le Conseil souligne que, dans des cas tels que les émeutes du Royaume-Uni, le maintien d’informations non vérifiées et fausses représente un réel danger. Une analyse réalisée par le professeur Marc Owen Jones (expert en désinformation et en fausses informations) dans le cadre d’un thread publié sur X le 30 juillet a révélé que les publications partagées sur X indiquant ou alléguant que l’assaillant était un musulman, un migrant, un réfugié ou un étranger avaient accumulé au moins 27 millions d’impressions. Le professeur a également constaté qu’il y avait eu plus de 13 millions d’impressions pour des publications dénonçant ces allégations.

Les politiques de Meta en matière de fausses informations jouent un rôle crucial dans ce contexte, en particulier sa règle concernant la suppression des « fausses informations ou des rumeurs non vérifiables qui, selon les partenaires spécialisés, sont susceptibles de contribuer directement à un risque de violence ou de blessures physiques imminentes pour les personnes » (voir la décision concernant les Crimes présumés à Rayo Kobo). En ce qui concerne les fausses informations qui ne représentent pas un risque imminent de violence ou de blessures physiques, des mesures moins restrictives que la suppression peuvent être nécessaires, telles que la mise à disposition d’informations supplémentaires en vue de corriger les mensonges. Meta a informé le Conseil que ses médias de vérification tiers avaient examiné « plusieurs contenus » qui comportaient « le faux nom de l’auteur de l’attaque de Southport » peu de temps après leur propagation et les avaient qualifiés de « faux ». Les médias de vérification auraient dû être en mesure de le faire dès la publication des déclarations au sujet du faux nom par les autorités britanniques le 30 juillet. Ces publications se sont alors vu apposer l’étiquette de vérification des informations, leur visibilité a été réduite « dans les heures qui ont suivi leur apparition sur la plateforme » et les utilisateurs ont été redirigés vers un article d’un média de vérification qui avait pour but de corriger la fausse information. Pour en savoir plus sur l’approche de Meta en matière de vérification des informations, consultez l’avis consultatif en matière de politique sur la suppression des fausses informations sur le COVID-19. Le Conseil ignore quel pourcentage de faux contenu publié au cours des émeutes au Royaume-Uni a été examiné par les médias de vérification. Le Conseil déplore à nouveau que le nombre de médias de vérification auxquels fait appel Meta soit trop limité et que, trop souvent, un nombre important de publications en attente d’examen par les médias de vérification ne soient jamais vérifiées.

Pendant qu’elle prépare le déploiement de son programme de notes de la communauté voué à remplacer la vérification tierce, en premier lieu aux États-Unis, Meta devrait en profiter pour s’informer sur l’expérience des plateformes ayant utilisé des outils similaires pour lutter contre les fausses informations pendant les émeutes au Royaume-Uni, et examiner les recherches plus larges sur l’efficacité des notes de la communauté. Par exemple, une recherche menée par le Center for Countering Digital Hate (CCDH) sur les publications de cinq comptes très connus sur X qui ont diffusé de fausses informations pendant les émeutes au Royaume-Uni a révélé que ces comptes avait accumulé près de 430 millions de vues. Selon les analyses, parmi les 1060 publications partagées par ces comptes entre le 29 juillet et le 5 août, une seule a fait l’objet d’une note de la communauté.

Diligence raisonnable en matière de droits humains

Les principes 13, 17 (c) et 18 des PDNU exigent de Meta qu’elle fasse preuve de diligence raisonnable en matière de droits humains lorsqu’elle apporte des modifications significatives à ses politiques et à leur application. Pour ce faire, l’entreprise fait généralement appel à son forum de politique des produits, qui implique notamment les parties prenantes concernées. Le Conseil est préoccupé par le fait que les changements de politique et d’application ont été annoncés par Meta de manière précipitée le 7 janvier 2025, contrairement à la procédure habituelle, sans qu’aucune information publique n’ait été communiquée quant à la diligence raisonnable préalable en matière de droits humains, si tant est qu’il y en ait eu une.

Vu que ces modifications sont désormais déployées au niveau international, il est crucial que Meta veille à identifier, atténuer et prévenir les répercussions négatives de ces modifications sur les droits humains, sans oublier de les signaler publiquement. À cet égard, Meta devrait notamment se concentrer sur les conséquences différentes pour les différents groupes, dont les immigrés, les réfugiés et les demandeurs d’asile. En ce qui concerne les changements en matière de mise en application, la diligence raisonnable doit également tenir compte de deux éventualités : l’application excessive (Appel à la manifestation des femmes à Cuba, Réappropriation de mots arabes) et l’application insuffisante (Négationnisme, Violence homophobe en Afrique de l’Ouest, Publication en polonais ciblant les personnes trans) des règles. Le Conseil souligne la pertinence de sa première recommandation dans les cas concernant les critiques sur les politiques migratoires européennes et les immigrés pour répondre à ces inquiétudes.

6. La décision du Conseil de surveillance

Le Conseil de surveillance annule les décisions initiales de Meta de conserver les trois contenus sur sa plateforme et demande la suppression des deuxième et troisième publications.

7. Recommandations

Politique de contenu

1. Afin de clarifier son standard de la communauté en matière de violence et d’incitation, Meta devrait préciser que toutes les menaces de violence très graves visant des lieux sont strictement interdites, tout comme celles perpétrées à l’encontre de personnes.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta aura mis à jour le standard de la communauté en matière de violence et d’incitation.

Mise en application

2. Afin de clarifier son standard de la communauté en matière de conduite haineuse, Meta devrait élaborer des critères solides et clairs permettant d’identifier les graves allégations criminelles basées sur des caractéristiques protégées sous forme visuelle. Ces critères devraient être en adéquation avec les standards en matière de conduite haineuse qui s’appliquent au contenu sous forme de texte et les modifier, afin de garantir une application cohérente des règles tant pour le contenu visuel que sous forme de texte.

Le Conseil estimera que cette recommandation aura été suivie lorsque les standards internes d’implémentation refléteront la modification proposée.

3. Afin de s’assurer que Meta répond de manière efficace et cohérente aux crises, l’entreprise devrait revoir le critère qu’elle a établi pour l’activation du protocole de politique de crise. En sus de l’approche actuelle basée sur une liste des conditions qui peuvent ou ne peuvent pas justifier le déclenchement du protocole, l’entreprise devrait identifier les critères de base qui, lorsqu’ils sont remplis, suffisent à déclencher l’activation immédiate du protocole.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta informera le Conseil sur sa nouvelle approche en matière d’activation du protocole de politique de crise et publiera un avertissement sur la procédure dans son Espace modération.

4. Afin de veiller à la mise en application correcte de ses politiques en matière de violence et d’incitation et de conduite haineuse lors de prochaines crises, Meta devrait s’assurer que son protocole de politique de crise entraîne le signalement de toute violation de la politique pouvant conduire à des actes probables et imminents de violence pour un examen manuel. Ces examinateurs devraient fournir des instructions basées sur le contexte et limitées dans le temps aux autres examinateurs de l’entreprise, notamment en matière d’infractions sous forme d’image.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta partagera les documents relatifs à son nouveau protocole de politique de crise démontrant la manière dont (1) les infractions sont signalées pour un examen interne, (2) les instructions basées sur le contexte sont transmises aux équipes internes, et (3) les instructions sont exécutées par les examinateurs de l’entreprise.

5. Au vu du déploiement des notes de la communauté par l’entreprise, Meta devrait s’assurer d’évaluer de manière continue l’efficacité des notes de la communauté par rapport à la vérification tierce. Ces évaluations devraient tenir compte de la vitesse, de la précision et du volume des notes et des étiquettes apposées dans les cas où la propagation rapide de fausses informations entraîne un risque pour la sécurité publique.

Le Conseil estimera que cette recommandation aura été suivie lorsque Meta informera le Conseil tous les six mois de l’évolution de la situation jusqu’à l’implémentation complète et publiera les résultats de cette évaluation.

*Note de procédure :

  • Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
  • En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; Article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
  • Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.

Retour aux décisions de cas et aux avis consultatifs politiques