Décision sur plusieurs affaires
Publications affichant le drapeau sud-africain de la période de l’apartheid
23 avril 2025
À l’issue de l’examen de deux publications Facebook contenant des images de l’ancien drapeau sud-africain de 1928 à 1994, le Conseil a décidé à la majorité de confirmer la décision de Meta de laisser ces images en ligne. Elles ne prônent pas clairement l’exclusion ni la ségrégation, et ne constituent pas non plus un appel à la violence ou à la discrimination.
2 cas inclus dans ce lot
FB-Y6N3YJK9
Cas relatif aux sur Facebook
FB-VFL889X3
Cas relatif aux sur Facebook
Résumé
À l’issue de l’examen de deux publications Facebook contenant des images de l’ancien drapeau sud-africain de 1928 à 1994, le Conseil a décidé à la majorité de confirmer la décision de Meta de laisser ces images en ligne. Les membres du Conseil reconnaissent l’héritage et les conséquences à long terme de l’apartheid en Afrique du Sud. Toutefois, ces deux publications ne prônent pas clairement l’exclusion ni la ségrégation, et ne peuvent pas non plus être interprétées comme un appel à la violence ou à la discrimination. Les délibérations autour de ces cas ont également abouti à des recommandations visant à améliorer les dispositions contradictoires de la politique sur les organisations et les personnes dangereuses.
Remarque supplémentaire : Les révisions apportées le 7 janvier 2025 par Meta n’ont pas influé sur l’issue de ces cas-ci, bien que le Conseil ait tenu compte des règles en vigueur au moment de leur publication et de leurs mises à jour au cours de ses délibérations. En ce qui concerne les changements plus larges de politique et de mise en application annoncés à la hâte par Meta en janvier, le Conseil s’inquiète du fait que Meta n’a pas fait part publiquement de la diligence raisonnable dont elle a fait preuve en matière de droits humains, si tant est qu’il y en ait eu une. Or ses engagements au titre des principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme justifieraient la mise en place de cette diligence raisonnable. Il est indispensable que Meta veille à ce que toute répercussion négative sur les droits humains dans le monde soit identifiée et évitée.
À propos des cas
Partagée avant les élections générales sud-africaines de mai 2024, la première publication Facebook montre la photo d’un soldat blanc tenant l’ancien drapeau de ce pays, utilisé pendant l’époque de l’apartheid. La légende appelle ceux qui la lisent à partager la publication s’ils ont « served under this flag » (servi sous ce drapeau). Cette publication a été vue plus de 500 000 fois. Elle a été signalée par trois utilisateurs, mais Meta a décidé que ce contenu n’enfreignait pas ses règles.
La deuxième publication, également sur Facebook, inclut des photos d’archives de l’époque de l’apartheid, représentant l’ancien drapeau, des enfants blancs à côté d’un homme noir sur une vélo chariot à glace, une plage publique réservée aux Blancs et un pistolet jouet. La légende déclare que « these were the good old days » (c’était le bon vieux temps), invite à « read between lines » (lire entre les lignes) et inclut des clins d’œil et des emojis « OK ». Vu plus de deux millions de fois, le contenu a été signalé par 184 utilisateurs, la plupart du temps pour discours haineux. L’équipe d’examen manuel de Meta a décidé que la publication n’enfreignait pas les Standards de la communauté.
Dans un cas comme dans l’autre, des personnes qui avaient signalé le contenu à Meta ont ensuite fait appel auprès du Conseil.
Principales conclusions
La majorité des membres du Conseil a estimé qu’aucune publication n’enfreignait la politique en matière de conduite haineuse.
La politique n’autorise pas les « attaques directes » sous forme d’« appels ou soutiens à l’exclusion ou à la ségrégation » en raison d’une caractéristique protégée. Aucune de ces publications ne prône le retour à l’apartheid ni une quelconque forme d’exclusion raciale, d’après cette majorité. Tant que la publication sur le soldat utilise le drapeau dans un contexte positif, elle ne défend pas l’exclusion ni la ségrégation raciale. Quant à la grille de photos, la combinaison d’images et d’emojis, et l’appel à « read between the lines » (lire entre les lignes) constituent bel et bien un message raciste, mais sans atteindre le degré nécessaire pour enfreindre la politique.
Une minorité des membres du Conseil est en désaccord avec ces conclusions et signale que le drapeau est un symbole clair et direct de l’apartheid, qui, s’il est associé à des références positives ou neutres, peut être interprété comme une défense de la ségrégation raciale. Par exemple, il ne fait aucun doute que la publication de la grille de photos soutient l’exclusion raciale, avec ses images du quotidien sous la ségrégation et l’emoji « OK », utilisé par les défenseurs de la suprématie blanche à travers le monde comme symbole masqué de discours haineux.
Le Conseil a conclu à l’unanimité que ces deux publications enfreignent la politique sur les organisations et les personnes dangereuses, sans toutefois s’accorder sur le motif de cette infraction. L’entreprise supprime les contenus qui glorifient, soutiennent ou représentent des idéologies haineuses, y compris la suprématie blanche et le séparatisme blanc, tout comme les « références équivoques » à ces idéologies. Le Conseil convient que le drapeau utilisé de 1928 à 1994 ne peut pas être dissocié de l’apartheid, qui est une forme de séparatisme blanc. Selon la majorité des membres du Conseil, les deux publications représentent des références équivoques au séparatisme blanc, alors que pour une minorité, elles glorifient explicitement cette idéologie.
De l’avis de cette majorité, il n’est pas nécessaire ni proportionné de supprimer le contenu, parce que la probabilité d’une discrimination ou violence imminente provoquée par ces publications est faible. Ce n’est pas en interdisant ce discours que les idées intolérantes disparaîtront et d’autres outils de modération de contenu moins intrusifs que la suppression auraient pu être appliqués. Une minorité de membres du Conseil est en désaccord, estimant que la suppression est nécessaire pour garantir le respect de l’égalité et la non-discrimination des personnes non blanches en Afrique du Sud. Elle met aussi en avant la terreur causée par la haine accumulée sur les plateformes Meta, menaçant la liberté d’expression des personnes désignées comme cibles.
Tous les membres du Conseil reconnaissent que le langage relatif aux « références » aux idéologies haineuses utilisé dans le Standard de la communauté sur les organisations et les personnes dangereuses est contradictoire. Pendant les délibérations, il a été demandé pourquoi l’apartheid n’est pas répertorié par Meta sous une désignation indépendante. Certains membres du Conseil se sont interrogés sur le fait que la liste de Meta se concentre sur les idéologies susceptibles de présenter des risques dans les régions dites de la « minorité planétaire » mais reste silencieuse face aux idéologies haineuses comparables dans la « majorité planétaire ».
La décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de conserver les deux publications.
Le Conseil recommande à Meta ce qui suit :
- À l’égard des mises à jour du 7 janvier 2025 du Standard de la communauté relatif à la conduite haineuse, Meta devrait identifier la manière dont ces modifications de la politique et leur mise en application peuvent avoir des répercussions négatives sur les régions dites de la « majorité planétaire ». Meta devrait également prendre des mesures pour prévenir et/ou limiter ces risques et contrôler leur efficacité. Enfin, Meta devrait faire état de ses progrès auprès du Conseil tous les six mois et rédiger des rapports publics à ce sujet le plus tôt possible.
- Adopter une seule explication claire et exhaustive de la manière dont ses interdictions et exceptions en vertu du Standard de la communauté sur les organisations et les personnes dangereuses s’appliquent aux idéologies haineuses désignées.
- Inclure à part entière l’apartheid dans la liste des idéologies désignées dans le Standard de la communauté sur les organisations et les personnes dangereuses.
- Fournir aux équipes d’examen des exemples plus généraux de glorification, de soutien et de représentation interdites des idéologies haineuses, et notamment des exemples dans lesquels l’idéologie répertoriée par Meta n’est pas directement nommée dans la publication.
* Les résumés de cas donnent un aperçu de chaque cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Description du cas et contexte
Ces cas concernent deux publications Facebook partagées lors de la course aux élections générales sud-africaines en mai 2024.
La première publication est une photo d’un soldat blanc tenant un drapeau sud-africain antérieur à 1994, c’est-à-dire le drapeau du pays sous l’apartheid. La légende en anglais appelle ceux qui la lisent à partager le contenu s’ ils ont « served under this flag » (servi sous ce drapeau). La publication a été vue environ 600 000 fois et partagée autour de 5 000 fois. Trois personnes ont signalé le contenu à Meta pour discours haineux et violence. L’équipe d’examen manuel de Meta ayant estimé que le contenu n’était pas en infraction, celui-ci est resté en ligne. L’une des personnes qui avaient signalé le contenu a fait appel auprès du Conseil.
La deuxième publication est une grille de photos contenant des images d’archives de l’époque de l’apartheid : ancien drapeau du pays, homme noir sur un vélo chariot à glace à côté de trois enfants blancs dans ce qui semble être un quartier réservé aux Blancs, plage publique réservée aux Blancs avec un parc d’attraction, jeu de société sud-africain, paquet de confiseries en forme de cigarettes, pistolet jouet argenté. La légende déclare que c’était « [the] good old days » (le bon vieux temps), invite l’audience à « read between the lines » (lire entre les lignes) et inclut des clins d’œil et des emojis « OK ». La publication a été vue environ deux millions de fois et partagée autour de 1 000 fois. Après une semaine en ligne, 184 personnes avaient signalé le contenu, la plupart pour discours haineux. Certains de ces signalements ont été évalués par une équipe d’examen manuel, laquelle a tranché que le contenu n’enfreignait pas les Standards de la communauté. Le reste des signalements a été traité par une combinaison de systèmes automatiques et sur la base de décisions précédentes prises par l’équipe d’examen manuel. Tout comme dans le cas de la publication représentant un soldat, Meta a estimé que le contenu n’était pas en infraction et celui-ci est resté sur la plateforme. L’une des personnes qui avaient signalé le contenu a fait appel auprès du Conseil.
Le 7 janvier 2025, Meta a annoncé la mise à jour de sa politique en matière de discours haineux et l’a renommée « politique en matière de conduite haineuse ». Ces modifications, dans la mesure où elles sont pertinentes dans ces cas, seront décrites dans la section 3 et analysées dans la section 5. Le Conseil note que le contenu est accessible en permanence sur les plateformes de Meta et que les politiques mises à jour sont appliquées à tout le contenu présent sur la plateforme, quelle que soit la date à laquelle il a été publié. Le Conseil évalue donc l’application des politiques telles qu’elles étaient au moment de la publication et, le cas échéant, telles qu’elles ont été révisées depuis (voir également l’approche adoptée pour les contenus négationnistes).
En vue d’aboutir à une décision, le Conseil fait remarquer le contexte suivant :
De 1948 à 1994, l’Afrique du Sud a été placée sous un régime d’apartheid cautionné par l’État, aboutissant à la ségrégation raciale des Sud-africains blancs et non blancs, même si des lois discriminantes existaient déjà avant l’instauration de l’apartheid. Pendant cette période, l’Afrique du Sud était représentée par un drapeau orange, blanc et bleu. En 1994, à la fin de l’apartheid, l’Afrique du Sud a adopté le drapeau à six couleurs encore utilisé à l’heure actuelle. Malgré la fin de ce régime, les inégalités socio-économiques frappent encore tout particulièrement la population non blanche du pays et sont une source de tensions raciales dans la sphère politique et le débat public.
En 2018, la Fondation Nelson Mandela a engagé une action en justice, dans le but d’interdire « l’exhibition gratuite » du drapeau de l’époque de l’apartheid, au vu de son utilisation dans des manifestations l’année précédente. Selon les arguments de la Fondation, cette exhibition relevait du « discours haineux, de la discrimination injuste et du harcèlement » et commémorait les atrocités du système. En 2019, les tribunaux de l’égalité sud-africains ont estimé que l’exhibition gratuite du drapeau relevait du discours haineux et de la discrimination raciale, passibles de poursuites en vertu du droit national. Dans leur décision, ils ont précisé qu’il n’est pas illégal de montrer le drapeau à des fins artistiques, académiques, journalistiques ou pour servir l’intérêt public. Cette décision a été confirmée par la Cour suprême d’appel (SCA) sud-africaine en avril 2023.
Le 29 mai 2024, des élections à l’Assemblée nationale ont été tenues en Afrique du Sud. Le Congrès national africain (ANC), parti politique dirigé par Nelson Mandela après la fin de l’apartheid, a perdu sa majorité au parlement. Le dirigeant actuel du parti, Cyril Ramaphosa , est néanmoins resté au pouvoir enformant un gouvernement de coalition avec des partis de l’opposition.
2. Soumissions de l’utilisateur
Les auteurs des publications ont été avertis de l’examen du Conseil et ont eu la possibilité d’envoyer une déclaration. Aucune réponse n’a été reçue.
Dans ses déclarations au Conseil, la personne ayant signalé la publication du soldat affirmait que l’ancien drapeau sud-africain était comparable au drapeau nazi allemand. Selon elle, « brazenly displaying [it] » (le fait de l’exhiber éhontément) incite à la violence, étant donné que le pays est encore sous le choc de ce crime contre l’humanité qu’est l’apartheid. L’auteur du signalement a également déclaré que la diffusion de ces images en période électorale pouvait inciter à la haine et mettre des vies en danger. De la même façon, l’auteur du signalement de la grille de photos a expliqué que l’utilisation du drapeau est illégale et que la publication dans son ensemble suggère que l’apartheid a été une meilleure période (« better time ») pour les Sud-africains. Il a souligné que l’ancien drapeau représentait l’oppression et était « derogatory » (un manque de respect) et « painful » (douloureux) pour la plupart des Sud-africains.
3. Politiques de Meta relatives au contenu et soumissions
I. Politiques de Meta relatives au contenu
Standard de la communauté en matière de conduite haineuse (précédemment, de discours haineux)
La politique en matière de conduite haineuse de Meta considère que les personnes s’expriment et interagissent plus librement lorsqu’elles ne se sentent pas attaquées en fonction de leur identité. Meta définit la conduite haineuse de la même manière qu’elle définissait le « discours haineux », à savoir comme des « attaques directes contre des personnes » du fait de leurs caractéristiques protégées, et notamment de leur origine nationale et ethnique. Face à la recommandation du Conseil de clarifier son approche dans le cas du dessin animé de Knin, Meta déclare dans l’introduction de ses Standards de la communauté qu’elle est susceptible de supprimer le contenu utilisant un « langage ambigu ou implicite » lorsque le contexte supplémentaire permet de comprendre raisonnablement que le contenu va à l’encontre des Standards de la communauté.
Le niveau 2 de la politique en matière de conduite haineuse interdit « des appels ou soutiens à l’exclusion ou à la ségrégation ou des déclarations d’intention d’exclure ou de ségréger », sous forme écrite ou visuelle. Meta interdit les appels ou soutiens à l’exclusion suivants : (i) l’exclusion générale, c’est-à-dire l’appel à l’exclusion ou à la ségrégation générale, tel que « Aucun X n’est autorisé ! » ; (ii) l’exclusion politique, qui désigne le refus du droit à la participation politique ou le fait de plaider pour l’incarcération ou le refus des droits politiques ; (iii) l’exclusion économique caractérisée comme un déni du droit d’accès aux avantages économiques et une participation limitée au marché du travail ; et (iv) l’exclusion sociale, comme le refus d’accès à des espaces (physiques et en ligne) et à des services sociaux. Avant le 7 janvier, l’interdiction de l’« exclusion générale » était désignée par le terme « exclusion explicite ».
Organisations et personnes dangereuses
La politique de Meta relative aux Organisations et personnes dangereuses vise à « éviter et empêcher tout danger réel ».
En vertu de cette justification de la politique, Meta déclare supprimer le contenu qui glorifie, soutien ou représente des « idéologies fondées sur la haine ».
Meta explique que cela désigne les idéologies interdites, répertoriées dans la politique comme « le nazisme, la suprématie blanche, le nationalisme blanc [et] le séparatisme blanc », celles-ci étant « intrinsèquement liées à la violence » et « aux tentatives de rassembler des personnes autour d’appels à la violence ou à l’exclusion d’autres personnes sur la base de leurs caractéristiques protégées ». Directement sous cette liste, l’entreprise déclare supprimer les glorifications, les soutiens et les représentations explicites de ces idéologies (emphase ajoutée).
Meta déclare par deux fois supprimer les « références équivoques » aux idéologies fondées sur la haine, dans la justification de la politique puis dans la description des organisations de niveau 1.
Meta explique dans la justification de la politique que les utilisateurs sont tenus « d’indiquer clairement leur intention » lorsqu’ils créent ou partagent un tel contenu. Si l’intention d’un utilisateur est « ambiguë ou peu claire », Meta supprime le contenu par défaut.
II. Soumissions de Meta
Meta a laissé les deux publications sur Facebook, ayant estimé qu’elles n’enfreignaient pas ses politiques. Meta a confirmé que son analyse du contenu ne se voyait pas affectée par les changements introduits dans la politique le 7 janvier.
Meta a déclaré que les publications n’allaient pas à l’encontre de sa politique en matière de conduite haineuse, étant donné l’absence d’appel à l’exclusion d’un groupe protégé dans le cadre du niveau 2, et de toute autre attaque directe interdite. Aucune déclaration incluse dans les publications ne mentionnait de groupe protégé, et lesdites publications ne défendaient aucune action spécifique. D’après Meta, pour que la politique soit applicable à grande échelle, il doit exister une attaque « directe » et explicite, et non purement implicite. Aucune des publications ne contenait d’attaque directe.
Les conseils internes fournis par Meta aux équipes d’examen dans le cadre de la mise en application contiennent une liste indicative des emojis qui constituent une infraction lorsqu’ils sont utilisés dans un contexte permettant de confirmer qu’il existe une intention d’attaquer directement une personne ou un groupe du fait de ses caractéristiques protégées. Les photos, les légendes, les superpositions de texte sur les photos et le contenu des vidéos peuvent permettre de déterminer le sens conféré à un emoji. L’emoji « OK » n’est pas inclus dans cette liste globale.
Meta a décidé que les publications en l’espèce n’enfreignaient pas la politique sur les organisations et personnes dangereuses. Meta a constaté que le drapeau affiché dans les publications était utilisé en Afrique du Sud entre 1928 et 1994, c’est-à-dire pendant l’époque de l’apartheid et les années précédentes. L’entreprise reconnaît que, depuis la fin de l’apartheid, le drapeau a parfois été utilisé lors de commémorations historiques, mais qu’il est la plupart du temps utilisé en tant que symbole de l’héritage Afrikaner et de l’apartheid. Elle reconnaît néanmoins que ce drapeau revêt d’autres significations, connectant les Sud-africains à des aspects différents de cette époque comme les expériences personnelles, le service militaire et d’autres dimensions de leur appartenance à cette nation.
En ce qui concerne l’interdiction par Meta des glorifications, des soutiens et des représentations explicites d’idéologies fondées sur la haine, l’entreprise a fait remarquer que dans ses conseils aux équipes d’examen, seuls le nazisme, la suprématie blanche, le nationalisme blanc et le séparatisme blanc sont répertoriés en tant qu’idéologies fondées sur la haine. Meta a malgré tout expliqué au Conseil qu’elle supprime tout « éloge des politiques de ségrégation » du type de celles mises en place pendant l’apartheid en Afrique du Sud au titre du séparatisme blanc. Le Conseil lui ayant demandé des exemples, Meta a indiqué que des déclarations comme « apartheid was wonderful » (l’apartheid était formidable) seraient la plupart du temps supprimées, mais il ne s’agit pas d’un exemple fourni aux équipes d’examen dans les conseils de mise en application. Les exemples d’infractions à la politique fournis aux équipes d’examen incluent, entre autres, « white supremacy is the right thing »(la suprématie blanche, voilà la solution) ou « yes, I am a white nationalist » (oui, je suis nationaliste blanc).
Meta a estimé que la déclaration incluse dans la publication sur le soldat, « Share if you served under this flag » (Partagez si vous avez servi sous ce drapeau) ne glorifie ni ne soutient une idéologie désignée comme fondée sur la haine. De même, la légende sous la grille de photos décrivant l’apartheid comme « [the] good old days » (le bon vieux temps) et invitant à « read between the lines » (lire entre les lignes) [emoji clin d’oeil, emoji « OK »], alliée au drapeau de l’apartheid et à des images historiques de cette époque, ne constituait pas en elle-même une glorification ni un soutien à une idéologie fondée sur la haine. Meta reconnaît que l’emoji « OK » est associé dans certains contextes au mouvement de suprématie blanche, mais qu’il veut principalement dire « okay », y compris en Afrique du Sud. Meta a conclu qu’en l’espèce, son utilisation ne vise pas à glorifier ni à soutenir une quelconque idéologie fondée sur la haine.
Dans le cadre de ses mesures en faveur de l’intégrité pour les élections sud-africaines de mai 2024, Meta a diffusé des campagnes de lutte contre les discours haineux et les fausses informations sur ses plateformes et à la radio locale pendant la période pré-électorale. Ces campagnes ont été conçues pour montrer au public comment identifier et signaler les discours haineux et les fausses informations en ligne.
Le Conseil a posé des questions sur la politique rebaptisée « politique en matière de conduite haineuse » et sur la politique sur les organisations et personnes dangereuses, ainsi que sur leur mise en application. Il a également voulu connaître les symboles et les idéologies susceptibles d’enfreindre ces politiques et les mesures de Meta en faveur de l’intégrité électorale en Afrique du Sud. Meta a répondu à toutes les questions.
4. Commentaires publics
Le Conseil de surveillance a reçu 299 commentaires publics qui répondent aux critères de soumission. 271 de ces commentaires ont été envoyés d’Afrique subsaharienne, 10 d’Europe, 4 d’Asie centrale et du Sud, 5 des États-Unis et du Canada, 7 du Moyen-Orient et d’Afrique du Nord et 2 d’Asie Pacifique et d’Océanie. Étant donné que la période pour la soumission de commentaires publics expirait avant le 7 janvier 2025, aucun des commentaires n’a abordé les changements de politique réalisés par Meta à cette date. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les commentaires soumis couvraient les thèmes suivants : le sens du drapeau de l’époque de l’apartheid dans l’histoire et la politique sud-africaines, l’effet de son exposition sur les personnes non blanches sur la volonté de construire une Afrique du Sud multiculturelle, le bien fondé d’autoriser ce drapeau sur les plateformes Meta, l’utilisation codée des symboles en ligne et les approches recommandées pour modérer les images pouvant constituer des attaques implicites contre des groupes protégés.
5. Analyse du Conseil de surveillance
Le Conseil a sélectionné ces cas afin d’aborder le respect de la liberté d’expression et d’autres droits humains par Meta dans le contexte d’élections. Il s’agit également d’examiner la manière dont Meta traite les images associées à l’histoire récente de l’apartheid en Afrique du Sud. Ces cas correspondent aux priorités stratégiques du Conseil, à savoir les élections et l’espace civique, ainsi que les discours haineux à l’encontre des groupes marginalisés.
Le Conseil a analysé les décisions de Meta dans ces cas, en les comparant à ses politiques relatives au contenu, ses valeurs et ses responsabilités en matière de droits humains. Le Conseil a également évalué les implications de ces cas pour l’approche plus globale de Meta dans le cadre de la gouvernance du contenu.
5.1 Respect des politiques de Meta relatives au contenu
Standard de la communauté en matière de conduite haineuse (précédemment, de discours haineux)
Le Conseil remarque que l’interdiction par Meta des « appels ou soutiens à l’exclusion ou à la ségrégation » du fait de caractéristiques protégées est ouverte à au moins deux interprétations, dont aucune ne se trouve affectée par les modifications de la politique du 7 janvier. Au vu de la valeur suprême accordée par Meta à la liberté d’expression, la majorité des membres du Conseil a privilégié une lecture stricte de la règle exigeant une défense de l’exclusion ou de la ségrégation. Une minorité, consciente de la valeur accordée par Meta à la dignité, procède à une lecture plus large : l’interdiction est interprétée comme englobant également le soutien à l’exclusion ou à la ségrégation dans un sens plus général.
De l’avis de la majorité des membres du Conseil, aucune de ces deux publications n’enfreint cette interdiction. Si la publication semble nostalgique de l’époque de l’apartheid, elle n’appelle pas à réinstaurer ce régime ni aucun autre type d’exclusion raciale.
En ce qui concerne la publication incluant le soldat, la majorité des membres du Conseil a reconnu que le drapeau de la période allant de 1928 à 1994 est largement perçu comme un symbole de l’apartheid. En revanche, le drapeau en lui-même associé à une déclaration sur le service militaire ne constitue pas une défense de l’exclusion ni de la ségrégation. Il faudrait que la publication contienne d’autres éléments supplémentaires pour être en infraction. Même si le drapeau est évoqué de manière positive, le contexte est limité au service militaire et il n’y a pas de déclaration ni de référence suffisamment claire prônant le rétablissement de l’apartheid ou d’une autre politique semblable. Certes, de nos jours, la diffusion de ce drapeau est clivante et offensante pour une bonne partie de la population d’Afrique du Sud. Mais il ne peut pas être présumé, sans aucune autre preuve, que cette publication défend l’exclusion ou la ségrégation raciale et enfreint donc cette politique.
De même, la majorité des membres du Conseil estime que la grille de photos, incluant l’image du drapeau sud-africain de 1928 à 1994 accompagnée de représentations de l’époque de l’apartheid en Afrique du Sud et d’une légende, ne prône ni la ségrégation ni l’exclusion. Elle évoque possiblement une nostalgie générale pour la période représentée. La majorité des membres du Conseil reconnaît que les expressions « the good old days » (le bon vieux temps) et « read between the lines » (lire entre les lignes), ainsi que le clin d’œil et l’emoji « OK » constituent tous, en combinaison avec les photos, des indices de message raciste qui modifient la manière dont ces images sont perçues. Néanmoins, la politique en matière de conduite haineuse de Meta n’interdit pas l’expression de points de vue insensibles autour de la question raciale, ni même racistes. Prise dans son ensemble, la publication n’en arrive pas au point de souhaiter le rétablissement de l’apartheid, ou d’une autre forme de ségrégation ou d’exclusion raciale. Elle est donc autorisée.
Pour une minorité de membres du Conseil, le drapeau sud-africain de 1928 à 1994 constitue un symbole univoque et direct de l’apartheid. Associé à une référence positive ou neutre (et non à une condamnation), il est contextuellement perçu en Afrique du Sud comme un soutien à la ségrégation et à l’exclusion raciales, et implique donc une infraction. Pour cette minorité, il n’est pas concevable de montrer le drapeau de manière inoffensive. Celui-ci ne peut être interprété que comme un soutien à l’exclusion raciale en vigueur à l’époque de l’apartheid (voir également les observations publiques, et notamment celle de la Commission sud-africaine des droits de l’homme et de la Fondation Mandela, en notant la décision de la Cour suprême d’appel (SCA) de 2023, PC-30759 ; PC-30771 ; PC-30768 ; PC-30772 ; PC-30774). Le drapeau de l’époque de l’apartheid a également été récupéré par des mouvements nationalistes blancs à d’autres endroits du monde (PC-30769).
Pour toutes ces raisons, cette minorité du Conseil a estimé que les deux publications constituaient un soutien à l’exclusion raciale. La publication relative au soldat, encourageant le public à repartager le drapeau, ne peut être comprise qu’en tant que soutien à la politique ségrégationniste représentée par le drapeau. Compte tenu de la grille de photos dans son ensemble, les images et la légende transmettent clairement le soutien de la publication à l’exclusion et à la ségrégation raciales. Le simple fait de publier le drapeau sans aucun contexte visant à condamner ou à sensibiliser constitue une infraction. Qui plus est, les autres photos sont clairement des images d’archives autour des aspects de la vie quotidienne pendant la ségrégation ; elles ne racontent aucune histoire personnelle à visée nostalgique, comme démontré dans la légende. L’utilisation dans la légende de l’emoji « OK », qui renvoie à la suprématie blanche, est révélatrice. Il est connu des partisans de ce mouvement dans le monde entier en tant que symbole de discours haineux (voir PC-30768) : les trois doigts forment la lettre W (comme « white », blanc) et le pouce et l’index joints forment la lettre P (comme « power », pouvoir) (voir PC-30768). Il n’était pas inclus séparément dans la publication. En l’accompagnant d’images de l’apartheid, d’un clin d’œil, d’une référence à « the good old days » (le bon vieux temps) et en invitant les utilisateurs à « read between the lines » (lire entre les lignes), même une personne non familiarisée avec la symbolique de la suprématie blanche comprend sans ambiguïté que cette publication soutient l’exclusion raciale et est donc en infraction. Pour parvenir à cette conclusion, il est important de comprendre la manière dont l’utilisation du langage raciste et des symboles en ligne s’est adaptée pour contourner la modération du contenu : des expressions plus subtiles (mais non moins directes) de soutien à l’exclusion peuvent être utilisées pour rallier les partisans de cette mouvance. Le discours haineux codé ou indirect peut s’avérer terriblement univoque, même en l’absence de déclarations littérales, comme en l’espèce.
Standards de la communauté sur les organisations et les personnes dangereuses
Par le biais des questions posées à l’entreprise, le Conseil est arrivé à la conclusion que l’apartheid sud-africain est inclus dans la désignation de Meta du séparatisme blanc en tant qu’idéologie fondée sur la haine. Toutefois, les conseils fournis aux équipes d’examen pourraient le refléter plus explicitement par le biais d’exemples plus larges d’infractions. Tel que signalé plus bas dans la section 5.2. (légalité), les règles de Meta sur les idéologies désignées restent vagues. Le Conseil a tranché à l’unanimité que ces deux publications enfreignaient le Standard de la communauté sur les organisations et les personnes dangereuses, mais pour des motifs différents. La majorité de ses membres considère que les deux publications correspondent à la définition de référence équivoque au séparatisme blanc, interdite par la politique. Pour une minorité de ses membres, ces deux publications en arrivent au point de glorifier le séparatisme blanc.
Le Conseil note que le drapeau sud-africain de la période allant de 1928 à 1994 ne peut pas être dissocié de l’apartheid, qui est une forme de séparatisme blanc. C’était déjà le drapeau national pendant les deux décennies de discrimination raciale institutionnalisée antérieures à l’apartheid, sur la base de laquelle l’apartheid a été instauré en 1948.
Pour la majorité des membres du Conseil, la publication incluant le soldat, qui encourage ceux qui ont combattu sous ce drapeau à la repartager, ne glorifie pas explicitement l’apartheid en tant que forme de suprématie blanche via cette référence expresse et positive au service militaire. De même, il n’est pas indiqué dans la publication de la grille de photos s’il s’agit d’une expérience personnelle pendant l’apartheid ou d’une glorification de cette période. Néanmoins, tel qu’indiqué plus haut, il existe plusieurs indices de message raciste dans cette publication, et tout particulièrement l’utilisation de l’emoji « OK » associé au drapeau. Pour la majorité des membres du Conseil, les signes positifs, bien qu’indirects, dans les deux publications constituent une infraction au titre d’une « référence équivoque » au séparatisme blanc, sans toutefois être suffisamment explicites pour atteindre le degré de « glorification ».
Aux yeux d’une minorité des membres du Conseil, ces deux publications atteignent le seuil correspondant à la glorification explicite du séparatisme blanc, pour les mêmes raisons qu’elles constituent un soutien à l’exclusion ou la ségrégation raciale en vertu de la politique en matière de conduite haineuse. Dans la publication relative au soldat, la référence positive au drapeau de l’époque de l’apartheid en tant que symbole inhérent au séparatisme blanc, y compris dans le contexte du service militaire, constitue une glorification de cette idéologie, même sans mentionner spécifiquement les politiques d’apartheid. Concernant la publication relative à la grille de photos, l’alliance entre le symbole de la suprématie blanche (emoji « OK »), le drapeau et l’expression « the good old days » (le bon vieux temps), glorifient aussi explicitement cette idéologie. Selon ces membres du Conseil, les utilisateurs ayant signalé ces deux publications et les commentaires laissés sur celles-ci viennent confirmer que les audiences ont bel et bien perçu une glorification de l’apartheid. Les nombreuses réactions à ces publications démontrent qu’avec un peu de créativité, les communications peu sophistiquées des séparatistes blancs peuvent contourner la modération de contenu. Elles reflètent également la manière dont les acteurs haineux organisés en réseau peuvent exploiter les plateformes de Meta pour diffuser leur message, identifier de nouvelles recrues et croître.
5.2 Respect des responsabilités de Meta en matière de droits humains
Une majorité des membres du Conseil estime que le maintien des deux publications sur la plateforme était conforme aux responsabilités de Meta en matière de droits humains. Une minorité n’est pas d’accord et estime que la suppression serait cohérente avec ces responsabilités.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit une large protection de la liberté d’expression, notamment dans le cadre de la politique, des affaires publiques et des droits humains ( observation générale n° 34, paragraphes 11-12). Le Comité des droits de l’homme des Nations Unies a souligné que la valeur d’expression est particulièrement élevée lorsque des enjeux politiques sont abordés (observation générale n° 34, paragraphes 11, 13). Il a souligné que la liberté d’expression est essentielle à la conduite des affaires publiques et à l’exercice effectif du droit de vote (observation générale n° 34, paragraphe 20 ; voir également Observation générale n° 25. paragraphe 12 et 25). Lorsque des restrictions de la liberté d’expression sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime, ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Ces exigences sont souvent reprises sous l’intitulé « test tripartite ».
Le Conseil s’appuie sur ce test afin d’interpréter les responsabilités de Meta en matière de droits humains conformément aux Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies, que Meta elle-même s’est engagée à respecter dans sa Politique relative aux droits humains. Le Conseil utilise ce test pour la décision relative au contenu individuel en cours d’examen et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations Unies sur la liberté d’expression, même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elles doivent se poser les mêmes questions que les gouvernements quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité prévoit que les règles qui limitent la liberté d’expression soient accessibles, claires et suffisamment précises pour permettre à un individu d’adapter son comportement en conséquence (observation générale n° 34, paragraphe 25). En outre, ces règles « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et doivent « énoncer des conseils suffisamment précis (...) pour établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » ( Ibid.). Lorsqu’elles s’appliquent aux acteurs privés, les règles régissant le discours en ligne devaient être claires et précises (A/HRC/38/35, paragraphe 46). Les personnes qui utilisent les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Les cas en l’espèce mettent en évidence deux problèmes concernant la clarté des interdictions en matière de conduite haineuse. Pour commencer, Meta a fourni des réponses contradictoires au Conseil à la question de savoir si les « attaques directes » incluent ou non les déclarations implicites (des interrogations similaires avaient été soulevées dans le cas du dessin animé de Knin traité par le Conseil). Par ailleurs, il n’a pas été tiré au clair si la règle sur les « appels ou soutiens à l’exclusion ou à la ségrégation » est limitée à la défense de l’exclusion ou englobe également le soutien à l’exclusion ou à la ségrégation dans un sens plus général. Cette ambiguïté est aggravée par le manque d’exemples généraux d’infractions fournis aux équipes d’examen, dont aucun ne concerne l’apartheid.
Le langage utilisé dans le Standard de la communauté sur les organisations et les personnes dangereuses est également contradictoire en ce qui concerne l’approche de Meta en matière d’idéologies fondées sur la haine. À certains endroits, il est spécifié que les références équivoques aux idéologies fondées sur la haine sont interdites, tout en affirmant ensuite que cette interdiction ne vise que « des glorifications, des soutiens et des représentations explicites d’idéologies fondées sur la haine ». Dans les conseils internes fournis aux équipes d’examen, il est mentionné que les « [r]éférences, [g]lorifications, [s]outiens, ou [r]eprésentations » sont tous interdits. La liste des interdictions dans la section « nous supprimons » de la politique ne renvoie à aucun moment à la règle sur les idéologies fondées sur la haine, ce qui ne fait qu’aggraver la confusion.
Alors que le Conseil estime que le terme « séparatisme blanc » devrait englober implicitement l’apartheid instauré en Afrique du Sud, ceci n’est pas énoncé clairement dans les conseils internes de Meta aux équipes d’examen, et les exemples inclus pertinents dans le contexte sud-africain ne sont pas suffisants. Les exemples de contenu en infraction fournis par Meta au Conseil en réponse à ses questions (p.ex. « apartheid was wonderful » (l’apartheid était formidable), « white supremacy is the right thing » (la suprématie blanche, voilà la solution)) ne reflètent pas la manière dont les messages suprémacistes racistes sont le plus souvent formulés. Parallèlement, le Conseil note que si l’apartheid tel qu’il avait été instauré en Afrique du Sud est par essence étroitement associé au séparatisme blanc et à la suprématie blanche, la notion d’apartheid en droit international s’applique à l'oppression systématique et la domination d'un groupe racial sur tout autre groupe racial dans l'intention de maintenir ce régime ( Statut de Rome de la Cour pénale internationale, Article 7(2)(h) ; Convention sur l’apartheid, Article 2). Cela pose la question de savoir pourquoi l’apartheid n’est pas répertorié sous une désignation indépendante. Comme les politiques de Meta s’appliquent à l’échelle internationale, plusieurs membres du Conseil se sont également demandé pourquoi la liste établie par Meta se concentre sur les idéologies pouvant représenter un risque dans les régions dites de la « minorité planétaire » mais passe sous silence bon nombre d’idéologies fondées sur la haine comparables dans les régions de la « majorité planétaire ».
II. Objectif légitime
Par ailleurs, toute restriction de la liberté d’expression doit au minimum répondre à l’un des objectifs légitimes énumérés dans le PIDCP, qui incluent la protection des droits d’autrui (article 19, paragraphe 3, PIDCP).
Le Conseil a précédemment reconnu que le Standard de la communauté sur les discours haineux poursuit l’objectif légitime de protéger les droits d’autrui. Parmi ces droits figurent le droit à l’égalité et à la non-discrimination (Article 2, paragraphe 1, PIDCP ; articles 2 et 5 de la Convention internationale sur l'élimination de toutes les formes de discrimination raciale). Cela s’applique également à la politique en matière de conduite haineuse mise à jour.
De même, le Conseil considère que la politique relative aux organisations et aux personnes dangereuses, visant à « éviter et empêcher tout danger réel », répond à l’objectif légitime de protéger les droits d’autrui, comme le droit à la vie (PIDCP, article 6) et le droit à la non-discrimination et à l’égalité (PIDCP, articles 2 et 26).
III. Nécessité et proportionnalité
Conformément à l’article 19(3) du PIDCP, le principe de nécessité et de proportionnalité requiert que les restrictions de la liberté d’expression soient « appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34).
La majorité des membres du Conseil estime que la conservation de ces deux publications s’inscrit dans la droite ligne des responsabilités de Meta en matière de droits humains, et que la suppression de ces contenus ne serait ni nécessaire ni proportionnée. Ces membres du Conseil reconnaissent que l’héritage de l’apartheid demeure et que ses conséquences à long terme se font encore sentir de nos jours dans toute l’Afrique du Sud. Parallèlement, le droit international en matière de droits humains offre une protection renforcée de la liberté d’expression en lien avec la participation politique, et notamment dans le contexte des élections (observation générale n° 25, paragraphes 12 et 25). Dans le cas Commentaires d’une personnalité politique sur des changements démographiques, le Conseil a statué que l’expression d’opinions controversées est protégée par les lois internationales sur les droits humains. Les deux publications en l’espèce constituent un exemple d’expression protégée. Bien que considérées comme « profondément offensantes », elles n’incitent pas à une discrimination probable et imminente (voir l’observation générale n° 34, (2011), paragraphe 11 ; voir aussi le paragraphe 17 du rapport 2019 du Rapporteur spécial des Nations Unies sur la liberté d’expression, A/74/486).
La majorité des membres du Conseil souligne que le Rapporteur spécial des Nations Unies sur la liberté d’expression a clairement affirmé que la limitation de la liberté d’expression n’est justifiée qu’en cas de préjudice imminent, probable et concret. Mais quand le préjudice n’est ni probable ni imminent, d’autres mesures peuvent être mises en œuvre (voir A/74/486, paragraphes 13, 54). De même, le Comité des Nations Unies sur les droits de l’homme a déclaré : « D’une manière générale, l’utilisation de drapeaux ou de banderoles et le port d’uniformes ou d’autres signes doivent être perçus comme une forme d’expression légitime qu’il n’y a pas lieu de restreindre, même si ces symboles renvoient à un passé douloureux. Dans des cas exceptionnels, lorsque les symboles arborés sont directement et principalement associés à l’incitation à la discrimination, à l’hostilité ou à la violence, des restrictions appropriées devraient s’appliquer (Observation générale n° 37 sur le droit de réunion pacifique, CCPR/C/GC/37, paragraphe 51).
La majorité des membres du Conseil s’inquiète de l’ampleur excessive de l’interdiction de « références équivoques » incluse dans le Standard de la communauté sur les organisations et les personnes dangereuses. Alors que Meta prétend réduire les erreurs dans sa modération de contenu, tel qu’annoncé le 7 janvier, les membres de ce Conseil l’encouragent à examiner à quel point la règle concernant les « références équivoques » est appliquée de manière rigoureuse et précise, ainsi que la comptabilité des suppressions de publications au titre des responsabilités assumées par Meta en matière de droits humains.
Le Conseil a souvent utilisé le test à six facteurs du Plan d’action de Rabat pour évaluer si l’incitation à la violence ou à la discrimination est probable et imminente. La majorité a déterminé que ce n’est le cas dans aucune des deux publications. À ses yeux, la probabilité d’une discrimination ou d’une violence imminente sous l’influence du contenu est faible, et ceci pour différents motifs. Tel qu’indiqué précédemment, le contexte historique de l’apartheid en Afrique du Sud et son héritage, encore d’actualité, sont importants en vue d’interpréter ces publications. En même temps, la démocratie représentative relativement stable depuis la fin de l’apartheid et un solide cadre juridique de protection des droits humains revêtent aussi de l’importance, sachant notamment que ces publications ont vu le jour pendant la période électorale. Les experts consultés par le Conseil ont constaté que la rhétorique des suprémacistes blanc ne constituait pas un problème significatif pendant les élections de mai 2024. Ils ont indiqué que la période antérieure à ces élections n’avait pas été caractérisée par la violence interraciale ni par un quelconque appel à la violence de la part de la minorité blanche à l’encontre d’autres groupes raciaux ou ethniques. Les auteurs de ces publications ne jouissent d’aucun prestige et n’exercent aucune influence particulière, d’où un risque réduit que la publication encourage un quelconque acte imminent violent ou discriminant. Aucune de ces publications n’inclut d’appel à l’action. Les publications ne contiennent pas d’intention claire de défendre des actes de discrimination ou de violence et ne peuvent pas être interprétées comme un appel à commettre de tels actes. Au vu de ces différents facteurs, la majorité a déterminé qu’il n’était ni probable ni imminent que ces publications entraînent un quelconque type de violence ou de discrimination.
Ce n’est pas en interdisant les discours extrêmement offensants qui n’incitent pas à un préjudice imminent et probable que les idées intolérantes disparaîtront. En revanche, cette interdiction pourrait faire fuir les personnes qui défendent ce type d’idées vers d’autres plateformes, souvent fréquentées par des partisans des mêmes mouvances au lieu d’une audience plus variée. Cela exacerberait encore plus l’intolérance au lieu de favoriser les discours plus transparents et publics autour de ces enjeux.
La majorité des membres du Conseil estime qu’il existe des outils de modération de contenu différents de la suppression qui auraient pu être utilisés, en tant que moyens moins intrusifs de parvenir à des objectifs légitimes. Cette majorité reconnaît les conséquences émotionnelles négatives susceptibles d’être entraînées par le contenu, ainsi que la volonté légitime de prévention de la discrimination de Meta. Tel qu’indiqué dans l’un de ses premier avis ( Allégations sur un remède au COVID), l’entreprise devrait d’abord chercher à atteindre des objectifs légitimes en déployant des mesures qui ne portent pas atteinte à la liberté d’expression. Si ce n’est pas possible, l’entreprise doit retenir l’outil le moins intrusif pour atteindre l’objectif légitime. Elle doit ensuite contrôler l'efficacité de l'outil choisi. Meta doit utiliser ce cadre pour justifier publiquement de ses règles et de ses mesures de mise en application.
En effet, le Rapporteur spécial des Nations Unies sur la liberté d’expression a fait remarquer ( A/74/486, paragraphe 51) : « Les entreprises possèdent les outils pour traiter le contenu dans le respect des droits de l’homme, s’agissant à certains égards d’une gamme d’outils plus étendue que celle à la disposition des États. » Le Conseil invite Meta à envisager d’élargir ses outils de mise en application et d’introduire des mesures intermédiaires pour l’application de son Standard de la communauté en matière de conduite haineuse, plutôt que de se limiter au choix binaire de laisser en ligne ou de supprimer. Dans le cas Bot au Myanmar, le Conseil a estimé que « les responsabilités accrues ne devraient pas conduire à une suppression par défaut, car les enjeux sont de taille, que du contenu nuisible soit laissé en ligne ou que du contenu ne présentant peu ou pas de risque de préjudice soit supprimé. » Le Conseil enjoint Meta d’examiner la manière dont la suppression de contenu peut constituer une mesure trop extrême qui porte atteinte à la liberté d’expression en ligne. Il invite également l’entreprise à envisager de nouveaux outils comme la suppression du contenu dans les recommandations ou la réduction de sa diffusion dans le fil des utilisateurs, si les circonstances le justifient.
Une minorité de membres du Conseil estime que la suppression de ces deux publications constituerait une limitation nécessaire et proportionnée de la liberté d’expression en vue de garantir le respect du droit à l’égalité et la non-discrimination des Sud-africains non blancs. Cette minorité s’est basée sur les facteurs énoncés dans le Plan de Rabat pour évaluer les risques liés à un potentiel discours haineux, et notamment les préjudices auxquels ces publications ont contribué (op. cit).
Elle a particulièrement tenu compte des observations publiques de la Fondation Nelson Mandela et de la Commission sud-africaine des droits de l’homme, entre autres. Ces observations viennent confirmer les différentes manières dont l’expression sur les plateformes Meta, en soutenant, justifiant ou glorifiant la ségrégation d’une toute autre manière, contribue à ce que la discrimination persiste malgré la fin de l’apartheid (PC-30759 ; PC-30771 ; PC-30768 ; PC-30772 ; PC-30774). Révélateurs d’un sentiment de suprématie blanche enraciné dans le colonialisme, les commentaires sous chaque publication, majoritairement en Afrikaans, confirment selon cette minorité des membres du Conseil que la tentative de l’auteur de la publication de défendre la haine dans un contexte marqué par de graves discriminations a été couronnée de succès. Cette minorité fait remarquer que dans le cas Représentation de Zwarte Piet , la majorité des membres du Conseil avait confirmé la suppression d’une publication en raison de ses effets sur l’estime de soi et la santé mentale de la population noire, et notamment des effets involontairement provoqués par l’auteur de la publication. Ce cas est pertinent bien au-delà des frontières de l’Afrique du Sud. Les experts du Conseil consultés ont fait remarquer que les symboles de l’apartheid, dont le drapeau de la période allant de 1928 à 1994, ont été récupérés par des mouvements relevant du nationalisme blanc dans d’autres parties du monde. Et notamment par Dylann Roof, l’assassin de neuf membres d’une congrégation noire aux États-Unis en 2015. Sur une photo de Roof publiée sur son compte de réseau social, celui-ci arbore une veste avec un écusson représentant le drapeau de l’époque de l’apartheid (PC-30769).
En outre, une minorité des membres du Conseil rappelle que Meta, en tant qu’acteur privé, peut supprimer les discours haineux qui n’atteignent pas le seuil d’incitation à la discrimination ou à la violence imminente, lorsque cela répond aux exigences de nécessité et de proportionnalité de l’article 19 (3) du PIDCP (rapport A/HRC/38/35, paragraphe 28). Dans le cas Insultes en Afrique du Sud, le Conseil a confirmé la suppression par Meta d’une insulte raciste faisant largement référence aux particularités du contexte sud-africain. Pour une minorité des membres du Conseil ayant examiné ce cas, la suppression des deux publications est nécessaire afin d’empêcher la discrimination, et à plus forte raison, pour veiller à ce que l’accumulation de haine sur la plateforme n’entrave pas la liberté d’expression des personnes ciblées à plusieurs reprises par le discours haineux (voir également Représentation Zwarte Piet, Violences communautaires dans l’État indien de l’Odisha, Arméniens d’Azerbaïdjan et Dessins animés de Knin). Pour une minorité des membres du Conseil, les conséquences de la modération de contenu sur les droits humains (et tout particulièrement de la suppression de certains discours et l’imposition de limites ou la suspension pour cause d’infractions répétées) diffèrent considérablement de celles de l’application des lois en matière de discours haineux (comme les amendes ou les peines de prison). À ce titre, cette minorité estime nécessaire et proportionnée la suppression de ces deux publications en vertu de la règle en matière de conduite haineuse sur l’exclusion, ainsi que de l’interdiction de la « glorification » prévue dans le Standard de la communauté sur les organisations et les personnes dangereuses. Cette minorité fait remarquer qu’en vue de la mise en application à grande échelle pour les discours sociaux et politiques de cette exception liée aux organisations et aux personnes dangereuses, il convient de ne pas tomber dans l’écueil d’une application excessive.
Diligence raisonnable en matière de droits de l’homme
Les principes 13, 17 (c) et 18 des PDNU exigent de Meta qu’elle fasse preuve de diligence raisonnable en matière de droits humains lorsqu’elle apporte des modifications significatives à ses politiques et à leur application. Pour ce faire, l’entreprise fait généralement appel à son forum de politique des produits, qui implique notamment les parties prenantes concernées. Le Conseil est préoccupé par le fait que les changements de politique et d’application ont été annoncés par Meta de manière précipitée le 7 janvier 2025, contrairement à la procédure habituelle, sans qu’aucune information publique n’ait été communiquée quant à la diligence raisonnable préalable en matière de droits humains, si tant est qu’il y en ait eu une.
Vu que ces modifications sont désormais déployées au niveau international, il est crucial que Meta veille à identifier, à atténuer et à prévenir les répercussions négatives de ces modifications sur les droits humains, sans oublier de les signaler publiquement. Il faudrait notamment examiner les différents effets susceptibles d’affecter les communautés, et notamment les régions de ladite « majorité planétaire ». En ce qui concerne les changements en matière de mise en application, la diligence raisonnable doit également tenir compte de deux éventualités : l’application excessive (Appel à la manifestation des femmes à Cuba, Réappropriation de mots arabes) et l’application insuffisante (Négationnisme, Violence homophobe en Afrique de l’Ouest, Publication en polonais ciblant les personnes trans) des règles.
Le Conseil fait remarquer que bon nombre de ces changements sont en cours de lancement dans le monde entier, y compris dans des pays de la « majorité planétaire » comme l’Afrique du Sud et d’autres pays marqués par une histoire récente de crimes contre l’humanité, non limitée à l’apartheid. Il est crucial que Meta veille dès que possible à identifier, à atténuer et à prévenir les répercussions négatives de ces modifications sur les droits humains dans ces régions, sans oublier de les signaler publiquement, y compris en interagissant activement avec les parties prenantes locales. Le Conseil note qu’en 2018, Meta a fait état d’un défaut de suppression de discours haineux sur Facebook pendant une situation de crise comme celle du Myanmar, en tant que motif pour augmenter le recours à la mise en application automatisée. Dans de nombreuses régions du monde, les utilisateurs sont moins susceptibles d’interagir avec les outils de signalement dans l’application de Meta, et ceci pour différentes raisons. En conséquence, les signalements d’utilisateurs constituent un système peu fiable pour connaître les endroits dans lesquels les pires préjudices pourraient se produire. Il est donc indispensable que Meta envisage de manière exhaustive les effets inégaux d’une modification de la détection automatique du contenu potentiellement en infraction, aussi bien du point de vue de l’excès de mise en application que du défaut de celle-ci, tout particulièrement dans les pays traversant ou sortant de crises, de guerres ou frappés par des crimes atroces.
6. La décision du Conseil de surveillance
Le Conseil de surveillance confirme les décisions de Meta de laisser les deux contenus en ligne.
7. Recommandations
Politique de contenu
1. Dans le cadre de sa diligence raisonnable en matière de droits humains, Meta devrait prendre toutes les mesures suivantes en ce qui concerne les mises à jour du 7 janvier du Standard de la communauté en matière de conduite haineuse. Premièrement, Meta devrait déterminer dans quelle mesure les mises à jour de la politique et de sa mise en application peuvent avoir un impact négatif sur les populations des régions de la « majorité planétaire ». Deuxièmement, Meta devrait prendre des mesures pour prévenir et/ou limiter ces risques et contrôler leur efficacité. Troisièmement, Meta devrait faire état de ses progrès et enseignements auprès du Conseil tous les six mois et rédiger des rapports publics à ce sujet le plus tôt possible.
Le Conseil estimera que cette recommandation aura été suivie quand Meta lui fournira des données et une analyse solides sur l’efficacité de ses mesures de prévention ou d’atténuation selon la fréquence décrite ci-dessus et lorsqu’elle en rendra compte publiquement.
2. Pour clarifier le Standard de la communauté sur les organisations et les personnes dangereuses, Meta devrait adopter une seule explication claire et exhaustive de la manière dont ses interdictions et exceptions en vertu de ce Standard de la communauté s’appliquent aux idéologies haineuses désignées.
Le Conseil considérera que cette recommandation a été appliquée lorsque Meta aura mis en place une seule explication claire et exhaustive de ses règles et exceptions en ce qui concerne les idéologies haineuses (dans la section « nous supprimons »).
3. Pour plus de clarté dans son Standard de la communauté sur les organisations et les personnes dangereuses, Meta devrait répertorier l’apartheid en tant qu’idéologie haineuse désignée à part entière.
Le Conseil considérera que cette recommandation a été appliquée lorsque Meta aura ajouté l’apartheid à sa liste des idéologies haineuses désignées.
Mise en application
4. Pour rendre son Standard de la communauté sur les organisations et les personnes dangereuses plus clair pour les équipes d’examen, Meta devrait leur fournir des exemples plus généraux de glorification, de soutien et de représentation interdites des idéologies haineuses, et notamment des exemples dans lesquels l’idéologie répertoriée par Meta n’est pas directement nommée dans la publication.
Le Conseil considérera que cette recommandation a été appliquée lorsque Meta aura offert au Conseil des conseils internes mis à jour avec des exemples plus généraux, dans lesquels l’idéologie répertoriée par Meta n’est pas directement nommée dans la publication.
*Note de procédure :
- Les décisions du Conseil de surveillance sont prises par des panels de cinq membres et approuvées par une majorité du Conseil dans son ensemble. Les décisions du Conseil ne représentent pas nécessairement les opinions de tous les membres.
- En vertu de sa Charte, le Conseil de surveillance est habilité à examiner les appels déposés par les utilisateurs dont le contenu a été supprimé par Meta, les appels déposés par les utilisateurs ayant signalé un contenu que Meta n’a finalement pas supprimé, et les décisions que Meta lui transmet (article 2, section 1 de la Charte). Le Conseil dispose d’une autorité contraignante pour confirmer ou annuler les décisions de Meta relatives au contenu (article 3, section 5 de la Charte ; article 4 de la Charte). Le Conseil est habilité à émettre des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; Article 4). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
- Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie.
Retour aux décisions de cas et aux avis consultatifs politiques