Renversé
Discours d’un général brésilien
Le Conseil de surveillance annule la décision initiale de Meta de laisser en ligne une vidéo de Facebook montrant un général brésilien appelant le peuple à « go to the National Congress and the Supreme Court » (se rendre au Congrès national et à la Cour suprême).
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser en ligne une vidéo de Facebook montrant un général brésilien appelant le peuple à « hit the streets, » (descendre dans la rue) et à « go to the National Congress and the Supreme Court » (se rendre au Congrès national et à la Cour suprême). Bien que le Conseil reconnaisse que Meta a mis en place plusieurs mesures d’évaluation et d’atténuation des risques pendant et après les élections, étant donné le risque potentiel que ses plateformes soient utilisées pour encourager la violence dans le contexte des élections, Meta devrait continuellement accroître ses efforts pour prévenir, atténuer et résoudre les conséquences négatives. Le Conseil recommande à Meta d’élaborer un cadre d’évaluation de ses efforts en matière d’intégrité des élections afin d’éviter que ses plateformes ne soient utilisées pour promouvoir la violence politique.
À propos du cas
Les élections présidentielles brésiliennes d’octobre 2022 ont été très controversées, avec des réclamations en ligne et hors ligne, nombreuses et coordonnées, remettant en cause la légitimité des élections. Elles ont notamment appelé à une intervention militaire et à l’invasion des bâtiments gouvernementaux afin d’empêcher la transition vers un nouveau gouvernement. Le risque accru de violence politique n’a pas diminué avec l’entrée en fonction du nouveau président Luiz Inácio Lula da Silva le 1er janvier 2023, car les troubles civils, les manifestations et les campements devant les bases militaires se poursuivent.
Deux jours plus tard, le 3 janvier 2023, un utilisateur de Facebook a publié une vidéo relative aux élections brésiliennes de 2022. La légende en portugais comprend un appel à « besiege » (assiéger) le Congrès brésilien comme « the last alternative » (dernière solution). La vidéo montre également une partie d’un discours prononcé par un éminent général brésilien qui soutient la réélection de l’ancien président Jair Bolsonaro. Dans la vidéo, le général en uniforme appelle le peuple à « hit the streets » (descendre dans la rue) et à « go to the National Congress … [and the] Supreme Court » (se rendre au Congrès national ... [et à la] Cour suprême). Une séquence d’images, notamment celle d’un incendie faisant rage sur la Place des Trois Pouvoirs à Brasilia, où se trouvent les bureaux présidentiels, le Congrès et la Cour suprême du Brésil. Le texte de l’image, en portugais, était le suivant : Come to Brasília! Let’s Storm it! Let’s besiege the three powers. » (Venez à Brasilia ! Place à l’attaque ! Assiégeons les trois pouvoirs). Un texte superposé à une autre image indique « we demand the source code » (nous exigeons le code source), un slogan que les manifestants ont utilisé pour mettre en doute la fiabilité des machines à voter électroniques brésiliennes.
Le jour où le contenu a été publié, un utilisateur l’a signalé pour infraction du Standard de la communauté de Meta relatif à la violence et à l’incitation, qui interdit les appels à l’entrée par la force dans des lieux à haut risque. Au total, quatre utilisateurs ont signalé le contenu sept fois entre le 3 et le 4 janvier. À la suite du premier signalement, le contenu a été examiné par un examinateur de contenu qui a estimé qu’il n’enfreignait pas les politiques de Meta. L’utilisateur a fait appel de la décision, mais celle-ci a été confirmée par un second examinateur de contenu. Le lendemain, les six autres signalements ont été examinés par cinq modérateurs différents, qui ont tous conclu que le contenu n’enfreignait pas les politiques de Meta.
Le 8 janvier, des soutiens de l’ancien président Bolsonaro ont fait irruption au Congrès national, à la Cour suprême et dans les bureaux de la présidence situés sur la Place des Trois Pouvoirs à Brasília, se confrontant à la police et détruisant des biens. Le 9 janvier, Meta a déclaré que les émeutes du 8 janvier constituaient un « événement en infraction » au titre de sa politique relative aux personnes et organisations dangereuses et a indiqué qu’elle supprimerait « le contenu qui soutient ou fait l’éloge de ces actions ». L’entreprise a également annoncé qu’elle avait « désigné le Brésil comme lieu à haut risque temporaire » et qu’elle avait « supprimé les contenus appelant à prendre les armes ou à envahir par la force le Congrès, le palais présidentiel et d’autres bâtiments fédéraux ».
À la suite de la sélection de ce cas par le Conseil, Meta a déterminé que ses décisions successives de laisser le contenu sur Facebook étaient une erreur. Le 20 janvier 2023, après que le Conseil a présélectionné ce cas, Meta a supprimé le contenu.
Principales observations
Ce cas soulève des inquiétudes quant à l’efficacité des efforts de Meta en matière d’intégrité des élections dans le contexte des élections générales de 2022 au Brésil, et ailleurs. Bien que la contestation de l’intégrité des élections soit généralement considérée comme un discours protégé, dans certaines circonstances, des affirmations répandues visant à saper les élections peuvent conduire à la violence. Dans ce cas, l’intention de l’auteur, le contenu du discours et sa portée, ainsi que la probabilité d’un préjudice imminent dans le contexte politique du Brésil à l’époque, justifiaient tous la suppression de la publication.
Pour qu’une publication enfreigne les règles de Meta relatives à l’appel à l’entrée par la force dans des lieux à haut risque, le lieu doit être considéré comme « à haut risque » et se situer dans une zone ou un voisinage désigné séparément comme « lieu à haut risque temporaire ». Le message étant un appel sans ambiguïté à pénétrer par la force dans les bâtiments gouvernementaux situés sur la Place des Trois Pouvoirs à Brasília (« lieux à haut risque » situés dans un « lieu à haut risque temporaire », le Brésil), la décision initiale de Meta de laisser ce contenu affiché pendant une période de violence politique accrue représentait un écart manifeste par rapport à ses propres règles.
Le Conseil est profondément préoccupé par le fait que, malgré les troubles civils au Brésil au moment où le contenu a été publié et la prolifération généralisée de contenus similaires dans les semaines et les mois précédant les émeutes du 8 janvier, les modérateurs de contenu de Meta ont à plusieurs reprises considéré ce contenu comme n’étant pas en infraction et ne l’ont pas soumis à un examen plus approfondi. En outre, lorsque le Conseil a demandé à Meta des informations sur les réclamations spécifiques liées aux élections sur ses plateformes avant, pendant et après les élections brésiliennes, l’entreprise a expliqué qu’elle ne disposait pas de données sur la prévalence de ces réclamations. Le contenu en question a finalement été supprimé plus de deux semaines plus tard, alors que l’acte d’infraction qu’il appelait s’était déjà produit, et seulement après que le Conseil a porté le cas à l’attention de Meta.
En réponse à une question du Conseil, Meta a déclaré qu’elle n’adoptait pas de paramètres particuliers pour mesurer la réussite de ses efforts en matière d’intégrité des élections en général. Par conséquent, le Conseil estime que Meta devrait développer un cadre pour évaluer les efforts de l’entreprise en matière d’intégrité des élections et pour rendre compte au public sur ce sujet. L’objectif est de fournir à l’entreprise des données pertinentes pour améliorer son système de modération de contenu dans son ensemble et pour décider de la meilleure façon d’utiliser ses ressources dans les contextes électoraux. Sans ce type d’informations, ni le Conseil ni le public ne peuvent évaluer l’efficacité des efforts déployés par Meta en matière d’intégrité des élections plus globalement.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser la publication sur la plateforme.
Le Conseil recommande également à Meta les actions suivantes :
- Élaborer un cadre pour l’évaluation de ses efforts en matière d’intégrité des élections. Il s’agit notamment de créer et de partager des indicateurs de réussite en matière d’intégrité des élections, y compris en ce qui concerne l’application par Meta de ses politiques de contenu et de son approche vis à vis des publicités.
- Préciser dans son Espace modération qu’en plus du protocole de politique de crise, l’entreprise applique d’autres protocoles pour tenter de prévenir et de traiter les risques potentiels de préjudices survenant dans des contextes électoraux ou d’autres événements à haut risque.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision initiale de Meta de laisser en ligne une vidéo de Facebook montrant un général brésilien appelant le peuple à « hit the streets, » (descendre dans la rue) et à « go to the National Congress and the Supreme Court » (se rendre au Congrès national et à la Cour suprême). Ces appels ont été suivis d’une image de la Place des Trois Pouvoirs à Brasília, où se trouvent ces bâtiments gouvernementaux, en feu, avec le texte suivant en superposition : « Come to Brasília! Let’s Storm it! Let’s besiege the three powers. » (Venez à Brasilia ! Place à l’attaque ! Assiégeons les trois pouvoirs). Le Conseil estime que ces déclarations constituent des appels clairs et sans équivoque à envahir et à prendre le contrôle de ces bâtiments dans le contexte où les soutiens de Bolsonaro contestent les résultats des élections et appellent à une intervention militaire pour arrêter le cours d’une transition gouvernementale. Après que le Conseil a sélectionné cette publication pour examen, Meta est revenu sur sa décision initiale et l’a retirée de Facebook.
Le cas soulève des questions plus générales sur l’efficacité des efforts de Meta en matière d’intégrité des élections dans le contexte des élections générales de 2022 au Brésil, et ailleurs. La contestation de l’intégrité des élections est généralement considérée comme un discours protégé, mais dans certaines circonstances, les revendications généralisées en ligne et hors ligne visant à saper les élections, comme dans le cas présent, peuvent conduire à des violences hors ligne. Au Brésil, tous les signaux d’alarme étaient présents pour annoncer une telle violence. Bien que le Conseil reconnaisse que Meta a mis en place plusieurs mesures d’évaluation et d’atténuation des risques pendant et après les élections, étant donné le risque potentiel que ses plateformes soient utilisées pour encourager la violence dans le contexte des élections, Meta devrait continuellement accroître ses efforts pour prévenir, atténuer et résoudre les conséquences négatives. La phase post-électorale devrait être couverte par les efforts de Meta en matière d’intégrité des élections afin de faire face au risque de violence dans un contexte de transition du pouvoir.
Le Conseil recommande donc à Meta d’élaborer un cadre d’évaluation des efforts déployés par l’entreprise en matière d’intégrité des élections et d’établir un rapport public sur le sujet. Un tel cadre devrait inclure des mesures de réussite sur les aspects les plus pertinents des efforts de Meta en matière d’intégrité des élections, permettant à l’entreprise non seulement d’identifier et d’inverser les erreurs, mais aussi de suivre l’efficacité de ses mesures dans les situations critiques. Le Conseil recommande également à Meta de clarifier les différents protocoles et mesures qu’elle a mis en place pour prévenir et traiter les risques potentiels de préjudice dans les contextes électoraux et autres événements à haut risque. Il s’agit notamment de nommer et de décrire ces protocoles, leur objectif, les points de contact entre eux et la manière dont ils diffèrent les uns des autres. Ces protocoles doivent être plus efficaces, disposer d’une chaîne de commandement claire et être dotés d’un personnel suffisant, en particulier lorsqu’ils sont appliqués dans un contexte d’élections présentant un risque accru de violence politique. Ces recommandations contribueraient à améliorer le système de modération de contenu de l’entreprise dans son ensemble en plaçant Meta dans une meilleure position pour empêcher que ses plateformes ne soient utilisées pour promouvoir la violence politique et pour améliorer ses réponses à la violence liée aux élections de manière plus générale.
2. Description du cas et contexte
Le 3 janvier 2023, un utilisateur de Facebook a publié une vidéo relative aux élections brésiliennes de 2022. La légende en portugais comprend un appel à « besiege » (assiéger) le Congrès brésilien comme « the last alternative » (dernière solution). La vidéo de 1 minute et 32 secondes montre une partie d’un discours prononcé par un éminent général brésilien qui soutient la réélection de l’ancien président Jair Bolsonaro. Dans la vidéo, le général en uniforme appelle le peuple à « hit the streets » (descendre dans la rue) et à « go to the National Congress … [and the] Supreme Court » (se rendre au Congrès national ... [et à la] Cour suprême). Une séquence d’images, notamment celle d’un incendie faisant rage sur la Place des Trois Pouvoirs à Brasilia, où se trouvent les bureaux présidentiels, le Congrès et la Cour suprême du Brésil. Le texte de l’image, en portugais, était le suivant : Come to Brasília! Let’s Storm it! Let’s besiege the three powers. » (Venez à Brasilia ! Place à l’attaque ! Assiégeons les trois pouvoirs). Un texte superposé à une autre image indique « we demand the source code » (nous exigeons le code source), un slogan que les manifestants ont utilisé pour mettre en doute la fiabilité des machines à voter électroniques brésiliennes. La vidéo a été vue plus de 18 000 fois et n’a pas été partagée.
Deux jours avant la publication du contenu, l’opposant électoral de Bolsonaro, Luiz Inácio Lula da Silva, avait été investi président du Brésil après avoir remporté le second tour de l’élection présidentielle le 30 octobre 2022 avec 50,9 % des voix. Les périodes avant, entre et après les deux tours de scrutin ont été marquées par un risque accru de violence politique, stimulé par des affirmations de fraude électorale imminente. Cette décision était fondée sur la vulnérabilité présumée des machines de vote électronique brésiliennes au piratage. Avant l’élection, le président de l’époque, J. Bolsonaro, a alimenté la méfiance à l’égard du système électoral, alléguant des fraudes sans preuve à l’appui et affirmant que les machines à voter électroniques n’étaient pas fiables. Certains responsables militaires ont fait écho à des allégations similaires de fraude électorale et se sont prononcés en faveur du recours à l’armée en tant qu’arbitre dans les litiges électoraux. Plusieurs cas de publicités politiques attaquant la légitimité des élections sur les plateformes de Meta ont été signalés. Il s’agissait notamment de publications et de vidéos attaquant les autorités judiciaires et encourageant un coup d’État militaire. En outre, Global Witness a publié un rapport sur le Brésil décrivant comment des publicités politiques violant les Standards de la communauté ont été approuvées par l’entreprise et diffusées sur les plateformes de Meta. Les résultats ont suivi des rapports similaires de l’organisation concernant d’autres pays tels que le Myanmar et le Kenya.
La période post-électorale a été marquée par des troubles civils, notamment des manifestations, des barrages routiers et l’installation de campements devant des bases militaires pour demander aux forces armées d’annuler les résultats des élections. Selon les spécialistes consultés par le Conseil, la vidéo en question est apparue en ligne pour la première fois en octobre 2022, peu après que les résultats électoraux ont été connus ; un contenu similaire est resté sur différentes plateformes de réseaux sociaux jusqu’aux émeutes du 8 janvier. Le 12 décembre 2022, le jour même où la victoire de Lula a été confirmée par le Tribunal supérieur électoral, un groupe de manifestants pro-Bolsonaro a tenté de pénétrer dans le siège de la police fédérale à Brasília. Plusieurs actes de vandalisme ont été commis. Le 24 décembre 2022, un attentat à la bombe a été commis près de l’aéroport international de Brasília. L’homme responsable de l’attaque a été arrêté et a avoué que son but était d’attirer l’attention sur leur cause favorable au coup d’État.
Le risque accru de violence politique au Brésil ne s’est pas atténué avec l’entrée en fonction du nouveau président élu le 1er janvier 2023. D’après les recherches commandées par le Conseil, les fausses allégations concernant les machines à voter ont atteint un niveau record sur les plateformes Meta après les premier et second tours de scrutin, puis dans les semaines qui ont suivi la victoire de Lula. En outre, dans les jours précédant le 8 janvier, les soutiens de Bolsonaro ont utilisé plusieurs slogans codés pour promouvoir des manifestations à Brasília qui visaient spécifiquement les bâtiments gouvernementaux. La majeure partie de l’organisation logistique semble avoir été réalisée par le biais de canaux de communication autres que Facebook.
Les missions internationales d’observation des élections, telles que l’Organisation des États américains et le Carter Center, ont indiqué qu’il n’y avait pas de preuve substantielle de fraude et que les élections s’étaient déroulées de manière libre et équitable malgré les pressions exercées par un électorat très polarisé. Le ministère brésilien de la Défense a également officiellement observé l’élection et n’a signalé aucune preuve d’irrégularité ou de fraude, bien qu’il ait par la suite publié une déclaration contradictoire selon laquelle les forces armées « n’excluent pas la possibilité d’une fraude ». Au Brésil, le ministère de la Défense supervise le travail des forces armées.
Les tensions ont atteint leur paroxysme le 8 janvier, lorsque des soutiens de l’ancien président Bolsonaro ont fait irruption dans le Congrès national, la Cour suprême et les bureaux présidentiels situés sur la « Place des Trois Pouvoirs » à Brasília mentionnée dans le contenu du cas, se confrontant à la police et détruisant des biens. Environ 1 400 personnes ont été arrêtées pour avoir participé aux émeutes du 8 janvier, dont environ 600 sont toujours en détention.
À la suite des événements du 8 janvier, les Nations Unies ont condamné le recours à la violence, affirmant qu’il s’agissait de « l’aboutissement d’une distorsion constante des faits et d’une incitation à la violence et à la haine par des acteurs politiques, sociaux et économiques qui ont alimenté une atmosphère de méfiance, de division et de destruction en rejetant le résultat d’élections démocratiques ». L’organisation a réitéré son engagement et sa confiance dans les institutions démocratiques du Brésil. Les commentaires publics et les spécialistes consultés par le Conseil ont indiqué l’effet néfaste que les affirmations mettant en doute de manière préventive l’intégrité du système électoral brésilien ont eu sur la polarisation politique et la violence politique hors ligne (voir les commentaires publics du Dangerous Speech Project [PC-11010]), LARDEM - Clínica de Direitos Humanos da Pontifícia Universidade Católica do Paraná [PC-11011], Instituto Vero [PC-11015], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], Center for Democracy & Technology [PC-11018], InternetLab [PC-11019], et Coalizão Direitos na Rede [PC-11020]).
Le 9 janvier 2023, Meta a déclaré que les émeutes du 8 janvier constituaient un « événement en infraction » au titre de la politique relative aux personnes et organisations dangereuses et a indiqué qu’elle supprimerait « le contenu qui soutient ou fait l’éloge de ces actions ». L’entreprise a également annoncé « qu’avant l’élection », elle avait « désigné le Brésil comme lieu à haut risque temporaire » et qu’elle avait « supprimé les contenus appelant à prendre les armes ou à envahir par la force le Congrès, le palais présidentiel et d’autres bâtiments fédéraux ».
Le 3 janvier, le jour même où le contenu a été publié, un utilisateur l’a signalé pour infraction au Standard de la communauté sur la violence et l’incitation de Meta, qui interdit « le recours à la force pour entrer dans des lieux … présentant des signaux temporaires de risque accru de violence hors ligne ». Au total, quatre utilisateurs ont signalé le contenu sept fois entre le 3 et le 4 janvier. À la suite du premier signalement, le contenu a été soumis à un modérateur et jugé conforme aux politiques de Meta. L’utilisateur a fait appel de la décision, mais cette dernière a été confirmée par un deuxième modérateur. Le lendemain, les six autres signalements ont été examinés par cinq modérateurs différents, qui ont tous conclu que le contenu n’enfreignait pas les politiques de Meta. Le contenu a été transmis à des spécialistes en la matière pour un examen complémentaire. En réponse à une question du Conseil, Meta a précisé que les 7 personnes qui ont examiné le contenu étaient basées en Europe. Selon Meta, ils parlaient tous couramment le portugais et possédaient l’expertise linguistique et culturelle nécessaire pour examiner le contenu brésilien.
À la suite de la sélection de ce cas par le Conseil, Meta a déterminé que ses décisions successives de laisser le contenu sur Facebook étaient une erreur. Le 20 janvier 2023, après que le Conseil a sélectionné le cas, Meta a supprimé le contenu, appliqué une pénalité au compte à l’origine de ce contenu et limité ses fonctionnalités pendant 24 heures, l’empêchant ainsi de créer un nouveau contenu au cours de cette période. Malgré l’action de Meta, le commentaire public du groupe de la société civile Ekō au Conseil et d’autres rapports ont souligné que des contenus similaires sont restés sur Facebook même après que ce cas a été porté à l’attention de Meta par le Conseil (PC-11000).
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil a le pouvoir d’examiner la décision de Meta à la suite d’un appel interjeté par la personne qui a précédemment signalé un contenu laissé sur la plateforme (article 2, section 1 de la Charte) ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte) ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît par la suite avoir commis une erreur, il réexamine la décision initiale afin de mieux comprendre les paramètres politiques et les processus de modération du contenu qui ont contribué à l’erreur. Le Conseil cherche ensuite à résoudre les problèmes qu’il identifie dans les politiques ou processus sous-jacents de Meta. Le Conseil a également l’intention de formuler des recommandations à l’intention de Meta afin d’améliorer la précision de l’application de la loi et de traiter les utilisateurs de manière équitable à l’avenir.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance :
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent :
- « Suspension de l’ancien président américain Trump » (Décision sur le cas 2021-001-FB-FBR) : Le Conseil a noté que, dans les contextes électoraux, les responsabilités de Meta en matière de droits de l’homme exigent de permettre l’expression politique tout en évitant les risques sérieux pour les autres droits de l’homme.
- « Bots au Myanmar » (décision sur le cas 2021-007-FB-UA) : Le Conseil a souligné l’importance de protéger le discours politique en période de crise politique.
- « Bureau des affaires de communication du Tigré » (décision sur le cas 2022-006-FB-MR) : Le Conseil a souligné la responsabilité de Meta dans la mise en place d’un système transparent et fondé sur des principes pour la modération des contenus dans les zones de conflit, afin d’atténuer les risques d’utilisation de ses plateformes pour inciter à la violence.
- « Dessin animé de Knin » (décision sur le cas 2022-001-FB-UA) : Le Conseil a demandé à Meta de clarifier davantage la manière dont le contenu est transmis aux spécialistes en la matière.
II.Règles de Meta relatives au contenu :
Standards de la communauté Violence et incitation
En vertu du Standard de la communauté relatif à la Violence et à l’incitation, Meta n’autorise pas tout contenu comportant des déclarations d’intention ou d’incitation, appels à l’action ou déclarations ambitionnant ou conditionnant le recours à la force pour entrer dans des lieux (comprenant, mais sans s’y limiter, des lieux de culte, des établissements scolaires, des bureaux de vote ou des emplacements dédiés au dépouillement ou à la gestion d’une élection) présentant des signaux temporaires de risque accru de violence hors ligne. » La justification de la Politique de ce Standard de la communauté est de « prévenir les préjudices hors ligne potentiels qui peuvent être liés au contenu » apparaissant sur les plateformes de Meta. Dans le même temps, Meta reconnaît que « les individus expriment communément leur dédain ou leur désaccord à travers des menaces ou des appels à la violence de manière non sérieuse. » Meta supprime donc les contenus lorsque l’entreprise estime qu’il existe « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique. » Pour déterminer si une menace est crédible, Meta prend également en compte « le langage et le contexte ».
L’analyse du Conseil s’est également appuyée sur l’engagement de Meta en faveur de la « liberté d’expression » que l’entreprise qualifie de « primordiale », et sur sa valeur de « sécurité ».
III. Responsabilités de Meta en matière de droits de l’homme
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU.
L’analyse du Conseil sur les responsabilités de Meta en matière de droits de l’homme en l’espèce s’est appuyée sur les standards internationaux suivants :
- Le droit à la liberté d’opinion et d’expression : articles 19 et 20 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; Document de recherche 1/2019 sur les élections à l’ère numérique (2019) : les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019) ; Plan d’action de Rabat, rapport du Haut Commissaire des Nations Unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013).
- Le droit de réunion pacifique : Article 21 du PIDCP ; l’observation générale n° 37, Comité des droits de l’homme, 2020.
- Le droit à la vie : Article 6 du PIDCP.
- Le droit de participer aux affaires publiques et le droit de vote : Article 25 du PIDCP.
5. Soumissions de l’utilisateur
Dans son appel au Conseil, l’utilisateur qui a signalé le contenu a déclaré qu’il « a déjà signalé cette vidéo et d’innombrables autres à Facebook et la réponse est toujours la même, à savoir qu’elle n’enfreint pas les Standards de la communauté ». L’utilisateur a également établi un lien entre le potentiel d’incitation à la violence du contenu et les actions entreprises par des personnes au Brésil « qui n’acceptent pas les résultats des élections ».
6. Soumissions de Meta
Lorsque le Conseil a porté ce cas à l’attention de Meta, l’entreprise a déterminé que sa décision initiale de laisser en ligne le contenu était incorrecte. Meta a fourni au Conseil une vaste analyse du contexte social et politique brésilien avant, pendant et après l’élection présidentielle pour justifier le retrait - bien que tardif - du contenu en l’espèce. Elle a ensuite fourni au Conseil des facteurs probables qui « ont pu contribuer » à l’erreur persistante dans l’application de la loi.
Meta a déclaré que « les multiples références au « besieging » (siège) de lieux à haut risque dans la légende et la vidéo n’atteignent pas indépendamment le niveau de « l’entrée par la force » selon la politique [sur la violence et l’incitation] ». Cependant, « la combinaison de l’appel à la population « Come to Brasília! Let’s Storm it! Let’s besiege the three powers » (Venez à Brasilia ! Place à l’attaque ! Assiégeons la Place des Trois Pouvoirs), avec l’image en fond de la Place des Trois Pouvoirs en feu montre clairement l’intention d’entrer par la force dans ces lieux importants ».
Selon Meta, le contenu ne remplissait pas les conditions requises pour bénéficier d’une marge de tolérance liée à la pertinence, même si l’entreprise reconnaît que ses plateformes sont « des lieux importants pour le discours politique, en particulier à l’occasion des élections ». Dans ce cas, la valeur d’intérêt public du contenu ne l’emportait pas sur le risque de préjudice, compte tenu de son « appel explicite à la violence » et du « risque accru de préjudice hors ligne à la suite de l’élection présidentielle brésilienne et de l’investiture de Lula ». Meta n’a trouvé aucun élément indiquant que le contenu avait été partagé pour condamner ou sensibiliser à l’appel à la violence. L’entreprise maintient que sa décision finale de supprimer le contenu est conforme à ses valeurs et aux normes internationales en matière de droits de l’homme.
Pour faire face aux élections et à d’autres situations de crise, Meta a mis en place plusieurs mesures d’évaluation et d’atténuation des risques qui sont gérées par différentes équipes et peuvent être appliquées simultanément ou indépendamment. Chacune d’entre elles comporte différents « paliers » ou « niveaux » d’intensité en fonction de l’évaluation respective du risque :
- La Politique de hiérarchisation des pays d’intégrité (ou système de hiérarchisation à risque), gérée par l’équipe produit au sein de Meta, fournit un cadre pour la hiérarchisation à long terme des investissements dans les ressources produit. Bien que Meta décrive ce processus comme étant peu réactif aux crises à court terme, elle évalue tous les pays deux fois par an pour détecter les risques/menaces émergents.
- Le Centre pour l’intégrité des opérations produits (IPOC) réunit une équipe interfonctionnelle de spécialistes en la matière issus de toute l’entreprise pour « répondre en temps réel aux problèmes et tendances potentiels ». Les IPOC sont mis en place pour évaluer rapidement un grand nombre de questions, identifier les risques et déterminer comment les traiter dans le contexte d’une crise ou d’une situation à haut risque. Les IPOC sont appelés centres d’opérations électorales lorsqu’ils sont spécifiquement axés sur les élections.
- Les centres d’opérations électorales offrent une « surveillance en temps réel des questions électorales clés, telles que les efforts visant à empêcher les individus de voter, l’augmentation des spams, l’ingérence étrangère potentielle ou les rapports de contenu qui enfreignent les politiques [de Meta] », et « surveillent la couverture médiatique et l’activité liée aux élections sur d’autres réseaux sociaux et dans les médias traditionnels ». Les centres fournissent à Meta une « vision collective et aident à suivre le type de contenu susceptible de devenir viral » afin « d’accélérer » le temps de réponse de l’entreprise à ces menaces. Une partie de la préparation du centre d’opérations électorales implique « une planification extensive de scénarios pour identifier les menaces potentielles, du harcèlement à la suppression d’électeurs, et développer à l’avance des systèmes et des procédures pour y répondre efficacement ».
- Enfin, le Protocole de politique de crise est le cadre adopté par Meta pour élaborer des réponses politiques spécifiques limitées dans le temps à une crise émergente. Meta a élaboré ce protocole en réponse à une recommandation du Conseil de surveillance dans le cas de la suspension de l’ancien président Trump. Dans le cadre de ce protocole, Meta établit trois catégories de crise, sur la base desquelles l’entreprise adopte un ensemble donné de mesures pour atténuer les risques. Une crise de catégorie 1 est, par exemple, déclenchée par « une activité accrue des forces de l’ordre ou de l’armée » ou par « une élection planifiée à haut risque ou un événement de point de départ ».
Le centre d’opérations électorales couvrant les élections générales brésiliennes de 2022 a fonctionné à plusieurs reprises entre septembre et novembre 2022, y compris lors des premier et second tours de l’élection. Cependant, il n’y avait pas de centre d’opérations électorales (ou IPOC) en place au moment où le contenu a été mis en ligne le 3 janvier 2023. Meta a désigné les « troubles post-électoraux » comme une crise dans le cadre du Protocole de politique de crise afin d’aider l’entreprise à évaluer la meilleure façon d’atténuer les risques liés au contenu.
En réponse à une question du Conseil concernant les tendances numériques sur les plateformes de Meta avant, pendant et après les élections brésiliennes, l’entreprise a déclaré que dans le cadre de son « travail de préparation et de réponse aux élections, un certain nombre d’équipes ont identifié les tendances de contenu liées aux élections et les ont incorporées dans [leur] stratégie d’atténuation des risques ». Il s’agit notamment des éléments suivants : « (i) les risques associés à l’incitation ou à la diffusion de menaces de violence ; (ii) les fausses informations ; et (iii) l’intégrité commerciale, qui comprend les risques associés à l’abus potentiel de publicité avec du contenu préjudiciable, etc. ou les tentatives de mener des campagnes de manière à manipuler ou à corrompre le débat public ». Meta a déclaré que « les résultats, parmi d’autres facteurs, ont contribué à informer un certain nombre de produits et de politiques d’atténuation ». Cependant, Meta ne dispose pas de « données de prévalence » sur des revendications spécifiques (par exemple, fraude électorale, appels à se rendre à Brasilia ou à envahir par la force les bâtiments du gouvernement fédéral, appels à une intervention militaire), car en général, les systèmes d’application de la loi de l’entreprise « sont configurés pour surveiller et suivre en fonction des politiques qu’ils enfreignent ».
Le Conseil a posé 15 questions écrites à Meta, dont 5 à la suite d’un exposé oral sur le fonctionnement des centres d’opérations électorales. Les questions portaient sur les leviers politiques disponibles pour traiter les comportements coordonnés sur les plateformes de Meta ; les risques identifiés avant les élections brésiliennes de 2022 ; la relation entre le centre d’opérations électorales pour les élections brésiliennes et le protocole de politique de crise ; la manière dont Meta établit la distinction entre l’organisation politique légitime et l’action coordonnée nuisible ; les tendances numériques sur les plateformes de Meta au Brésil avant, pendant et après les élections ; et les capacités linguistiques des modérateurs de contenu qui ont examiné le contenu du cas.
Meta a répondu à 13 questions. Meta n’a pas répondu à deux questions, l’une concernant la relation entre la publicité politique et les fausses informations, et l’autre concernant le nombre de suppressions de pages et de comptes pendant que le centre d’opérations électorales pour les élections brésiliennes de 2022 était en place. Meta a également informé le Conseil que l’entreprise ne disposait pas de données plus générales sur la modération de contenu dans le contexte des élections brésiliennes de 2022 à partager avec le Conseil, en plus du nombre de suppressions de contenu qui a déjà été partagé publiquement. Meta a également expliqué que l’entreprise n’évalue pas ses performances dans le contexte des élections par rapport à un ensemble donné de paramètres de réussite et de critères de référence. Meta a souligné la nécessité d’établir des priorités en matière de ressources pour répondre aux questions du Conseil et a indiqué qu’il ne serait pas possible de fournir les données demandées dans le délai imparti pour statuer sur le cas.
7. Commentaires publics
Le Conseil de surveillance a reçu 18 commentaires publics pertinents pour ce cas. Onze des commentaires provenaient d’Amérique latine et des Caraïbes, trois des États-Unis et du Canada, deux du Moyen-Orient et de l’Afrique du Nord, un de l’Asie-Pacifique et de l’Océanie, et un de l’Asie centrale et du Sud. En outre, en février 2023, le Conseil a organisé une table ronde avec des parties prenantes du Brésil et d’Amérique latine sur le thème de la « modération du contenu et des transitions politiques ».
Les contributions ont porté sur les thèmes suivants : l’accumulation d’affirmations préjudiciables sur la fraude électorale et les appels à un coup d’État militaire sur les plateformes de réseaux sociaux avant, pendant et après les élections brésiliennes de 2022 ; les fausses informations liées aux élections ; Les efforts de Meta en matière d’intégrité des élections ; La responsabilité de Meta de protéger les droits des utilisateurs dans le contexte d’une transition démocratique du pouvoir ; la relation entre le négationnisme électoral et la violence politique ; et l’importance de la familiarité des équipes d’examen de contenu avec le contexte politique local.
Pour lire les commentaires publics soumis dans le cadre de cette affaire, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné si ce contenu devait être supprimé en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits de l’homme et ses valeurs. Ce cas a été choisi parce qu’il permet au Conseil d’évaluer comment Meta distingue l’organisation pacifique sur ses plateformes de l’incitation ou de la coordination d’actions violentes, en particulier dans un contexte de transition de pouvoir. En outre, ce cas permet au Conseil d’examiner les efforts de Meta en matière d’intégrité des élections de manière plus générale, et plus particulièrement au Brésil, étant donné que les périodes post-électorales sont des moments cruciaux pour contester l’intégrité d’une élection et pour garantir que les résultats électoraux légitimes sont respectés. Par conséquent, le Conseil estime que les efforts de Meta en matière d’intégrité des élections doivent couvrir à la fois le processus électoral lui-même et la période post-électorale, car cette dernière est également vulnérable à la manipulation, aux fausses informations liées aux élections et aux menaces de violence. Le cas s’inscrit dans le cadre de la priorité stratégique « élections et espace civique » du Conseil.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Violence et incitation
Le Conseil estime que le contenu de ce cas enfreint le Standard à la communauté relatif à la violence et à l’incitation, qui interdit les contenus appelant à l’entrée par la force dans certains lieux à haut risque. Le Conseil estime que si la valeur de « liberté d’expression » de Meta est particulièrement pertinente dans les processus électoraux, y compris la période post-électorale, la suppression du contenu est nécessaire en l’espèce pour promouvoir la valeur de « sécurité » de Meta.
Afin d’enfreindre la ligne de conduite contre les appels à l’entrée par la force dans les lieux à haut risque, deux désignations de « haut risque » sont nécessaires. Premièrement, le lieu doit être considéré comme « à haut risque » et, deuxièmement, il doit être situé dans une zone ou un voisinage désigné séparément comme un lieu à haut risque temporaire. Les instructions spécifiques de Meta aux équipes d’examen de contenu sont de « supprimer les appels à l’action, les déclarations d’intention, les déclarations de promotion et les déclarations d’aspiration à pénétrer de force dans des lieux à haut risque à l’intérieur d’un lieu à haut risque temporaire ».
Meta définit un « lieu à haut risque » comme un « lieu, permanent ou temporaire, considéré comme à haut risque en raison de sa probabilité d’être la cible de violences ». Les lieux permanents à haut risque comprennent « les lieux de travail ou de résidence des personnes à haut risque ou de leur famille (par exemple, le siège d’un organe de presse, les centres médicaux, les laboratoires, les commissariats de police, les bureaux du gouvernement, etc.) ; les installations utilisées pendant les élections locales, régionales et nationales comme centre d’inscription des électeurs, lieu de vote, lieu de dépouillement (par exemple, une bibliothèque locale, un bâtiment gouvernemental, un centre communautaire ou civique, etc. » Selon Meta, le Congrès brésilien, la Cour suprême et les bureaux présidentiels sont tous des « lieux à haut risque » permanents du fait qu’ils sont des lieux de travail ou de résidence de personnes à haut risque ou de leurs familles ».
La désignation supplémentaire de « lieu à haut risque temporaire » de la zone élargie ou du voisinage couvre tout « lieu désigné temporairement par [Meta comme tel] pour une période limitée dans le temps ». Un lieu est désigné comme lieu à haut risque temporaire sur la base de nombreux facteurs, notamment « si des violences de grande ampleur se sont produites lors d’une manifestation dans ce lieu au cours des 7 derniers jours » ; « des preuves d’un risque accru de violence associé à des troubles civils ou à une décision de justice litigieuse dans ce lieu » ; « une évaluation des forces de l’ordre, des rapports de sécurité internes ou d’un partenaire de confiance indiquant qu’une violence imminente est susceptible de se produire dans ce lieu » ; « des preuves d’une manifestation planifiée ou active dans le lieu ou d’une manifestation planifiée ou active dans le lieu où l’organisateur a demandé que des armes soient utilisées ou apportées dans le lieu de la manifestation ; et « une évaluation par les équipes internes que les préoccupations en matière de sécurité l’emportent sur l’impact potentiel sur l’expression de l’autodéfense et de l’autodétermination. » Une fois qu’un lieu à haut risque temporaire est désigné, la désignation est communiquée aux équipes internes de Meta. Bien que ces désignations soient limitées dans le temps, l’entreprise accorde parfois des prolongations. Selon Meta, la désignation d’un lieu à haut risque temporaire entraîne un examen proactif du contenu « avant que les utilisateurs ne le signalent ».
Pour les élections de 2022, Meta a désigné l’ensemble du Brésil comme un lieu à haut risque temporaire. La désignation a été initialement établie le 1er septembre 2022 sur la base de l’évaluation par Meta d’un risque accru de violence associé aux troubles civils et électoraux en cours. La désignation a été étendue pour couvrir l’élection d’octobre 2022 et ses suites, jusqu’au 22 février 2023. La désignation était en place au moment où le contenu du cas a été publié.
Selon Meta, les deux désignations doivent être présentes pour qu’un contenu enfreigne la politique, ce qui était le cas pour la publication analysée. Selon Meta, cette double exigence permet de s’assurer que les appels à la protestation ne sont pas largement réprimés et que seuls les contenus susceptibles d’entraîner des violences seront supprimés.
Compte tenu de ce qui précède, le Conseil considère que les décisions initiales de Meta selon lesquelles le contenu devait rester sur la plateforme pendant une période de risque accru de violence politique s’écartent clairement de ses propres standards, car il constitue un appel sans équivoque à pénétrer par la force dans des bâtiments gouvernementaux situés sur la Place des Trois Pouvoirs à Brasília, qui sont des « lieux à haut risque » situés dans un « lieu à haut risque temporaire », le Brésil.
II. Mesures de mise en application
Selon Meta, sept modérateurs possédant l’expertise linguistique et culturelle nécessaire ont examiné le contenu. Meta ne demande pas aux équipes d’examen à l’échelle d’enregistrer les raisons de leurs décisions. Lorsque le Conseil a choisi ce cas, les équipes internes de Meta ont effectué une analyse qui a conclu que trois facteurs probables « ont pu contribuer » à l’erreur persistante dans l’application de la loi : (1) les examinateurs ont peut-être mal compris l’intention de l’utilisateur (un appel à l’action), peut-être en raison d’un manque de ponctuation qui a conduit à une interprétation erronée du contenu comme un commentaire neutre sur l’évènement ; ou (2) les examinateurs ont pris une mauvaise décision malgré les règles correctes en place en raison de multiples mises à jour concernant le traitement du contenu lié à des évènements à haut risque provenant de diverses sources ; ou (3) les équipes d’examen n’ont peut-être pas vu l’infraction dans la vidéo.
Les facteurs 1 et 3 suggèrent que les modérateurs n’ont pas examiné ce contenu avec soin ni regardé la vidéo dans son intégralité, car l’infraction potentielle des politiques de Meta qu’elle contenait était évidente. Cependant, Meta n’explique pas pourquoi le contenu n’a pas été transmis à des spécialistes en la matière et à des spécialistes politiques pour une analyse plus approfondie. Le contenu n’a pas fait l’objet d’une procédure de remontée bien qu’il provienne d’un pays qui, au moment où le contenu a été publié et signalé, a été désigné comme « lieu à haut risque temporaire » en vertu d’une ligne de conduite qui n’est activée que lorsque cette désignation est en place. Le contenu n’a pas non plus fait l’objet d’une remontée malgré le contexte général en ligne et hors ligne au Brésil (voir section 2).
Meta a déjà informé le Conseil que les équipes d’examen de contenu ne sont pas toujours en mesure de regarder les vidéos dans leur intégralité. Néanmoins, dans les situations où le risque de violence est élevé et où des leviers politiques spécifiques ont été déclenchés, le Conseil s’attend à ce que les équipes d’examen de contenu reçoivent l’instruction de regarder les vidéos dans leur intégralité et de faire remonter les contenus potentiellement en infraction.
En ce qui concerne le facteur 2, bien que Meta ait indiqué qu’elle informe les équipes d’examen de contenu à l’échelle des désignations de lieux à haut risque temporaires, l’entreprise reconnaît qu’il existe des lacunes possibles dans la socialisation de cette mesure et d’autres mesures d’atténuation des risques spécifiques aux élections. La socialisation de ce type d’informations permet aux équipes d’examen de contenu de détecter, de supprimer ou de faire remonter les contenus problématiques tels que la vidéo dans ce cas. Le fait que différentes mesures d’évaluation et d’atténuation aient été mises en place au Brésil à l’époque indique qu’elles devraient probablement être mieux articulées et avoir une chaîne de commandement plus claire pour rendre les efforts de l’entreprise en matière d’intégrité des élections plus efficaces.
Malgré la décision finale de Meta de retirer le contenu, le Conseil est profondément préoccupé par le fait que, malgré les troubles civils au Brésil au moment où le contenu a été publié et la prolifération généralisée de contenus en ligne similaires des mois et des semaines avant les émeutes du 8 janvier, les modérateurs de contenu de Meta ont à plusieurs reprises considéré ce contenu comme n’étant pas en infraction et ne l’ont pas soumis à un examen plus approfondi en dépit des indices contextuels qu’il contenait. Ces préoccupations sont aggravées par le fait que lorsque le Conseil a demandé à Meta des informations sur des allégations spécifiques liées aux élections sur ses plateformes avant, pendant et après les élections brésiliennes, l’entreprise a expliqué qu’elle ne disposait pas de telles données de prévalence (voir section 6). Le contenu en question a finalement été supprimé plus de 2 semaines plus tard, après que l’acte d’infraction qu’il appelait s’était déjà produit, et seulement après que le Conseil a porté le cas à l’attention de Meta.
Meta a reconnu le risque accru de violence au Brésil, d’abord en adoptant diverses mesures d’évaluation des risques avant, pendant et après la publication du contenu, puis en s’adressant directement au Conseil lorsque l’entreprise a finalement décidé de supprimer le contenu. Pourtant, les équipes d’examen de l’entreprise n’ont pas réussi à faire respecter ses Standards de la communauté, en particulier la ligne de conduite du Standard de la communauté relatif à la violence et à l’incitation, déclenchée par la désignation d’un lieu à haut risque temporaire. Le fait que le contenu n’ait pas fait l’objet d’une procédure de remontée avant la sélection du Conseil, malgré la clarté de l’infraction potentielle, et qu’un contenu similaire circulait sur Facebook à l’époque (voir les sections 2 et 8.2), indique que les voies de remontée sont susceptibles d’être insuffisamment claires et efficaces (voir le cas du dessin animé de Knin). Il démontre également la nécessité pour Meta d’améliorer ses garanties en matière d’élections. Comme le Conseil l’a noté dans des décisions antérieures, il est indispensable que les équipes d’examen à l’échelle possèdent des connaissances linguistiques et contextuelles adéquates et qu’elles disposent des outils et des canaux nécessaires pour faire remonter les contenus susceptibles de constituer une infraction.
III. Transparence
Le Conseil reconnaît que Meta a déployé d’importants efforts pour préserver l’intégrité des élections brésiliennes de 2022. En août 2022, lorsque la campagne électorale a officiellement commencé, Meta a annoncé publiquement ses initiatives liées aux élections dans le pays. L’entreprise a collaboré avec le Tribunal supérieur électoral du Brésil pour ajouter une étiquette aux publications concernant les élections sur Facebook et Instagram, « renvoyant les utilisateurs à des informations fiables sur le site web de la justice électorale ». Selon Meta, le nombre de visites sur le site a été multiplié par dix. Ce partenariat a également permis à la Cour électorale supérieure de signaler directement à Meta tout contenu susceptible d’enfreindre la loi. Meta a organisé des sessions de formation pour les responsables électoraux dans tout le Brésil afin d’expliquer les Standards de la communauté de l’entreprise et la manière dont les informations erronées sur Facebook et Instagram sont traitées. Meta a également interdit la publicité payante « remettant en cause la légitimité des élections à venir ». En outre, l’entreprise a mis en place une limite de transfert WhatsApp, de sorte qu’un message ne peut être transféré qu’à un seul groupe WhatsApp à la fois. Enfin, Meta a indiqué le nombre de contenus supprimés en vertu de divers Standards de la communauté, tels que les politiques en matière de violence et d’incitation, de discours haineux, d’intimidation et de harcèlement, ainsi que le nombre total de clics sur les étiquettes électorales qui dirigeaient les utilisateurs vers des informations faisant autorité sur les élections brésiliennes.
Néanmoins, lorsque le conseil d’administration l’a interrogée sur ses efforts en matière d’intégrité des élections dans le contexte des élections brésiliennes de 2022, Meta a déclaré que l’entreprise n’adoptait pas de paramètres particuliers pour mesurer la réussite de ses efforts en matière d’intégrité des élections en général, au-delà de la communication de données sur les retraits de contenu, les vues et les clics sur les étiquettes électorales. Le Conseil note également que, d’après les informations fournies par Meta dans son Espace modération et les échanges avec le Conseil, la manière dont les différents protocoles et mesures d’évaluation des risques de l’entreprise fonctionnent (voir la section 6 ci-dessus), indépendamment ou en parallèle, n’est pas tout à fait claire. Meta devrait clarifier les points de contact entre ces différents protocoles, mieux expliquer en quoi ils diffèrent les uns des autres et comment ils affectent exactement l’application des politiques de contenu.
Un certain nombre de commentaires publics (Ekō [PC-11000], Dangerous Speech Project [PC-11010], ModeraLab [PC-11016], Campaign Legal Center [PC-11017], InternetLab [PC-11019] et Coalizão Direitos na Rede [PC-11020]) reçus par le Conseil indiquaient que les efforts de l’entreprise pour protéger les élections au Brésil n’étaient pas suffisants. Bien que le Conseil reconnaisse les défis inhérents à la modération des contenus à grande échelle, la responsabilité de Meta en matière de prévention, d’atténuation et de traitement des impacts négatifs sur les droits de l’homme est accrue dans les contextes électoraux et autres contextes à haut risque, et exige que l’entreprise établisse des garde-fous efficaces contre ces impacts. L’erreur commise dans ce cas ne semble pas être un incident isolé. Selon Ekō (PC-11000), des contenus similaires sont restés sur Facebook même après les émeutes du 8 janvier.
Une plus grande transparence est nécessaire pour évaluer si les mesures de Meta sont adéquates et suffisantes dans tous les contextes électoraux. Le manque de données à la disposition du Conseil a empêché ce dernier d’évaluer correctement si les erreurs d’application dans ce cas, et les préoccupations soulevées par différentes parties prenantes, sont révélatrices d’un problème systémique dans les politiques et les pratiques d’application de l’entreprise. Il a également compromis la capacité du Conseil à formuler des recommandations plus spécifiques à l’intention de Meta sur la manière d’améliorer ses efforts en matière d’intégrité des élections à l’échelle mondiale.
Les données actuellement divulguées par Meta, principalement sur les retraits de contenu, ne donnent pas une image complète du résultat des mesures d’intégrité des élections qu’elle met en place sur un marché donné. Par exemple, elles n’incluent pas la précision de l’application de politiques importantes dans les contextes électoraux, telles que le Standard de la communauté relatif à la violence et à l’incitation, ni le pourcentage de publicités politiques initialement approuvées par Meta, mais qui se sont ensuite révélées contraires à ses politiques. La réalisation d’un audit statistique avec de telles mesures permettrait à Meta non seulement d’inverser les erreurs, mais aussi de suivre l’efficacité de ses mesures lorsqu’il est de la plus haute importance de bien faire les choses.
Sans ce type d’informations, ni le Conseil ni le public ne peuvent évaluer l’efficacité des efforts déployés par Meta en matière d’intégrité des élections plus globalement. Cela est important si l’on considère que de nombreux incidents de violence politique résultent souvent de conflits liés aux élections ou sont intensifiés par ceux-ci, lorsque des contenus nuisibles sont restés en ligne pour précéder ou accompagner la violence hors ligne (voir « Bots aux Myanmar » (2021-007-FB-UA), « Bureau des affaires de communication du Tigré » (2022-006-FB-MR), et « Suspension de l’ancien président américain Trump » (2021-001-FB-FBR)).
Par conséquent, le Conseil estime que Meta devrait développer un cadre pour évaluer les efforts de l’entreprise en matière d’intégrité des élections et pour rendre compte au public sur ce sujet. L’objectif est de fournir à l’entreprise des données pertinentes pour améliorer son système de modération de contenu dans son ensemble et décider de la meilleure façon d’utiliser ses ressources dans les contextes électoraux. Il devrait également aider Meta à s’appuyer efficacement sur les connaissances locales et à identifier et à évaluer les campagnes coordonnées en ligne et hors ligne visant à perturber les processus démocratiques. En outre, ce cadre devrait être utile à Meta pour mettre en place des canaux de commentaires permanents et pour déterminer les mesures à adopter lorsque la violence politique persiste après la finalisation formelle des processus électoraux. Enfin, le Conseil note que, comme expliqué ci-dessus, l’articulation entre les différentes mesures et protocoles d’évaluation des risques de Meta, tels que les IPOC, la politique de hiérarchisation des pays en matière d’intégrité et le protocole de politique de crise (voir section 6 ci-dessus) dans les contextes électoraux, doit être revue et mieux expliquée au public.
8.2 Respect des responsabilités de Meta en matière des droits de l’homme
Liberté d’expression (article 19 du PIDCP)
Le droit à la liberté d’opinion et d’expression est un « pilier central des sociétés démocratiques et un garant de processus électoraux libres et équitables, et d’un discours public et politique significatif et représentatif » (Rapporteur spécial des Nations Unies sur la liberté d’expression, Document de recherche 1/2019, p. 2). L’article 19 du Pacte international relatif aux droits civils et politiques prévoit une large protection de l’expression, en particulier du discours politique. Lorsque des restrictions à l’expression sont imposées par un État, elles doivent répondre aux exigences de légalité, de légitimité, de nécessité et de proportionnalité (article 19, paragraphe 3, du Pacte international relatif aux droits civils et politiques). Ces exigences sont souvent reprises sous intitulé « test tripartite ». Le Conseil utilise ce cadre pour interpréter les engagements volontaires de Meta en matière de droits de l’homme.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles (Observation générale n° 34, paragraphe 25). Le rapporteur spécial des Nations Unies sur la liberté d’expression a déclaré que les règles des entreprises de réseaux sociaux devaient être claires et précises ( A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Le Conseil estime que, appliquée aux faits du cas présent, l’interdiction par Meta des contenus appelant à l’entrée par la force dans certains lieux à haut risque est clairement énoncée et que les conditions exactes dans lesquelles l’interdiction est déclenchée sont également claires. Le contenu du cas pourrait facilement être considéré comme une infraction à la fois par l’utilisateur et par les équipes d’examen de contenu, en particulier dans le contexte de troubles civils au Brésil. Par conséquent, le Conseil considère que l’exigence de légalité est satisfaite.
II. Objectif légitime
Les restrictions à la liberté d’expression (article 19 du Pacte international relatif aux droits civils et politiques) doivent poursuivre un but légitime. La politique en matière de violence et d’incitation vise à « prévenir les préjudices hors ligne potentiels » en supprimant les contenus qui présentent « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique ». Cette politique sert l’objectif légitime de protéger les droits d’autrui, tels que le droit à la vie (article 6 du Pacte international relatif aux droits civils et politiques), ainsi que l’ordre public et la sécurité nationale (article 19, paragraphe 3, du Pacte international relatif aux droits civils et politiques). Dans les contextes électoraux, cette politique peut également poursuivre l’objectif légitime de protéger le droit d’autrui à voter et à participer aux affaires publiques (article 25 du Pacte international relatif aux droits civils et politiques).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché » et « elles doivent être proportionnées à l’intérêt à protéger » ( Observation générale n° 34, paragraphes 33 et 34). Comme dans des cas précédents d’incitation à la violence, le Conseil estime que les 6 facteurs du plan d’action de Rabat des Nations Unies sont pertinents pour déterminer la nécessité et la proportionnalité de la restriction (voir, par exemple : Cas sur la Suspension de l’ancien président américain Trump).
Le Conseil reconnaît que dans de nombreux environnements politiques, la contestation de l’intégrité des élections ou du système électoral est un exercice légitime des droits à la liberté d’expression et de protestation, même si des incidents isolés de violence surviennent. En raison de leur message politique, ils bénéficient d’un niveau de protection accru (Observation générale n° 37, paragraphes 19 et 32). Le Conseil note toutefois que ce n’est pas le cas en l’espèce. Il existe une ligne de démarcation cruciale entre le discours politique protégé et l’incitation à la violence visant à renverser les résultats d’une élection populaire légale. Sur la base des facteurs décrits dans le Plan d’action de Rabat, le seuil de restriction de la liberté d’expression était clairement atteint dans ce cas. Le Conseil estime que plusieurs éléments du contenu du cas sont pertinents pour son analyse : les appels à « besiege » (assiéger) le Congrès brésilien en tant que « the last alternative » (dernière solution) et à « storm » (prendre d’assaut) les « three powers » (trois pouvoirs) ; la vidéo contenant un appel d’un général brésilien de premier plan à « hit the streets » (descendre dans la rue) et à « go to the National Congress … [and the] Supreme Court » (se rendre au Congrès national ... [et à la] Cour suprême) ; l’image des bâtiments du gouvernement fédéral en feu en arrière-plan ; et la demande du « source code » (code source). Ils constituent tous, dans le contexte brésilien plus large où les soutiens de Bolsonaro contestent les résultats des élections et demandent un coup d’État militaire, un appel sans équivoque à envahir et à prendre le contrôle des bâtiments gouvernementaux. L’intention de l’auteur, le contenu du discours et sa portée, ainsi que la probabilité d’un préjudice imminent dans le contexte politique du Brésil à l’époque, justifiaient tous la suppression de la publication.
Le contenu a été publié dans un contexte de risque accru de violence politique, les forces armées étant largement appelées à renverser les résultats de l’élection. Dans le même temps, des slogans codés ont été utilisés pour promouvoir des manifestations spécifiquement axées sur les bâtiments gouvernementaux à Brasilia (voir section 2). À cet égard, les informations que le Conseil a reçues par le biais de plusieurs commentaires publics, notamment de ITS Rio - Modera Lab (PC-11016), Coalizão Direitos na Rede (PC-11020), InternetLab (PC-11019) et Ekō (PC-11000), qui ont appuyé les recherches commandées par le Conseil, montrent toutes que des contenus similaires circulaient en abondance sur les réseaux sociaux dans la période précédant les évènements du 8 janvier. Elles soulignent également l’imminence d’une prise d’assaut des bâtiments de la place des Trois Pouvoirs par les soutiens de Bolsonaro et d’une intervention de l’armée, y compris par le biais d’un coup d’État militaire.
Compte tenu de ce qui précède, le Conseil estime que la suppression du contenu est conforme à ses responsabilités en matière de droits de l’homme. La suppression du contenu est une réponse nécessaire et proportionnée pour protéger le droit à la vie des personnes, y compris des fonctionnaires, et l’ordre public au Brésil. La suppression de ce contenu et d’autres similaires est également nécessaire et proportionné pour protéger le droit des Brésiliens à voter et à participer aux affaires publiques, dans un contexte où des tentatives de compromettre une transition démocratique du pouvoir étaient en cours.
L’incapacité persistante des systèmes d’examen de Meta à identifier correctement l’infraction dans la vidéo ou à la soumettre à un examen plus approfondi et à supprimer le contenu du cas est une préoccupation sérieuse, que le Conseil estime que Meta sera mieux à même de résoudre si l’entreprise suit les recommandations ci-dessous. Si Meta a pris des mesures positives pour améliorer ses efforts en matière d’intégrité des élections au Brésil, elle n’a pas fait suffisamment d’efforts pour lutter contre l’utilisation abusive potentielle de ses plateformes dans le cadre de campagnes coordonnées du type de celles qui ont été menées au Brésil. Dans ce cas, le contenu qui a été laissé en place et abondamment partagé semble être typique du type de fausses informations et d’incitation qui circulait sur les plateformes de Meta au Brésil à l’époque. Elle corrobore en outre les affirmations selon lesquelles des comptes influents dotés d’un grand pouvoir de mobilisation sur les plateformes de Meta ont joué un rôle dans la promotion de la violence. Comme l’affirment les commentaires publics reçus par le Conseil (Instituto Vero [PC-11015], ModeraLab [PC-11016], InternetLab [PC-11019], Instituto de Referência em Internet e Sociedade [PC-11021]), l’examen et le retrait éventuel d’éléments de contenu individuels des plateformes de Meta sont insuffisants et relativement inefficaces lorsque ce contenu fait partie d’une action organisée et coordonnée visant à perturber les processus démocratiques. Les efforts en matière d’intégrité des élections et les protocoles de crise doivent tenir compte de ces tendances numériques plus larges.
8.3 Contenu identique avec un contexte parallèle
Le Conseil s’inquiète de la prolifération de contenus similaires à celui analysé dans les mois qui ont précédé les émeutes du 8 janvier au Brésil. Étant donné que Meta n’a pas réussi, à plusieurs reprises, à identifier ce contenu comme une infraction, le Conseil accordera une attention particulière à l’application par Meta de sa décision à des contenus identiques avec un contexte parallèle qui sont restés sur les plateformes de l’entreprise, sauf lorsqu’ils ont été partagés pour condamner ou sensibiliser au discours du général et aux appels à prendre d’assaut les bâtiments de la Place des Trois Pouvoirs à Brasília.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
10. Recommandations
A. Mise en application
- Meta devrait développer un cadre pour évaluer les efforts de l’entreprise en matière d’intégrité des élections. Il s’agit notamment de créer et de partager des indicateurs de réussite en matière d’intégrité des élections, y compris en ce qui concerne l’application par Meta de ses politiques de contenu et son approche vis à vis des publicités. Le Conseil considérera que cette recommandation a été suivie lorsque Meta aura développé ce cadre (y compris une description des mesures et des objectifs de ces mesures), l’aura publié dans l’Espace modération de l’entreprise, aura commencé à publier des rapports par pays et aura rendu publiques toutes les modifications apportées à ses efforts en matière d’intégrité des élections générales à la suite de cette évaluation.
B. Transparence
- Meta devra préciser dans son Espace modération qu’en plus du protocole de politique de crise, l’entreprise applique d’autres protocoles pour tenter de prévenir et de traiter les risques potentiels de préjudices survenant dans des contextes électoraux ou d’autres événements à haut risque. En plus de nommer et de décrire ces protocoles, l’entreprise devra également préciser leur objectif, les points de contact entre ces différents protocoles et la manière dont ils diffèrent les uns des autres. Le Conseil considérera que cette recommandation a été suivie lorsque Meta publiera les informations dans son Espace modération.
* Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 spécialistes en sciences sociales sur 6 continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques