Modération de contenu dans une année électorale historique: Principaux enseignements pour le secteur

Synthèse analytique

En cette année électorale historique, les citoyens d’au moins 80 pays sont appelés à se prononcer. Jamais la démocratie, les droits de l’homme et les sociétés justes et ouvertes n’ont connu une période aussi cruciale. Rien qu’au cours du premier trimestre 2024, les électeurs du Bangladesh, du Pakistan, de l’Indonésie et de Taïwan se sont rendus aux urnes. Des élections sont déjà en cours en Inde cette année, et d’autres devraient avoir lieu dans plusieurs autres pays et régions, notamment en Afrique du Sud, au Mexique, dans l’Union européenne, au Royaume-Uni et aux États-Unis.

Les plateformes de médias sociaux jouent un rôle central dans le débat public et font l’objet de nombreuses discussions quant à leur influence sur les processus démocratiques. Si les plateformes peuvent contribuer à la transparence du processus électoral en facilitant l’accès à l’information, elles peuvent également servir à inciter à la violence électorale ou à répandre des mensonges dans le but de manipuler l’opinion publique et d’influer sur les résultats. Une application approximative des règles par les plateformes peut exacerber ces dérives. C’est pourquoi il est essentiel de surveiller attentivement les activités des entreprises technologiques privées, qui contrôlent la diffusion d’une grande partie des informations politiques.

Le Conseil de surveillance, un organe indépendant composé de 22 spécialistes des droits de l’homme et de la liberté d’expression originaires du monde entier et de toutes les tendances politiques, a fait de la protection des élections et de l’espace civique l’une de ses sept priorités stratégiques. Nous estimons qu’il est fondamental que les plateformes de médias sociaux défendent un espace civique ouvert dans lequel chacun, y compris les membres des oppositions politiques, les défenseurs des droits de l’homme et les voix marginalisées, peut exprimer ses opinions, partager des informations et contribuer aux processus démocratiques en toute liberté. En cette année d’élections, il est crucial d’identifier les moyens dont disposent les entreprises de médias sociaux pour mieux préserver l’intégrité des élections dans le respect de la liberté d’expression. Au Conseil de surveillance, nos recommandations ont déjà conduit Meta à adopter de meilleures pratiques, mais il reste beaucoup à faire, y compris du côté de Meta, ainsi que d’autres plateformes et des autorités de régulation.  

Cet article reprend notre analyse d’exemples pertinents de contenus emblématiques sur les plateformes de Meta. Il propose quelques pistes pour aider les entreprises de médias sociaux à mieux protéger le discours politique et à surmonter les obstacles à la sécurité et à la fiabilité des élections sur Internet, dans le respect des normes internationales des droits de l’homme. Grâce aux observations collectives tirées de ces cas, nous partageons également nos principaux enseignements pour le secteur, qui sont développés dans leur intégralité au dernier chapitre de cet article.

Neuf principaux enseignements pour le secteur

  • L’application des politiques est tout aussi importante que leur élaboration. Il faut donc que les entreprises de médias sociaux consacrent suffisamment de ressources à la modération des contenus avant, pendant et après les élections.
  • Les entreprises doivent établir des normes de base en matière d’élections pour les plateformes qui s’appliquent partout dans le monde. Elles doivent veiller à ne pas négliger les dizaines d’élections qui se déroulent dans des pays ou sur des marchés considérés comme moins lucratifs, car c’est justement là que les conséquences de l’absence d’implémentation de ces normes sur les droits de l’homme peuvent être les plus graves. Les plateformes qui manquent à leurs devoirs doivent en rendre compte.
  • Les discours politiques qui incitent à la violence doivent impérativement être contrôlés. Il faut exiger une remontée plus rapide des contenus en vue d’un examen manuel, mais également des sanctions fermes à l’encontre des auteurs d’abus répétés.
  • Les plateformes doivent veiller à empêcher les gouvernements d’utiliser la désinformation, ou des raisons vagues ou non précisées, pour étouffer les propos dissidents, en particulier dans le cadre d’élections et autour de sujets d’intérêt public.
  • Toute politique visant à restreindre la liberté d’expression doit préciser les préjudices concrets qu’elle tente d’éviter, et ce, afin de garantir son caractère nécessaire et proportionné.
  • Les campagnes électorales ont toujours véhiculé des mensonges, mais les progrès technologiques facilitent la diffusion de fausses informations tout en les rendant moins coûteuses et plus difficiles à détecter. Des normes claires doivent être établies en matière de contenu généré par l’IA ou de « deepfakes » et d’autres types de contenu manipulé, tels que les « cheap fakes ».
  • Les journalistes, les groupes de la société civile et l’opposition politique doivent être mieux protégés contre les abus en ligne et contre l’application excessive des politiques des entreprises de médias sociaux, notamment à la demande des gouvernements et d’autres acteurs.
  • La transparence est plus importante que jamais lorsqu’il s’agit de préserver l’intégrité électorale. Les entreprises doivent faire preuve de transparence quant aux mesures prises pour prévenir les préjudices et aux erreurs qu’elles commettent.
  • La priorité doit être donnée aux campagnes coordonnées de désinformation ou d’incitation à la violence pour affaiblir les processus démocratiques.

L’importance de la liberté d’expression dans le cadre d’élections

Respect des normes internationales des droits de l’homme

La communauté internationale exige des entreprises, notamment des plateformes de médias sociaux, qu’elles respectent les droits de l’homme. La principale norme en matière de droits de l’homme que nous appliquons dans nos décisions est l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), qui protège la liberté d’expression au sens large. Au sujet des élections, le Comité des droits de l’homme des Nations Unies a affirmé que « la communication libre des informations et des idées concernant des questions publiques et politiques entre les citoyens, les candidats et les représentants élus est essentielle » (Observation générale n° 34, paragr. 13).

Protection du discours politique

La plupart des cas examinés soulignent la forte protection dont bénéficie le discours politique en vertu de la législation relative aux droits de l’homme, en raison de son importance pour le dialogue et le débat publics. Dans le cas de la Vidéo modifiée du président Joe Biden, au cours duquel nous avons examiné une vidéo qui avait été modifiée pour donner l’impression que le président américain était en train de toucher la poitrine de sa petite-fille de manière inappropriée, nous avons fait valoir que la simple fausseté ne pouvait pas suffire à restreindre la liberté d’expression en vertu de la législation relative aux droits de l’homme.

Notre examen a fait apparaître que la politique de Meta en matière de manipulation de contenus, qui régit la modération des contenus générés par l’IA, comportait de nombreuses lacunes et incohérences, notamment en ce qui concerne le traitement des contenus représentant des personnes prononçant des propos qui n’ont jamais été tenus ou en train de faire des choses qu’elles n’ont jamais faites. Elle traitait également les types de contenus audio et audiovisuels de manière incohérente.

Même si nous avons laissé en ligne la vidéo modifiée dans ce cas, bien qu’elle montre le président Joe Biden en train de faire quelque chose qu’il n’a pas fait, nous avons enjoint Meta à revoir ses politiques en matière de manipulation de contenus afin de s’assurer qu’ils ne sont retirés qu’en cas de nécessité, pour prévenir ou atténuer des préjudices spécifiques. Ces préjudices devaient être définis plus clairement. Nous avons également recommandé à l’entreprise d’éliminer les distinctions et les incohérences précédemment décrites. Enfin, nous avons encouragé les entreprises de médias sociaux à préférer l’étiquetage des contenus générés par l’IA à leur retrait, sauf si le contenu est contraire à d’autres politiques. Meta a annoncé qu’elle allait appliquer nos conseils, ce qui procurera davantage de contexte pour prendre des décisions éclairées en matière de contenu.

Dans d’autres cas, nous avons également décidé de protéger le discours politique, même lorsqu’il peut être considéré comme énergique par nature, estimant qu’il s’agit d’un aspect incontournable du débat public, à condition qu’il ne soit pas directement lié à un éventuel préjudice hors ligne. Par exemple, nous avons demandé à Meta de ne pas supprimer les reportages sur le discours d’un homme politique devant le Parlement pakistanais qui contenait une référence culturelle qui, bien que violente par nature, n’était ni littérale ni susceptible d’entraîner de réels préjudices (Rapports sur le discours du Parlement pakistanais). Dans un autre cas, la majorité du Conseil a estimé que l’expression d’une opinion controversée sur l’immigration ne constituait pas un discours incitant à la haine, dans la mesure où elle ne comportait pas d’attaque directe contre un groupe en raison d’une caractéristique protégée (Commentaires d’une personnalité politique sur les changements démographiques). Dans les deux cas, nous avons décidé que le contenu, bien que potentiellement offensant pour certaines personnes, relevait d’un discours politique protégé et devait rester en ligne.

Nos conseils à Meta ont été clairs: si Meta doit retirer du contenu lié à la politique, en particulier dans le contexte des élections, ce retrait doit être jugé nécessaire pour prévenir ou atténuer de véritables préjudices hors ligne. Il est fondamental que les électeurs puissent entendre les différents points de vue des personnalités politiques.


Les défis liés à la protection des élections en ligne

Les défis à l’intégrité électorale et à la protection des démocraties doivent être abordés avec le plus grand sérieux. Il peut notamment s’agir d’incitation à la violence de la part de dirigeants politiques ou de désinformation susceptible d’ébranler la confiance des électeurs dans le cadre de processus électoraux. Les choix de conception opérés par les plateformes ont souvent aggravé les problèmes de désinformation ou incité à ces actions, et l’essor de l’IA générative menace d’exacerber encore cette situation. C’est pourquoi nous prônons un engagement ferme en faveur de la transparence. Les utilisateurs et autres parties prenantes doivent connaître les mesures prises par les entreprises pour lutter contre ces problèmes et vérifier qu’elles tirent les enseignements des erreurs commises par le passé.

Violence et intimidation de la part des dirigeants politiques

Si la liberté d’expression est généralement protégée par le droit international en matière de droits de l’homme, celle-ci peut être limitée dans certaines circonstances. Les périodes d’élections et de transition politique sont souvent marquées par une escalade des tensions, et les médias sociaux sont parfois utilisés dans des situations où le risque de violence est élevé. En 2021, nous avons abordé la question des violences post-électorales en cherchant à déterminer si Meta avait eu raison de suspendre les comptes de l’ancien président américain Donald Trump de ses plateformes à la suite des émeutes du Capitole du 6 janvier (Suspension du compte de l’ancien président des États-Unis, Donald Trump).

Nous avons également porté notre attention sur les responsables incitant à la violence dans d’autres contextes électoraux, par exemple dans le cas Discours d’un général brésilien. Dans ces deux décisions, nous avons estimé que Meta aurait dû agir plus rapidement contre l’encouragement ou la légitimation de la violence. Nous avons préconisé qu’en période de risque accru de violence, ce type de message cesse d’être protégé sous le couvert du droit de protester. Dans la décision relative au Brésil, nous avons également souligné que la suppression du contenu de publications individuelles est relativement inefficace lorsqu’elles s’inscrivent dans le cadre d’une action coordonnée visant à perturber les processus démocratiques. Les plateformes doivent mieux se préparer et répondre à ces crises.

Il est essentiel de déployer des efforts en matière d’intégrité électorale (pour garantir l’équité du processus de vote) et de mettre en place des protocoles de crise, qui déterminent les meilleures pratiques à suivre par les plateformes en cas d’événements exceptionnels. Dans les deux décisions précédentes, nous avons recommandé à Meta d’établir un cadre pour répondre aux événements à haut risque. En retour, Meta a créé un protocole de politique de crise, une politique visant à orienter sa réponse en cas de crise lorsque ses procédures habituelles ne suffisent pas à prévenir les préjudices. Cet outil peut être utilisé lors de controverses électorales telles que des litiges procéduraux ou des contestations de résultats, autant de situations de crise qui évoluent rapidement. Dans notre décision concernant le Brésil, nous avons également recommandé à Meta d’établir un cadre afin d’évaluer et de rendre compte publiquement de ses efforts en matière d’intégrité électorale dans le monde entier. Il s’agissait notamment d’adopter des indicateurs de réussite, de manière à fournir des données pertinentes permettant à l’entreprise d’améliorer son système global de modération du contenu, y compris pour les contenus organiques et payants. Meta s’y est engagée d’ici la fin de l’année 2024. Compte tenu de l’urgence de la situation, nous suivons de près cet engagement. Les informations issues de ces indicateurs devraient aider Meta à décider de quelle manière déployer ses ressources pendant les élections et à tirer parti des connaissances locales afin de lutter contre les campagnes coordonnées visant à perturber les processus démocratiques. Elles devraient également lui permettre de mettre en place des canaux de retour d’information et de déterminer les mesures efficaces à prendre lorsque la violence politique persiste après la conclusion officielle d’une élection.

Bien entendu, l’incitation à la violence ne se limite pas toujours à la période qui précède ou qui suit immédiatement les élections. Dans le cas du Premier ministre cambodgien, nous avons demandé à Meta de supprimer une publication contraire aux politiques de la plateforme provenant du Premier ministre de l’époque, Hun Sen, qui visait violemment l’opposition politique à quelques mois du scrutin prévu. Bien que la prise de parole du Premier ministre cambodgien sur les médias sociaux avant les élections ait suscité un vif intérêt public, la virulence de la répression contre les forces d’opposition a conduit le Conseil à demander à Meta de suspendre la page Facebook et le compte Instagram de Hun Sen pour une durée de six mois. Compte tenu de la situation instable au Cambodge, nous avons estimé que ses menaces physiques à l’encontre de l’opposition politique ne pouvaient se justifier en tant que contenu « d’intérêt médiatique » et qu’elles présentaient une forte probabilité de se concrétiser.

Malheureusement, la décision finale de Meta de ne pas suspendre le compte de Hun Sen crée un précédent potentiellement dangereux au profit des dirigeants d’autres pays qui utilisent fréquemment les plateformes de Meta pour menacer et intimider leurs détracteurs. Un certain nombre de groupes internationaux de défense des droits de l’homme ont exhorté Meta à se conformer aux recommandations du Conseil.

Au regard des enjeux, nous suivons de près la manière dont Meta implémente les autres recommandations que nous avons formulées dans ces cas et nous continuerons à demander à l’entreprise de rendre des comptes quant au respect de ses engagements.

Dans le cas de la Suspension du compte de l’ancien président des États-Unis, Donald Trump, nous avons demandé à Meta d’expliquer clairement son processus de suspension et de sanction des comptes ayant commis de graves infractions aux politiques de contenu, et l’entreprise est depuis lors devenue beaucoup plus transparente à ce sujet. Dans le cas du Premier ministre cambodgien, nous avons également recommandé à Meta de revoir sa politique de restriction des comptes de dirigeants politiques non seulement en période de crise, mais également dans les situations où l’État réprime de manière préventive l’expression politique par la violence ou les menaces de violence. Nous lui avons également suggéré d’adapter son système de hiérarchisation des révisions afin que les contenus des chefs d’État susceptibles de constituer une infraction soient examinés par des spécialistes de manière rapide et systématique, et supprimés s’ils présentent un risque de préjudice imminent.

Nous avons récemment abordé une autre limite du discours politique, cette fois-ci dans les deux cas Campagne électorale 2023 en Grèce. Nous avons majoritairement décidé d’approuver la suppression de deux publications pour infraction à la politique de Meta relative aux organisations et individus dangereux. Afin de préserver l’intégrité électorale, nous avons convenu qu’il était légitime que Meta limite la liberté des candidats et des partis politiques faisant campagne sur ses plateformes lorsqu’ils revendiquent spécifiquement le soutien et l’utilisation des symboles d’individus et de groupes interdits connus pour leur implication dans des actes de violence. Cependant, nous avons également constaté que les règles de Meta pourraient être clarifiées, puisque l’entreprise ne divulgue pas la liste des entités qu’elle désigne comme dangereuses. Depuis cette décision, la Cour suprême de Grèce a interdit à ce parti politique (les Spartiates) de participer aux prochaines élections européennes, car celui-ci avait « servi de couverture » à l’ancien porte-parole d’Aube dorée, un parti interdit.

En outre, nous reconnaissons que les représentants des gouvernements et les personnalités politiques, y compris le personnel électoral, peuvent parfois être victimes de harcèlement ou d’attaques. Pour atténuer ce problème, notre avis consultatif en matière de politiques sur le partage d’informations privées sur le lieu de résidence a préconisé à Meta de ne pas autoriser le partage de telles informations lorsque des manifestations sont organisées à proximité de la résidence privée d’un haut fonctionnaire et que des mesures de sécurité n’ont pas nécessairement été prises pour garantir la sécurité des personnes à l’intérieur de cette propriété.

Risques d’une application excessive des politiques

La période qui précède et qui suit les élections, ainsi que les investitures et les passations de pouvoir qui s’ensuivent, s’accompagnent souvent d’une intensification des communications et des échanges d’informations entre les utilisateurs. Ce sont ces moments-là qui sont décisifs: lorsque Meta et d'autres entreprises ont la lourde responsabilité de veiller à la bonne application de leurs politiques en matière de contenu. Plusieurs des cas que nous avons traités ont incité Meta à réduire ses erreurs d’application.

L’un des problèmes spécifiques, souvent observé pendant les périodes électorales, est la pression exercée par les gouvernements sur les plateformes pour qu’elles suppriment des contenus légitimes sous prétexte (parfois fallacieux) qu’ils contreviennent aux politiques de la plateforme. Nous avons insisté auprès de Meta pour qu’elle informe au moins les utilisateurs lorsque leur contenu est supprimé à la demande de gouvernements, ce que l’entreprise fait à présent. Lors de l’examen du cas Musique drill britannique, nous avons constaté que Meta avait supprimé de la musique légitime qui n’enfreignait en réalité pas les politiques des plateformes, suite à la demande des forces de l’ordre. Nous avons alors recommandé à l’entreprise d’adopter une approche cohérente à l’échelle mondiale pour traiter les demandes de suppression de contenu émanant des États, de rendre publiques les données relatives à ces demandes, ainsi que d’évaluer les biais systémiques dans les décisions de modération de contenu résultant des demandes du gouvernement. La recommandation visant à accroître la transparence relative aux demandes de retrait émanant des gouvernements et de les rendre publiques a également été mise en évidence dans le cas Isolement d’Öcalan et dans notre avis consultatif en matière de politiques sur la suppression des fausses informations sur le COVID-19.

Un autre problème récurrent que nous avons identifié dans les appels des utilisateurs est la complexité pour l’entreprise de différencier les critiques politiques figuratives des menaces crédibles, qui sont interdites par la politique en matière de violence et d’incitation. Le cas du Slogan de protestation en Iran a mis en lumière nos vives inquiétudes quant au risque que l’application excessive de cette politique n’entrave considérablement les mouvements de protestation en faveur des droits de l’homme. Dans ce cas, nous avons décidé que l’un des slogans (« Marg bar Khamenei », traduit par « Mort à Khamenei », le guide suprême de l’Iran) utilisé dans le contexte des protestations dans ce pays devait être autorisé. Avant que nous ne sélectionnions ce cas, une grande partie du contenu reprenant ce slogan avait été supprimée pour incitation supposée à la violence. Une application trop littérale de cette politique empêchait les protestataires d’exprimer leur mécontentement à l’égard du régime sur les plateformes de Meta. Dans notre décision, nous avons souligné que les déclarations politiques rhétoriques, qui ne constituent pas une menace crédible, n’enfreignent pas cette politique et ne justifient pas l’application d’une exception à la politique relative à l’intérêt médiatique. Nous avons également recommandé de réviser le Standard de la communauté concernant la violence et l’incitation afin de protéger le discours politique manifestement rhétorique lors des protestations, dans le but de permettre aux citoyens d’exprimer librement leurs critiques à l’égard de leur gouvernement.

La politique de Meta en matière d’organisations et d’individus dangereux, qui interdit la glorification, le soutien et la représentation d’individus, de groupes et d’événements désignés comme dangereux par l’entreprise, fait souvent l’objet d’une application excessive. Bien que cette politique vise un objectif légitime, elle a trop souvent conduit, dans la pratique, à la suppression arbitraire de contenus postés par des utilisateurs décrivant des situations impliquant ces groupes, défendant les droits de l’homme ou établissant des analogies acceptables.

Dans un récent avis consultatif en matière de politiques, dans lequel nous avons examiné de manière approfondie des questions politiques complexes que Meta doit traiter, nous avons recommandé à l’entreprise de cesser de présumer que le terme « chahid » (vaguement traduit par « martyr » dans certains contextes) renvoie toujours à un éloge lorsqu’il fait référence à des individus désignés (Référence à des personnes dangereuses désignées sous le terme « chahid »). Cette mesure vise à assurer une application plus précise du terme que Meta a décrit comme étant « le plus modéré », ce qui devrait garantir un plus grand respect de l’expression politique. Nous avons également sollicité des clarifications supplémentaires et, surtout, avons demandé à Meta d’expliquer clairement aux utilisateurs comment son système automatisé est utilisé pour anticiper les éventuelles infractions à cette politique en matière de contenu.

Chacune des recommandations ci-dessus a souligné les responsabilités des plateformes de médias sociaux en matière de droits de l’homme pour remédier aux effets néfastes sur les individus et la société, plutôt que de céder à la pression des intérêts politiques ou commerciaux.

Désinformation

La désinformation revêt diverses formes et présente des risques distincts en ce qui concerne les élections et la préservation de l’espace démocratique, en contribuant à la polarisation et en sapant la confiance dans l’intégrité du processus démocratique. Un contenu trompeur peut également susciter la méfiance à l’égard des institutions officielles, de la société civile et des médias. D’autre part, la question de savoir quelles informations sont vraies ou fausses (ou trompeuses) fait souvent partie intégrante des désaccords démocratiques.  Les gouvernements et certains puissants acteurs profitent parfois de la présence de fausses informations pour étouffer des vérités gênantes. C’est pourquoi la lutte contre les fausses informations préjudiciables est un exercice complexe, dont les enjeux sont particulièrement importants en période électorale.

Amplification et coordination de la désinformation

Certains acteurs, y compris des gouvernements, exploitent les médias sociaux pour compromettre les processus démocratiques, en employant des tactiques de désinformation en constante évolution. Bien que Meta ait identifié et supprimé des comptes inauthentiques qui tentaient d’interférer avec les élections et que l’entreprise soit associée à des médias de vérification afin d’étiqueter certaines formes d’informations fausses ou trompeuses, les campagnes coordonnées de désinformation continuent de proliférer.

Malgré les efforts déployés pour contrer les comportements anormaux, les choix de Meta en matière de conception et de politique, notamment son fil d’actualité et ses algorithmes de recommandation, ont favorisé la propagation de discours de désinformation promus par des réseaux d’influenceurs, parfois menant à des actes de violence hors ligne. Cette constatation nous a amenés à recommander à Meta d’entreprendre un examen approfondi de la manière dont ces choix ont contribué à la fraude électorale et aux tensions qui ont abouti aux émeutes du Capitole de janvier 2021 (Suspension du compte de l’ancien président des États-Unis, Donald Trump). Nous avons également conseillé à Meta de réfléchir à des mesures visant à réduire les contenus organiques préjudiciables amplifiés par des algorithmes (cas de la Revendication d’un traitement contre la COVID et avis consultatif en matière de politiques sur la suppression des fausses informations sur le COVID-19). Dans ce même avis consultatif en matière de politiques, nous avons enjoint Meta de mener des recherches afin d’analyser les comptes qui amplifient ou coordonnent les campagnes de fausses informations en matière de santé. Des principes similaires devraient s’appliquer à la désinformation préjudiciable liée aux élections. À cet égard, nous avons souligné l’importance pour les utilisateurs de pouvoir contester les décisions de Meta lorsqu’elle déclasse leur contenu suite à l’attribution de la mention « faux », « trompeur » ou « altéré » par un média de vérification (Vidéo modifiée du président Joe Biden).

Manipulation de contenus

Les utilisateurs peuvent créer des contenus manipulés à des fins malveillantes qui perturbent les processus démocratiques et aggravent les conflits politiques. Si l’intelligence artificielle (IA) générative menace d’empirer la situation, des méthodes moins sophistiquées telles que les « cheap fakes » sont plus répandues et peuvent être tout aussi préjudiciables. Comme indiqué ci-dessus, dans le cas de la Vidéo modifiée du président Joe Biden, nous avons demandé à Meta de modifier sa politique en matière de manipulation de contenus afin de pallier certaines lacunes. Meta a depuis annoncé qu’elle allait implémenter les recommandations du Conseil dans leur intégralité.

Publicité politique et marketing des influenceurs

La publicité payante sur les plateformes de médias sociaux occulte souvent la véritable source du contenu concerné, ce qui peut être exploité dans le cadre de campagnes de désinformation. L’une des façons dont Meta aborde actuellement les questions d’attribution est d’exiger que les publicités portent la mention « Sponsorisé par ». Au minimum, les publicités politiques doivent respecter le même ensemble de Standards de la communauté qui s’appliquent à tous les contenus sur les plateformes de Meta, ainsi que sa politique en matière de publicités. Néanmoins, les parties prenantes ont exprimé leur inquiétude quant à l’application imprécise des Standards de la communauté de Meta en ce qui concerne les publicités politiques. Nous avons déjà pris connaissance de rapports concernant des publicités politiques utilisant des propos délibérément faux pour contester la légitimité des élections brésiliennes sur les plateformes de Meta (Discours d’un général brésilien). Selon un groupe de la société civile, les élections au Myanmar et au Kenya ont été marquées par des événements similaires. Notre suggestion de mettre en place un cadre avec des indicateurs de réussite pour évaluer l’efficacité des initiatives de l’entreprise en matière d’intégrité électorale visait en partie à résoudre ce problème. Cela aiderait Meta à trouver un juste équilibre entre la préservation des critiques légitimes des élections dans le cadre d’un débat public sain et le retrait des contenus constituant de véritables tentatives de perturber le processus électoral.

Les messages politiques, y compris ceux diffusés par les micro-influenceurs et les nano-influenceurs, peuvent également contribuer à propager des discours conçus pour influencer l’opinion publique sur les candidats politiques ou les sondages. Cette tendance soulève encore davantage de questions quant à notre perception de ce qui constitue un contenu authentique et ce qui ne l’est pas. La définition de Meta concernant les publicités sur les enjeux sociaux, les élections ou la politique apporte certaines clarifications, mais le terme « enjeux sociaux » demeure très large. Il s’agit de « sujets sensibles suscitant de nombreux débats […] susceptibles d’avoir une incidence sur les résultats d’une élection ou de porter sur une législation existante ou en discussion ».

En partie pour répondre à notre recommandation (Vidéo modifiée du président Joe Biden) invitant Meta à mieux informer les utilisateurs de l’origine des contenus manipulés, l’entreprise exige aussi désormais des annonceurs qu’ils signalent s’ils ont eu recours à l’IA pour créer ou modifier une publicité sur un sujet politique ou social qui a été « créée ou modifiée numériquement pour représenter une personne réelle en train de dire ou de faire quelque chose qu’elle n’a ni dit ni fait ».


Conclusion: Principaux enseignements pour le secteur

Du haut degré de protection que justifie le discours politique aux mesures que les plateformes peuvent mettre en œuvre pour mieux contrer la propagation de fausses informations en ligne, nous demeurons engagés à garantir l’intégrité des élections par le biais de nos décisions concernant des cas emblématiques et la formulation de recommandations visant à promouvoir les meilleures pratiques en matière de modération du contenu. En nous appuyant sur les connaissances acquises grâce à notre travail continu sur les élections, ainsi que sur d’autres cas similaires, nous avons identifié les enseignements clés suivants pour les acteurs qui s’efforcent de préserver l’intégrité électorale sur les plateformes de médias sociaux. Ces directives sont principalement destinées au secteur, mais nous espérons qu’elles contribueront à influencer d’autres acteurs qui s’efforcent de demander des comptes aux entreprises.

  • L’application des politiques est tout aussi importante que leur élaboration dans les situations qui évoluent très rapidement. Il faut donc que les entreprises de médias sociaux consacrent suffisamment de ressources à la modération des contenus avant, pendant et après les élections, et ce dans le monde entier, indépendamment de leurs intérêts politiques ou économiques dans le pays concerné. La contestation des élections peut trop aisément conduire à des crises et des conflits. Il est impératif que les entreprises de médias sociaux aient une compréhension approfondie de la langue et du contexte locaux afin de guider leurs politiques et pratiques en matière d’élections à l’échelle mondiale.
  • Les entreprises doivent établir des normes de base pour leurs plateformes à travers le monde, et ces dernières doivent être tenues responsables si elles ne les respectent pas. Les entreprises ne doivent en aucun cas négliger les dizaines d’élections qui se déroulent dans des pays ou sur des marchés considérés comme moins lucratifs, car c’est justement là que les conséquences sur les droits de l’homme de l’absence d’implémentation de ces normes peuvent être les plus graves. Même en cas de ressources limitées, les préjudices liés au manque de contrôle de la désinformation ou de l’incitation à la violence sont tout aussi graves dans des régions souvent négligées. L’instabilité dans une région peut alimenter l’instabilité dans une autre, renforçant ainsi les acteurs malveillants dans d’autres parties du monde.
  • Les discours politiques qui incitent à la violence doivent impérativement être contrôlés. Il faut exiger une remontée plus rapide des contenus en vue d’un examen manuel, mais également des sanctions fermes à l’encontre des auteurs d’abus répétés. Ce point revêt une importance particulière lorsqu’il s’agit de contenus provenant de chefs d’État et de membres éminents du gouvernement susceptibles d’inciter à la violence. Si les citoyens sont en droit d’accéder aux informations considérées comme « d’intérêt médiatique », les contenus préjudiciables, qui vont au-delà de l’intérêt public et qui compromettent fondamentalement le processus électoral, doivent faire l’objet d’un examen manuel accéléré et être supprimés, le cas échéant. Si des personnalités politiques enfreignent les règles de manière répétée, il est possible que leurs comptes sur les plateformes en ligne doivent être suspendus. Cette nécessité est d’autant plus criante en période électorale, lorsque le risque d’amplification des préjudices, des menaces et des intimidations est le plus élevé.
  • Les plateformes doivent veiller à empêcher les gouvernements d’utiliser la désinformation, ou des raisons vagues ou non précisées, pour étouffer les propos dissidents. Cela vaut en particulier dans le cadre d’élections et autour de sujets d’intérêt public.
  • Toute politique visant à restreindre la liberté d’expression doit préciser les préjudices concrets qu’elle tente d’éviter, et ce, afin de garantir son caractère nécessaire et proportionné. En matière de fausses informations et de désinformation, il existe des tensions évidentes entre la liberté d’expression et l’accès à l’information, des principes essentiels aux processus démocratiques, et la protection des individus contre les préjudices concrets, en particulier la violence. Les politiques doivent prendre en compte les risques pour la sécurité physique, ainsi que les risques d’intimidation, d’exclusion et de réduction au silence. Les discours qui ne sont pas préjudiciables ne doivent pas non plus être étouffés sous prétexte de fausses informations.
  • Les campagnes électorales ont toujours véhiculé des mensonges, mais les progrès technologiques facilitent la diffusion de fausses informations tout en les rendant moins coûteuses et plus difficiles à détecter. Des normes claires doivent être établies en matière de contenu généré par l’IA ou de « deepfakes » et d’autres types de contenu manipulé, tels que les « cheap fakes ». Tout contenu préjudiciable doit être traité en tant que tel. Compte tenu de l’évolution rapide des technologies, les politiques peuvent se révéler obsolètes, ce qui crée alors des lacunes et favorise la prolifération des abus. Lors de l’élaboration des politiques et des processus, il est essentiel que les entreprises définissent clairement l’objectif final ou le risque concret qu’elles cherchent à prévenir, et qu’elles sollicitent la participation des acteurs du monde entier dans ce processus.
  • Les journalistes, les groupes de la société civile et l’opposition politique doivent être mieux protégés contre les abus en ligne et contre l’application excessive des politiques des entreprises de médias sociaux. Il est crucial de garantir la libre expression des opposants politiques et des acteurs de la société civile pour assurer l’équité du processus électoral. Les entreprises de médias sociaux doivent accorder une priorité à cet aspect, en particulier dans les pays où la liberté d’expression est régulièrement réprimée. Les protestataires et autres individus qui critiquent pacifiquement leur gouvernement doivent être protégés. Les demandes de suppression de contenu émanant des gouvernements doivent être examinées en tenant compte des droits de l’homme. Il n’est pas facile de trouver le juste équilibre en période de crise, mais adopter des politiques cohérentes pour faire face à ces situations et proposer un soutien et une formation supplémentaires aux modérateurs constituent une première étape importante.
  • La transparence est plus importante que jamais lorsqu’il s’agit de préserver l’intégrité électorale. Le public doit être en mesure de comprendre clairement l’origine de la désinformation et d’autres contenus préjudiciables, leur forme et leur impact. Les entreprises doivent faire preuve de transparence quant aux mesures prises pour prévenir les préjudices, aux erreurs qu’elles commettent et aux normes clairement définies sur la manière dont elles peuvent s’améliorer. Il s’agit notamment de s’engager à clarifier davantage les demandes de suppression émanant des États, qui ont la capacité de réduire au silence les opposants de manière injustifiée.
  • La priorité doit être donnée aux campagnes coordonnées de désinformation ou d’incitation à la violence pour affaiblir les processus démocratiques. Ces campagnes sapent la confiance dans les processus démocratiques en rendant plus difficile la recherche d’informations fiables, en encourageant le harcèlement de ceux qui expriment un désaccord politique, et en diffusant des mensonges comme s’ils étaient des faits établis. Les entreprises de médias sociaux doivent améliorer leur conception et leurs politiques pour s’assurer que les discours de désinformation ne soient pas amplifiés.

Remerciements

Cet article a été rédigé par Michael McConnell, Pamela San Martin et Afia Asantewaa Asare-Kyei, tous membres du Conseil de surveillance, puis relu par l’ensemble des membres du Conseil. Cet effort de collaboration a bénéficié des contributions de: Jenny Domino, chargée senior des dossiers et des politiques, et Carly Miller, chargée des données et de la mise en œuvre, avec la révision et l'approbation de : Simona Sikimic, responsable de la communication et de l'engagement, Neena Dhillon, responsable du contenu et de la rédaction, et Andrew Smith, chef du service des dossiers et des politiques. 

Retour au leadership éclairé