Publié
Suppression des fausses informations sur le COVID-19
Le présent avis consultatif en matière de politique examine si Meta doit continuer à supprimer certaines catégories de fausses informations sur le COVID-19 ou si une approche moins restrictive serait plus conforme à ses valeurs et à ses responsabilités en matière de droits humains.
I. Synthèse
En juillet 2022, à la demande de Meta, le Conseil de surveillance a accepté d’évaluer s’il était nécessaire de continuer à supprimer certaines catégories de fausses informations sur le COVID-19, ou si une approche moins restrictive serait plus en adéquation avec ses valeurs et ses responsabilités en matière de droits humains. Le présent avis consultatif en matière de politique est la réponse du Conseil à cette demande.
Le Conseil a mené une enquête et un processus de consultation publique approfondis. Meta insistant sur le fait que son approche des fausses informations sur le COVID-19 doit être unique et internationale, le Conseil a décidé que, tant que l’Organisation mondiale de la Santé (OMS) continuera de déclarer le COVID-19 comme une urgence de santé publique de portée internationale, Meta devait maintenir sa politique actuelle. Cela signifie que Meta devra continuer à supprimer les fausses informations sur le COVID-19 susceptibles de contribuer directement au risque de blessures physiques imminentes. Le Conseil estime toutefois que Meta devrait engager un processus de réévaluation de chacune des 80 affirmations que l’entreprise supprime actuellement, en impliquant un ensemble plus large de parties prenantes. L’entreprise devrait également préparer des mesures pour le moment où l’OMS lèvera l’avis d’alerte mondiale afin de protéger la liberté d’expression et les autres droits humains dans ces nouvelles circonstances. Le Conseil recommande vivement à Meta de publier des informations sur les demandes des gouvernements de supprimer du contenu lié au COVID-19, de prendre des mesures pour soutenir la recherche indépendante de ses plateformes, d’examiner le lien entre l’architecture de ses plateformes et les fausses informations, et de sensibiliser le public aux fausses informations sur le COVID-19 à l’échelle mondiale.
Contexte
Début 2020, lorsque la pandémie de COVID-19 a frappé, Meta a commencé à supprimer de Facebook et d’Instagram plusieurs affirmations que l’entreprise avait identifiées comme des fausses informations sur le COVID-19. La liste d’affirmations sur le COVID-19 que l’entreprise supprime n’a cessé de s’allonger au fur et à mesure que la pandémie progressait. Aujourd’hui, Meta supprime environ 80 affirmations distinctes considérées comme des fausses informations sur le COVID-19 dans le cadre de sa politique en matière de « fausses informations sur la santé pendant les urgences de santé publique », une sous-section du Standard de la communauté sur les fausses informations créée en réponse aux recommandations du Conseil dans sa décision sur le cas « Guérison du COVID revendiquée ». Cet avis consultatif en matière de politique se concentre exclusivement sur les mesures prises par Meta pendant la pandémie de COVID-19 dans le cadre de sa politique de« fausses informations sur la santé pendant les urgences de santé publique ». Il ne concerne pas les mesures prises par Meta pendant la pandémie de COVID-19 dans le cadre d’autres politiques.
Dans le cadre de sa politique en matière de « fausses informations sur la santé pendant les urgences de santé publique », Meta supprime les « fausses informations diffusées lors d’urgences sanitaires publiques lorsque les autorités sanitaires publiques déduisent que les informations sont fausses et susceptibles de contribuer au risque direct de blessures physiques imminentes ». Meta a exclusivement eu recours aux autorités de santé publique pour déterminer si ce standard avait été respecté. Parmi les 80 affirmations que l’entreprise supprime actuellement, on trouve notamment celle qui nie l’existence du COVID-19 et celle selon laquelle les vaccins contre le COVID-19 entraînent un magnétisme. Meta a supprimé 27 millions de fausses informations sur le COVID-19 de Facebook et d’Instagram entre mars 2020 et juillet 2022, dont 1,3 million ont été restaurées à la suite d’un appel. Les fausses informations sur le COVID-19 qui ne répondent pas aux critères de suppression peuvent être vérifiées, étiquetées ou rétrogradées. Des médias de vérification évaluent le contenu (par exemple, comme « faux » ou « manque de contexte »). Meta l’étiquette ensuite comme tel et y ajoute un lien vers un article permettant de vérifier les informations. En fonction d’un certain nombre de facteurs, le contenu étiqueté par les médias de vérification peut également être rétrogradé par Meta. Cela signifie qu’il apparaîtra moins souvent et plus bas dans le fil. Meta applique également des « étiquettes neutres » au contenu lié au COVID-19. Ces étiquettes contiennent des déclarations telles que « Certains traitements contre le COVID-19 non approuvés peuvent avoir de graves conséquences » et redirigent vers le Centre d’information sur le COVID-19 de Meta, qui fournit des informations sur les mesures de prévention, les vaccins et les ressources des autorités de santé publique.
Dans sa demande, Meta a demandé au Conseil s’il était nécessaire de continuer à supprimer certaines fausses informations sur le COVID-19. En tant qu’alternative à la suppression, l’entreprise a déclaré qu’elle pouvait rétrograder le contenu, l’envoyer à des médias de vérification tiers ou y ajouter des étiquettes. L’entreprise insiste sur le fait qu’elle préfère adopter une approche unique et internationale des fausses informations sur le COVID-19 que varier son approche par pays ou par région. Meta ne pense pas être capable d’adopter une approche localisée de cette politique à grande échelle et considère que cela pourrait confondre le public et nuire à la mise en application de ses règles. Lors de l’examen de la demande de Meta, le Conseil a mené un processus de consultation publique approfondi. Une série de tables rondes virtuelles ont été convoquées en partenariat avec la société civile. Le Conseil y a entendu un large éventail de spécialistes et de parties prenantes du monde entier.
Principaux résultats et recommandations
Le Conseil estime que continuer à supprimer les fausses informations sur le COVID-19 « susceptibles de contribuer directement au risque de blessures physiques imminentes » pendant une urgence de santé publique mondiale est conforme aux valeurs de Meta et à ses responsabilités en matière de droits humains. Le Conseil a d’abord évalué s’il serait préférable que Meta adopte une approche localisée des fausses informations sur le COVID-19 à grande échelle. Cependant, Meta a insisté sur le fait que cela nuirait considérablement à la clarté et à l’équité et augmenterait les erreurs de mise en application de sa politique. Il se peut que les inquiétudes de Meta soient justifiées. Toutefois, en écartant cette option, Meta a entravé les efforts fournis par le Conseil pour concilier les points de vue divergents des parties prenantes et des membres du Conseil sur la meilleure façon de lutter contre les fausses informations nuisibles sur le COVID-19 tout en respectant les droits humains, en particulier le droit à la liberté d’expression. Les 18 recommandations de cet avis consultatif en matière de politique, la plupart résumées ci-dessous, tiennent compte de cette contrainte.
Le Conseil recommande à Meta de :
Continuer à supprimer les fausses informations sur le COVID-19 « susceptibles de contribuer directement au risque de blessures physiques imminentes pendant une urgence de santé publique mondiale », tout en examinant et en réévaluant de manière transparente et inclusive les 80 affirmations que l’entreprise supprime actuellement. Les urgences de santé publique sont une menace directe pour la santé. Meta insistant sur le fait qu’il est préférable d’adopter une approche unique et internationale des fausses informations sur le COVID-19, le Conseil estime que Meta a raison de prendre des mesures exceptionnelles pour supprimer les fausses informations susceptibles de contribuer directement au risque de blessures physiques imminentes, tel que cela est déterminé par les autorités de santé publique. Meta n’a pas de nouveau fait appel aux autorités de santé publique compétentes pour leur demander de réévaluer les affirmations supprimées. L’entreprise n’a pas non plus consulté les différentes parties prenantes ni des spécialistes pour réévaluer les affirmations individuelles ou la politique globale. Meta n’ayant pas encore engagé de processus de diligence raisonnable pour modifier sa politique (qui relève en premier lieu de la responsabilité de Meta), le Conseil n’est pas en mesure de recommander un changement de politique, car cela pourrait affecter de manière disproportionnée les plus vulnérables.
Toutefois, maintenant que nous n’en sommes plus aux premiers stades de la crise, et afin de s’acquitter de ses responsabilités en matière de droits humains, Meta devrait régulièrement évaluer si les critères de suppression définis dans ses politiques continuent d’être respectés. L’entreprise devrait donc engager un processus transparent pour passer en revue régulièrement les 80 affirmations susceptibles d’être supprimées en consultant un large éventail de parties prenantes. Ce n’est que lorsque les parties prenantes fournissent des preuves claires du potentiel d’une affirmation de causer des blessures physiques imminentes qu’il est justifié de l’inclure dans la liste des affirmations susceptibles d’être supprimées. Meta doit partager les résultats de ces examens périodiques avec le public.
Penser à localiser son approche. Meta doit prévoir quoi faire lorsque l’OMS cessera de déclarer le COVID-19 comme une urgence de santé mondiale, mais les autorités de santé publique locales continueront de le désigner comme une urgence de santé publique. Le Conseil recommande de mettre en place un processus d’évaluation des risques pour identifier les mesures à prendre dans ce cas de figure. Ces mesures doivent lutter contre les fausses informations susceptibles de contribuer directement au risque de blessures imminentes et importantes dans le monde réel, et ce, sans compromettre la liberté d’expression à l’échelle mondiale. Dans le cadre de cette évaluation des risques, Meta devra se demander s’il pourrait convenir de localiser la mise en application de ses politiques.
Évaluer l’impact de l’architecture de ses plateformes. Les spécialistes s’inquiètent du fait que l’architecture des plateformes de Meta constitue un tremplin pour les fausses informations sur la santé. Le Conseil recommande donc à Meta d’évaluer l’impact de ses choix en matière de conception sur les droits humains. L’entreprise devrait évaluer la manière dont son fil d’actualité, ses algorithmes de recommandation et d’autres fonctionnalités amplifient les fausses informations sur la santé, ainsi que leur impact sur les droits humains.
Faire preuve de davantage de transparence concernant les demandes des gouvernements. En pleine pandémie, il a été soulevé que Meta examinait certains contenus liés au COVID-19 à la demande des gouvernements. Cela est particulièrement problématique lorsque les gouvernements demandent à réprimer des manifestants pacifiques ou des personnes qui défendent les droits humains, à contrôler les conversations sur les origines de la pandémie et à faire taire les personnes qui critiquent ou remettent en question les politiques du gouvernement en réponse aux crises de santé publique. Les Nations Unies se sont inquiétées du fait que certains gouvernements utilisaient la pandémie en tant que prétexte pour nuire aux principes de la démocratie. Meta doit faire preuve de transparence et rapporter régulièrement les demandes des gouvernements d’examiner le contenu dans le cadre de sa politique de « fausses informations sur la santé pendant les urgences de santé publique ».
Soutenir la recherche indépendante et sensibiliser le public aux fausses informations sur le COVID-19. Selon les spécialistes, le manque d’accès aux données et aux recherches de l’entreprise entrave les efforts généraux de sensibilisation aux fausses informations sur le COVID-19, ainsi que l’efficacité des mesures prises par Meta pour y remédier. Le manque de données a également compliqué l’évaluation par le Conseil du bien-fondé de cette demande d’avis consultatif en matière de politique. Le Conseil reconnaît que par rapport à d’autres entreprises de réseaux sociaux, Meta a pris des mesures importantes pour partager ses données avec des équipes de recherche externes, beaucoup ayant d’ailleurs fait part au Conseil de l’importance d’outils Meta tels que CrowdTangle et Facebook Open Research and Transparency (FORT) pour leurs recherches. D’autres se sont toutefois plaintes de la difficulté d’accès à des outils tels que FORT. Meta doit non seulement continuer à rendre ces outils disponibles, mais aussi améliorer leur accessibilité et permettre aux équipes de recherche externes d’accéder à des données qui ne sont pas publiques. Le Conseil recommande également à l’entreprise de mener des recherches et de publier des données sur la façon dont elle met en application ses politiques en matière de COVID-19, ainsi que de publier les résultats de ses recherches sur les « étiquettes neutres » partagées avec le Conseil. Enfin, le Conseil recommande à Meta de prendre des mesures pour étendre l’accès aux données de l’entreprise au programme Global Majority, parfois appelé Global South, aux équipes de recherche et aux universités, ainsi que de soutenir les programmes d’alphabétisation numérique du monde entier.
Faire preuve de davantage d’équité, de clarté et de cohérence quant à la suppression des fausses informations sur le COVID-19. Pour s’acquitter de ses responsabilités en matière de droits humains, Meta doit également s’assurer que ses règles sont claires pour tout le monde. Dans cette optique, l’entreprise doit expliquer clairement en quoi chaque catégorie d’affirmations sur le COVID-19 qu’elle supprime présente un risque de blessures physiques imminentes. Elle doit également expliquer comment elle détermine qu’une affirmation est fausse et garder une trace de toute modification apportée à la liste des affirmations qu’elle supprime. Pour une mise en application cohérente de ses règles dans toutes les langues et régions, l’entreprise doit traduire ses conseils internes pour les équipes de modération du contenu dans toutes les langues dans lesquelles elle opère. Meta doit également protéger le droit de chaque personne de faire appel des étiquettes des médias de vérification, en veillant à ce que leurs appels ne soient pas examinés par la personne qui a pris la décision initiale.
II. Demande de Meta
1. Cette demande d’avis consultatif en matière de politique évoque la politique de Meta relative aux fausses informations sur le COVID-19, telles que décrites dans la politique de l’entreprise en matière de fausses informations sur la santé pendant les urgences de santé publique.Cette politique fait partie de l’initiative du Standard de la communauté sur les fausses informations. En juillet 2022, Meta a adressé au Conseil une demande d’avis consultatif sur cette politique, lui demandant si elle devait continuer à supprimer certains contenus sur le COVID-19 dans le cadre de cette politique ou si une approche moins restrictive correspondrait mieux aux valeurs de l’entreprise et à ses responsabilités en matière de droits humains.
2. Meta a expliqué dans sa demande qu’en vertu de la politique en matière de fausses informations sur la santé pendant les urgences de santé publique, elle supprime les fausses informations lorsqu’elles sont « susceptibles de contribuer directement au risque de blessures physiques imminentes » pendant une urgence de santé publique. Cette politique est expliquée plus en détail dans la section III ci-dessous. Pour déterminer si les fausses informations répondent à ce standard, l’entreprise s’associe à des autorités de santé publique disposant des connaissances et de l’expertise nécessaires pour évaluer la fausseté d’affirmations spécifiques et déterminer si elles sont susceptibles de contribuer directement au risque de blessures physiques imminentes. Cette évaluation est réalisée au niveau mondial. Meta a clairement indiqué au Conseil qu’une approche locale et à grande échelle de l’application de la politique n’était pas possible sans nuire considérablement à la clarté et à l’équité pour les utilisateurs, et augmenterait considérablement les erreurs dans l’application de la politique. Pour les fausses informations qui n’atteignent pas ce seuil élevé, Meta utilise d’autres mesures telles que les rétrogradations, l’étiquetage ou la vérification des informations.
3. Pour élaborer son approche quant aux fausses informations sur le COVID-19 de janvier 2020 à février 2021 (voir Article III, ci-dessous), Meta a consulté plus de 180 spécialistes de différentes disciplines, notamment des spécialistes en santé publique et en maladies infectieuses, des spécialistes en sécurité nationale et en sécurité publique, des chercheurs en fausses informations et désinformations, des médias de vérification, et des spécialistes en liberté d’expression et en droits numériques. Meta a également consulté les acteurs régionaux. Meta a noté des recommandations et des perspectives différentes et parfois contradictoires de la part de spécialistes de différentes disciplines et de parties prenantes de différentes régions du monde, comme cela est expliqué plus loin. Meta a déclaré qu’en adoptant la politique actuelle, elle a déterminé que les risques associés à certaines fausses informations étaient suffisamment importants pour rendre leur suppression nécessaire compte tenu de l’urgence de santé publique mondiale provoquée par la pandémie de COVID-19. Dans sa demande au Conseil, Meta explique que le paysage entourant le COVID-19 a changé depuis que Meta a décidé de supprimer certaines fausses informations sur le COVID-19 il y a plus de deux ans. Ces modifications ont incité l’entreprise à se demander s’il était encore nécessaire de supprimer ces fausses informations. Meta a soumis trois modifications à l’attention du Conseil.
4. Tout d’abord, selon Meta, un changement s’est opéré dans l’écosystème de l’information du COVID-19. Au début de la pandémie, l’absence de conseils faisant autorité a créé un vide d’information qui a favorisé la diffusion de fausses informations. Aujourd’hui, l’entreprise a constaté que beaucoup de choses ont changé. Les personnes ont accès à des informations fiables sur le virus et les autorités de santé publique qui peuvent informer et influencer le comportement des personnes à risque.
5. Deuxièmement, Meta a noté que grâce aux vaccins et à l’évolution des variants de la maladie, le COVID-19 est moins mortel qu’il ne l’était au début de l’année 2020. Grâce au développement et à la distribution de vaccins efficaces, il existe désormais un moyen de prévenir et de réduire la gravité des symptômes du COVID-19. En outre, selon les spécialistes en santé publique, les variants actuels provoquent des maladies moins graves que les variants antérieurs, et les traitements thérapeutiques évoluent rapidement.
6. Troisièmement, Meta a déclaré que les autorités de santé publique évaluent activement si le COVID-19 a évolué vers un état moins grave et que « certaines autorités de santé publique notent que certaines régions du monde ont commencé à passer à un état moins grave de la pandémie ». (Demande d’avis consultatif sur la politique de Meta, page 14) Meta a cité des déclarations faites par le Dr. Anthony Fauci aux États-Unis, la Commission européenne et le ministre thaïlandais de la santé publique, à l’appui de cette observation.
7. Toutefois, Meta a reconnu que l’évolution de la pandémie a été différente d’un pays à l’autre. Dans la demande qu’elle a adressée au Conseil, l’entreprise a écrit ce qui suit :
Alors que les vaccins, les traitements médicaux et les conseils faisant autorité sont de plus en plus disponibles dans les pays à revenu élevé, les spécialistes prévoient que l’accès sera plus difficile pour les habitants des pays à faible revenu dont les systèmes de santé sont moins développés. L’écart le plus important à l’heure actuelle se situe entre les pays développés, (...) et les pays moins développés. (...) 80 % des habitants des pays à revenu élevé ont reçu au moins une dose de vaccin, contre seulement 13 % des habitants des pays à faible revenu. Les pays à faible revenu sont également plus susceptibles d’avoir des systèmes de soins de santé moins performants, des économies moins robustes et une confiance moindre dans les conseils du gouvernement, autant de facteurs qui compliqueront la vaccination et le traitement des personnes ayant contracté le COVID-19.
(Demande d’avis consultatif sur la politique de Meta, page 3)
Les questions de Meta au Conseil
8. Compte tenu de ce qui précède, Meta a présenté les options politiques suivantes au Conseil pour qu’il les examine. L’article III ci-dessous fournit plus de détails sur ces mesures :
- Continuer à supprimer certaines fausses informations sur le COVID-19 : Il s’agirait de poursuivre l’approche actuelle de Meta, qui consiste à supprimer les faux contenus « susceptibles de contribuer directement au risque de blessures physiques imminentes dans le cadre d’une urgence de santé publique ». Meta affirme que, dans le cadre de cette option, l’entreprise finirait par cesser de supprimer les fausses informations lorsqu’elles ne présentent plus de risque de blessures physiques imminentes et demande au Conseil de l’éclairer sur la manière dont l’entreprise devrait procéder à cette détermination.
- Mesures de réduction d’urgence temporaires : Si cette option est choisie, Meta réduirait sa diffusion des fausses informations sur le COVID-19 plutôt que de les supprimer. Il s’agirait d’une mesure temporaire et l’entreprise demanderait au Conseil de lui indiquer quand arrêter de l’utiliser si elle est adoptée.
- Vérification des informations par des tiers : Si cette option est choisie, le contenu actuellement sujet à suppression serait envoyé à des médias de vérification indépendants pour évaluation. Dans sa demande au Conseil, Meta note que « le nombre de médias de vérification disponibles pour évaluer le contenu sera toujours limité. Si cette option est choisie, les médias de vérification ne pourraient pas examiner tout le contenu sur le COVID-19 sur nos plateformes, et certains d’entre eux ne seraient donc pas vérifiés, rétrogradés ni étiquetés. » (Demande d’avis consultatif sur la politique de Meta, page 16)
- Étiquettes : Si cette option est choisie, Meta ajouterait des étiquettes au contenu. Ces étiquettes n’empêcheraient pas les utilisateurs de voir le contenu, mais comprendraient des liens directs vers des informations officielles. Meta considère qu’il s’agit d’une mesure temporaire et aimerait que le Conseil lui indique sur quels facteurs se baser pour décider d’arrêter d’utiliser ces étiquettes.
9. Meta a déclaré que chacune de ces options présente à la fois des avantages et des inconvénients, notamment en termes d’évolutivité, de précision et de quantité de contenu concerné. L’entreprise a vivement insisté sur le fait que la politique devait être adaptée à toutes les régions, tout en étant cohérente et réalisable au niveau mondial. En ce qui concerne les politiques nationales, Meta a déclaré que : « Pour des raisons techniques, nous recommandons fortement de maintenir des politiques globales concernant le COVID-19, plutôt que des politiques spécifiques à un pays ou à une région. Dans la demande qu’elle a adressée au Conseil, Meta a déclaré : « L’application des politiques au niveau national peut conduire à la fois à une application excessive lorsqu’un groupe d’évaluateurs de marché couvre plusieurs pays, et à une application insuffisante parce que le contenu peut se propager à travers les pays et les régions ». (Demande d’avis consultatif sur la politique de Meta, page 17, note de bas de page 37). (Pour plus d’informations sur l’application à grande échelle et localisée, voir le paragraphe 61 ci-dessous).
III. La politique de Meta sur les fausses informations sur la santé pendant les urgences de santé publique
10. À la suite de la pandémie de COVID-19 et d’une vague de fausses informations observée sur ses plateformes, Meta a commencé à supprimer les fausses informations sur le COVID-19 en janvier 2020. Sa politique et les types d’allégations susceptibles d’être supprimées ont évolué au cours des deux années suivantes et ont abouti à la section actuelle sur les fausses informations sur la santé pendant les urgences de santé publique du Standard de la communauté relatif aux Fausses informations, ainsi qu’à la page des Pages d’aide qui l’accompagne.
11. Le Standard de la communauté relatif aux fausses informations commence par une justification de la politique qui explique l’approche de Meta en matière de fausses informations, y compris l’utilisation de suppressions, de vérifications des faits, de rétrogradations et d’étiquettes en tant que mesures d’application. Selon l’entreprise, elle ne supprime les fausses informations que lorsqu’elles « sont susceptibles de contribuer directement au risque de blessures physiques imminentes ». La politique identifie ensuite quatre types de fausses informations susceptibles d’être supprimées : (1) Blessures physiques ou violence ; (2) Fausses informations nuisibles pour la santé ; (3) Ingérence des électeurs ou des recensements ; et (4) manipulation du contenu multimédia (emphase ajoutée).
12. La section sur les Fausses informations sur la santé du Standard de la communauté relatif aux Fausses informations comporte trois sous-catégories : (i) les fausses informations sur les vaccins ; (ii) les fausses informations sur la santé pendant les urgences de santé publique ; et (iii) la promotion ou la défense de remèdes miracles nocifs pour les problèmes de santé (emphase ajoutée). Bien que d’autres Standards de la communauté puissent s’appliquer aux réclamations relatives à la pandémie de COVID-19, le présent avis porte exclusivement sur la section fausses informations sur la santé pendant les urgences de santé publique de la politique relative aux fausses informations, dans la mesure où elle s’applique à la pandémie de COVID-19. Il ne doit pas être interprété comme une référence à d’autres politiques.
Suppression des affirmations de fausses informations sur le COVID-19
13. La politique sur les fausses informations sur la santé pendant les urgences de santé publiqueindique :
Nous supprimons les fausses informations diffusées lors d’urgences sanitaires publiques lorsque les autorités sanitaires publiques déduisent que les informations sont fausses et susceptibles de contribuer au risque direct de blessures physiques imminentes, notamment en favorisant le risque que les personnes contractent ou propagent une maladie dangereuse ou refusent un vaccin pour la contrer. Nous identifions les urgences de santé publique en partenariat avec les autorités sanitaires mondiales et locales. Cela inclut actuellement les fausses affirmations liées au COVID-19 qui sont vérifiées par des autorités sanitaires spécialisées, concernant l’existence ou la gravité du virus, la manière de le guérir ou de le prévenir, le mode de transmission du virus ou les personnes immunisées, ainsi que les fausses affirmations qui déconseillent de suivre les recommandations sanitaires liées au COVID-19 (comme le fait de se faire tester, la distanciation sociale, le port d’un masque facial et de se faire vacciner contre le COVID-19). Cliquez ici pour consulter une liste exhaustive des règles concernant les fausses informations que nous n’autorisons pas concernant le COVID-19 et les vaccins.
14. Dans le cadre de cette politique, Meta supprime les fausses informations lorsque trois éléments sont réunis : (1) il s’agit d’une urgence de santé publique ; 2) la déclaration est fausse ; et 3) la déclaration est susceptible de contribuer directement au risque de blessures physiques imminentes. En appliquant ce standard à la pandémie de COVID-19, Meta s’est appuyée sur les conclusions des autorités de santé publique pour identifier environ 80 déclarations susceptibles d’être supprimées. Ces déclarations, qui sont régulièrement mises à jour, et les questions courantes sur la manière dont la politique est appliquée, sont disponibles sur cette page des Pages d’aide.
15. Comme indiqué dans la politique, ces 80 déclarations sont classées dans les cinq catégories suivantes : (1) les déclarations concernant l’existence ou la gravité du COVID-19, y compris les déclarations qui nient l’existence du COVID-19 ou en minimisent la gravité, par exemple les déclarations selon lesquelles personne n’est mort du COVID-19 ; (2) la transmission et l’immunité du COVID-19, y compris les déclarations selon lesquelles le COVID-19 est transmis par les technologies 5G ; (3) les remèdes ou méthodes de prévention garantis pour le COVID-19, tels que ceux qui affirment que les crèmes topiques peuvent guérir ou prévenir l’infection par le coronavirus ; (4) décourager les bonnes pratiques en matière de santé, par exemple en affirmant que les masques de protection contiennent des nano vers nocifs ou que les vaccins contre le COVID-19 modifient l’ADN des personnes ou provoquent du magnétisme ; (5) l’accès aux services de santé essentiels, ce qui inclut les déclarations selon lesquelles les hôpitaux tuent des patients pour obtenir plus d’argent ou pour vendre leurs organes.
16. Meta a expliqué dans sa demande qu’elle s’appuie sur les éléments suivants pour déterminer s’il existe une situation d’urgence en matière de santé publique : (1) si l’Organisation mondiale de la santé (OMS) a déclaré une urgence de santé publique ; (2) si l’OMS a désigné une maladie comme étant transmissible, mortelle ou à haut risque ; ou (3) dans le cas où l’évaluation du risque par l’OMS n’est pas disponible, Meta s’en remet à la désignation par les autorités sanitaires locales d’une urgence de santé publique pour un pays donné. Comme l’a expliqué Meta, l’OMS a informé l’entreprise que, lors d’une situation d’urgence déclarée, « il existe un risque élevé de blessures physiques irréversibles pour les individus lorsque le risque d’exposition, le taux de transmission, l’association entre l’exposition et le risque, et les taux de morbidité et de mortalité sont anormalement élevés ». (Demande d’avis consultatif en matière de politique de Meta, page 6) L’OMS a déclaré l’épidémie de COVID-19 « urgence de santé publique de portée internationale » le 30 janvier 2020.
17. Selon sa politique, dans le contexte des urgences de santé publique, Meta s’en remet aux autorités expertes en matière de santé publique pour déterminer la fausseté et si une fausse déclaration est « susceptible de contribuer directement à un risque de blessures physiques imminentes ». Meta a informé le Conseil qu’elle s’appuie sur des spécialistes en santé publique, tels que l’OMS et les Centres américains pour le contrôle et la prévention des maladies (CDC), dans le cadre de l’évaluation des déclarations faisant actuellement l’objet d’une suppression. Dans le passé, Meta a également consulté, par exemple, les responsables nationaux de l’UNICEF et le ministère national de la santé du Pakistan (demande d’avis consultatif en matière de politique de Meta, page 6). D’après les échantillons de correspondance entre Meta et une autorité de santé publique que le Conseil a examinés, Meta identifie les déclarations, en partie grâce à la surveillance de ses plateformes, et les soumet à l’évaluation des organismes de santé publique, au lieu que les autorités de santé publique elles-mêmes identifient ou définissent les déclarations qui devraient être supprimées. Dans un exemple d’échange avec une autorité de santé publique fournissant cette évaluation, Meta a identifié une déclaration (selon laquelle les vaccins COVID-19 provoquent des crises cardiaques) et a demandé à l’autorité de santé publique si elle était fausse et si elle pouvait conduire à un refus de vaccination. L’autorité de santé publique a répondu en fournissant des sources et des analyses à l’appui de la conclusion selon laquelle « il n’existe aucune preuve que les vaccins COVID-19 provoquent des crises cardiaques ». Elle a signalé des cas de myocardite (inflammation du muscle cardiaque) après la vaccination, en particulier chez les adolescents et les jeunes adultes de sexe masculin. L’autorité de santé publique a également conclu que « la crainte infondée que les vaccins provoquent des crises cardiaques (infarctus du myocarde) ou d’autres problèmes cardiaques pourrait conduire à un refus de vaccination ».
18. La politique relative aux fausses informations de Meta comporte des exceptions, en vertu desquelles l’entreprise exempte certains types de discours de la suppression. Par exemple, les déclarations axées sur la politique ou les décisions politiques, telles que « les mandats COVID ne fonctionnent pas » ou « les fabricants de vaccins veulent juste se remplir les poches », sont autorisées. Les contenus partagés avec un humour explicite et satirique, par exemple « Seul le sang de Brad Pitt peut guérir le COVID [deux émojis de rire et de pleurs] », n’enfreignent pas la politique. Les affirmations qui expriment une anecdote ou une expérience personnelle sont autorisées lorsque : le contenu partage une expérience personnelle d’une personne spécifique ; l’identité de la personne est explicitement mentionnée dans la publication ; et le contenu ne fait pas d’affirmation catégorique ou n’inclut pas d’appel à l’action. Les contenus spéculatifs, interrogatifs ou exprimant une incertitude, par exemple « Les vaccins provoquent-ils l’autisme ? » sont également autorisés.
19. Meta s’appuie sur son système habituel d’application à grande échelle d’outils automatisés (ou classificateurs), de modérateurs de contenu et d’équipes internes de remontée pour supprimer les déclarations énumérées dans le cadre de la politique en matière de fausses informations. L’entreprise a informé le Conseil qu’elle avait formé des classificateurs dans 19 langues pour identifier les infractions probables à cette politique. Les modérateurs de contenu qui appliquent la politique en matière de fausses informations disposent de règles internes, notamment sur la manière d’identifier le contenu qui doit rester sur la plateforme en tant qu’humour, satire ou anecdote personnelle, comme l’explique la page des Pages d’aide. Lorsqu’un contenu est supprimé, l’utilisateur a la possibilité d’exprimer son « désaccord avec la décision ». L’examen n’est pas garanti, mais certaines décisions sont examinées en appel lorsque les capacités le permettent. Meta a informé le Conseil qu’entre mars 2020 et juillet 2022, l’entreprise a supprimé 27 millions de contenus pour fausses informations sur le COVID-19 sur Facebook et Instagram. Sur les 27 millions de suppressions, 1,3 million ont été rétablies grâce aux recours qu’elle a pu évaluer.
Vérification tierce et rétrogradation des fausses informations
20. Les contenus qui ne relèvent pas de la liste des déclarations susceptibles d’être supprimées mais qui peuvent constituer des fausses informations sur le COVID-19 font l’objet d’une vérification tierce. La technologie de machine learning détecte les publications susceptibles d’être des fausses informations et les envoie à la vérification tierce. Meta s’associe à des organismes indépendants de vérification des informations pour examiner et étiqueter le contenu. L’entreprise n’évalue pas les performances des médias de vérification. Elle s’appuie sur le réseau international de média de vérification ( IFCN) pour évaluer les organisations et garantir la qualité. Les organisations de vérification des informations sont évaluées par l’IFCN en fonction de leur conformité à un code de principes qui comprend un engagement à l’impartialité et à l’équité, la transparence des sources, la transparence du financement et une politique de correction ouverte et honnête.
21. Le contenu envoyé à la file d’attente de vérification des informations peut temporairement apparaître plus bas dans les fils des utilisateurs, en particulier s’il devient viral, avant d’être examiné. Meta utilise un algorithme de classement pour donner la priorité aux contenus destinés aux médias de vérification, et les contenus viraux sont prioritaires dans la file d’attente des médias de vérification. En réponse à la question du Conseil, Meta l’a informé qu’une grande majorité des contenus en attente de vérification ne sont jamais examinés par les médias de vérification. Selon Meta, la plupart des contenus de la file d’attente ne sont pas faux, une affirmation pour laquelle Meta n’a pas fourni de preuves. Selon Meta, les partenaires de la vérification des informations donnent la priorité aux affirmations manifestement fausses ou aux infox évidentes qui ne reposent sur aucun fait et qui sont d’actualité, en vogue et importantes. Les médias de vérification peuvent également trouver des contenus à examiner de leur propre initiative, en dehors de la file d’attente fournie par Meta.
22. Les publications et les publicités émanant de personnalités politiques ne sont pas éligibles à la vérification des informations. Meta définit les « personnalités politiques » comme des candidats et candidates aux élections, les personnes élues et, par extension, bon nombre des personnes qui les représentent, ainsi que les partis politiques et leurs leaders. » Selon Meta, cette politique est mise en place parce que « le discours politique [dans les démocraties matures où la presse est libre] est le discours le plus examiné qui soit [et] limiter le discours politique [...] laisserait les personnes moins informées de ce que disent leurs représentants élus et rendrait les personnalités politiques moins responsables de leurs paroles ».
23. Les médias de vérification peuvent évaluer le contenu comme étant « faux », « altéré », « partiellement faux » ou « manquant de contexte ». Meta étiquettera le contenu en conséquence et fournira un lien vers l’article du média de vérification sur le sujet. Pour lire l’article, l’utilisateur doit quitter Facebook et se rendre sur une autre page, ce qui nécessite l’utilisation de données supplémentaires. Cela implique des coûts supplémentaires pour certains utilisateurs, dans les pays où les plateformes de Meta sont détaxées (c’est-à-dire que les utilisateurs ne paient pas de frais de données ou autres pour l’accès mobile aux applications de Meta). Les contenus étiquetés « faux » et « altérés » sont couverts par un écran d’avertissement qui masque le contenu, obligeant l’utilisateur à cliquer pour le voir. Les contenus étiquetés « partiellement faux » et « manquant de contexte » ne sont pas masqués. Meta a déclaré au Conseil qu’au cours de la période de 90 jours précédant le 9 décembre 2022, pour les publications dont le contenu est étiqueté « faux » ou « altéré » et qui sont recouvertes d’un écran masquant le contenu, 10 % des utilisateurs de Facebook et 43 % des utilisateurs d’Instagram ont découvert la publication pour en voir le contenu. Au cours de la même période, Meta a signalé que pour les publications ayant reçu une étiquette « faux », « altéré », « partiellement faux » ou « contexte manquant », en moyenne 3 % des utilisateurs de Facebook et 19 % des utilisateurs d’Instagram ont cliqué sur l’invite « Voir pourquoi ». L’utilisateur accède alors à un écran distinct qui fournit des informations sur les raisons pour lesquelles le contenu a été évalué et des liens vers l’article du média de vérification.
24. Lorsqu’un contenu est étiqueté par des médias de vérification, Meta le classe plus bas dans les fils des utilisateurs. La force de rétrogradation appliquée aux fausses informations COVID-19 étiquetées « fausses », « altérées » et « partiellement fausses » est plus élevée que celle appliquée au contenu étiqueté « manquant de contexte ». Selon Meta, l’effet de la rétrogradation sur l’emplacement d’un contenu dans le fil d’un utilisateur varie. Le contenu qu’un utilisateur voit est personnalisé en fonction de lui, l’objectif étant, selon Meta, de lui montrer le contenu qui est le plus susceptible de l’intéresser. La rétrogradation d’un contenu se traduirait par une diminution de son score de classement. Cela ne signifie pas que le contenu aura un nombre ou un pourcentage spécifique de vues en moins. La probabilité qu’un utilisateur particulier voie un contenu qui a été rétrogradé dépend de l’importance du classement de ce contenu par rapport aux autres contenus présents dans le fil de l’utilisateur. Par conséquent, les rétrogradations ont un impact différent sur un contenu en fonction de l’utilisateur et de son inventaire de contenu. Lorsqu’un contenu est partagé dans un groupe ou par un utilisateur ayant un grand nombre de followers, son score de classement pour ceux qui suivent et interagissent régulièrement avec le groupe ou la page sera probablement plus élevé ou similaire au score de classement des autres contenus du fil. Cela signifie que la rétrogradation peut ne pas avoir l’effet escompté.
25. Lorsqu’un média de vérification détermine que le contenu créé par une page ou un groupe enfreint la politique en matière de fausses informations de l’entreprise, les gestionnaires de la page ou les admins du groupe peuvent faire appel. Les profils Facebook n’ont pas la possibilité de faire appel à une étiquette de vérification des informations. Les infractions collectives peuvent faire l’objet d’un recours via l’application Facebook sur IOS et Android ou via le navigateur web. Les infractions de page ne peuvent pas faire l’objet d’un recours par le biais d’un navigateur web. Selon lesPages d’aide Facebook, « cette fonctionnalité d’appel dans le produit n’est disponible que pour les admins de groupes et les gestionnaires de pages dans certains pays pour l’instant. Toute autre personne peut encore soumettre des appels aux médias de vérification par e-mail ».
26. Dans sa demande au Conseil, Meta a expliqué que le nombre de médias de vérification disponibles pour évaluer le contenu sera toujours limité. En demandant au Conseil d’évaluer les différentes approches disponibles pour traiter les fausses informations sur le COVID-19, Meta a expliqué que si l’entreprise devait s’appuyer exclusivement ou principalement sur la vérification des informations, les médias de vérification ne seraient pas en mesure d’examiner tous les contenus relatifs au COVID-19 sur les plateformes. Certaines fausses informations ne seraient donc pas vérifiées, rétrogradées et étiquetées.
Application des étiquettes
27. Meta applique également deux types de ce qu’elle appelle des « traitements des informations neutres » (TIN) : les étiquettes de traitement neutres et les FAXIT (Faits concernant les traitements X informés). Ils sont appliqués directement par Meta et ne font pas appel à des médias de vérification. Les FAXIT fournissent une déclaration personnalisée sur le contenu partagé dans la publication avant de diriger l’utilisateur vers le centre d’information. Meta a deux étiquettes FAXIT : (1) « Les vaccins COVID-19 subissent de nombreux tests de sécurité et d’efficacité et sont ensuite étroitement surveillés » ; et (2) « Certains traitements contre le COVID-19 non approuvés peuvent causer de graves blessures ». Une étiquette est placée sur tout contenu qu’un classificateur identifie comme discutant de COVID-19. Le contenu peut être vrai ou faux et l’étiquette ne fait aucune déclaration sur le contenu en particulier. Tous les NIT dirigent les utilisateurs vers le centre d’information COVID-19 de Meta.
28. Au cours des discussions concernant cette demande d’avis consultatif en matière de politique, Meta a informé le Conseil qu’elle réduirait ses NIT à compter du 19 décembre 2022. La décision a été prise sur la base d’une expérience globale menée par les équipes Produit et Intégrité de Meta sur l’efficacité des NIT pour limiter la prévalence des fausses informations sur le COVID-19 sur la plateforme. Le test a porté sur un groupe de contrôle qui a continué à voir les NIT COVID-19 sans aucune limitation. Trois groupes de test supplémentaires ont également été constitués : premièrement, un groupe qui pouvait voir une étiquette de chaque NIT COVID-19 tous les trois jours ; deuxièmement, un groupe qui pouvait voir une étiquette de chaque NIT COVID-19 tous les 30 jours ; et troisièmement, un groupe qui ne voyait pas d’étiquettes du tout. Selon l’entreprise, le deuxième groupe (celui qui pouvait voir chacun des NIT tous les 30 jours) présentait le taux de clics moyen le plus élevé vers des informations faisant autorité parmi tous les groupes, y compris le groupe de contrôle. Le temps moyen passé à regarder les NIT était également le plus élevé pour ce groupe. En outre, il n’y a pas eu de « régression statistiquement significative » de la prévalence des fausses informations sur le COVID-19 entre le groupe de contrôle et les groupes test. Sur la base des résultats de l’expérience, Meta a informé le Conseil qu’elle avait plafonné le nombre de NIT COVID-19 que les utilisateurs pouvaient voir sur leurs plateformes à un de chaque type d’étiquette COVID-19 tous les 30 jours, à compter du 19 décembre 2022. Par la suite, Meta a informé le Conseil que l’entreprise avait cessé d’utiliser tous les NIT COVID-19, afin que les utilisateurs puissent être exposés à un volume réduit d’étiquettes. Il s’agit de s’assurer que les NIT sont également efficaces dans d’autres crises de santé publique.
Sanctions
29. Meta applique des sanctions au niveau du compte et du groupe qui ont un impact sur la diffusion de fausses informations. Un profil, une page ou un groupe qui publie un contenu supprimé ou qualifié de « faux » ou « altéré » dans le cadre de cette politique recevra une « pénalité » et sera retiré des recommandations, ne pourra pas monétiser, et des fenêtres contextuelles commenceront à apparaître aux visiteurs de la page ou du groupe pour les informer que cette page a partagé des fausses informations, dès qu’un seuil de « pénalité » sera atteint. Selon la page des Pages d’aide, les pages, groupes et comptes Instagram peuvent également être supprimés s’ils ont partagé du contenu enfreignant les politiques en matière de COVID-19 et de vaccins et s’ils se consacrent également au partage sur la plateforme d’autres informations décourageant la vaccination. »
IV. Engagement externe
30. Au cours de l’élaboration du présent avis consultatif en matière de politique, le Conseil de surveillance s’est engagé de plusieurs manières avec les parties prenantes et avec Meta.
Commentaires publics
31. En août 2022, le Conseil de surveillance a reçu 181 commentaires publics concernant le présent avis consultatif en matière de politique. Quatre de ces commentaires provenaient d’Amérique latine et des Caraïbes, cinq d’Asie centrale et du Sud, huit d’Asie-Pacifique et d’Océanie, 81 d’Europe et 83 des États-Unis et du Canada. Le Conseil n’a reçu aucun commentaire public du Moyen-Orient et de l’Afrique du Nord, ni de l’Afrique subsaharienne.
32. Les questions couvertes par les soumissions comprenaient :
- Une contribution du Khazanah Research Institute (PC-10703), un institut de recherche politique en Malaisie, a mis en évidence les différents niveaux d’accès à des informations fiables sur la santé dans différents pays et les différents niveaux de risque liés au fait de laisser les fausses informations sans modération. S’il doit y avoir une approche globale, la soumission recommande à Meta de faire preuve de prudence et de continuer à supprimer les fausses informations sur le COVID-19 qui sont préjudiciables. Le rapport fait également état de l’absence de définition claire de l’expression « blessures physiques imminentes » et souligne l’importance de la compréhension du contexte, d’un contrôle continu et de la transparence de l’application de la loi pour garantir une évaluation efficace de l’utilisation de ce standard.
- L’American Civil Liberties Union (PC-10759) craint que la difficulté de distinguer, à grande échelle, entre les faits et la fiction, et entre l’opinion, l’expérience et l’affirmation d’un fait, signifie que Meta étouffera des discours qui devraient être autorisés.
- L’organisation américaine à but non lucratif Asian Americans Advancing Justice (PC-10751) a fait remarquer que les Américains d’origine asiatique étaient les boucs émissaires, car considérés responsables de l’introduction du virus aux États-Unis.
- Une contribution du professeur Simon Wood de l’université d’Édimbourg (PC-10713) a mis en évidence les préoccupations selon lesquelles les médias de vérification n’ont pas les connaissances techniques suffisantes pour vérifier efficacement des documents et des preuves scientifiques complexes.
- La demande de Media Matters for America (PC-10758) a attiré l’attention sur l’impact du système de contre-vérification de Meta, qui sape les efforts déployés pour lutter contre les fausses informations. Les célébrités, les personnalités politiques, les journalistes et d’autres utilisateurs importants bénéficiant d’une « application plus lente ou plus indulgente » en cas de violation de contenu, les fausses informations ont pu rester sur la plateforme.
- Plusieurs contributions ont souligné la responsabilité de Meta dans la gestion des risques pour la sécurité publique, compte tenu de sa portée et du rôle de ses systèmes dans l’amplification des fausses informations. Des inquiétudes ont été exprimées quant à l’adéquation des étiquettes et des rétrogradations par rapport au risque de blessures. Par exemple, la soumission du premier vice-président du Center of Internet and International Studies (PC-10673) a mis en évidence les préoccupations selon lesquelles les étiquettes sont insuffisantes pour lutter contre les fausses informations diffusées par les personnalités politiques et les influenceurs importants. En effet, « le simple fait d’étiqueter la publication est insuffisant au regard du risque potentiel. Permettre la publication de fausses informations qui augmentent les risques de décès ou de maladie grave est une abdication de responsabilité ».
- Plusieurs contributions ont recommandé de s’appuyer sur les étiquettes et les rétrogradations plutôt que d’éliminer les fausses informations. Une soumission du professeur adjoint Saiph Savage de l’Université Northeastern et de l’Université nationale autonome du Mexique (UNAM) (PC-10519) a attiré l’attention sur l’impact de la politique de suppression et des sanctions associées sur les groupes et les voix autochtones, notant que les groupes autochtones « se sont exprimés différemment sur les recommandations pour traiter le COVID-19 en raison de leurs croyances religieuses ».
33. Pour lire les commentaires du public soumis pour le présent avis consultatif en matière de politique, veuillez cliquer ici.
Tables rondes régionales des parties prenantes
34. Le Conseil s’est engagé dans d’autres consultations avec les parties prenantes par le biais d’une série de tables rondes régionales. Le Conseil, en partenariat avec des organisations de la société civile, a organisé six tables rondes avec des parties prenantes d’Amérique du Nord, d’Amérique latine, d’Afrique, d’Asie et d’Europe. Dans le cadre de ces tables rondes, le Conseil s’est entretenu avec une centaine de personnes représentant des organisations de médias de vérification, des organismes et des spécialistes en santé publique, des chercheurs en fausses informations, des spécialistes en culture numérique et en communication, ainsi que des défenseurs des droits humains. Ces engagements se sont déroulés dans le cadre de la règle de Chatham House afin d’assurer une discussion franche et de protéger les participants.
35. Les thèmes et problèmes suivants sont ressortis de ces consultations :
- Les problèmes communs à toutes les régions sont les suivants : le manque de données et la difficulté de mesurer à la fois l’ampleur des fausses informations dans les pays et l’impact des politiques existantes de Meta, étant donné le manque d’accès aux données et aux recherches internes de Meta ; la quantité importante de fausses informations sur la gravité du virus, les remèdes maison ou les traitements alternatifs (y compris la promotion de l’eau de Javel), le lien entre les mesures de lutte contre la pandémie et la technologie 5G, et les fausses informations anti-vaccinales ; la crainte que la politique de retrait n’entraîne une application excessive susceptible d’étouffer la liberté d’expression ; la nécessité de s’attaquer à l’architecture sous-jacente de Facebook qui favorise les fausses informations ; le fait que les principaux diffuseurs de fausses informations ont des motifs financiers et/ou politiques de promouvoir ce contenu ; Les fausses informations sur le COVID-19 non seulement exacerbent la crise de santé publique, mais minent la confiance de la population dans les institutions, la communication scientifique et les traitements scientifiques et médicaux tels que les vaccins.
- Les problèmes identifiés par les parties prenantes en Amérique latine sont les suivants : la vérification des informations peut être efficace, mais les fausses informations sont souvent étiquetées après que le contenu a atteint le public cible ; des préoccupations ont été exprimées quant au fait que la vérification des informations n’est pas extensible et que la couverture est nettement moindre dans les langues autres que l’anglais ; le harcèlement organisé contre les scientifiques qui discréditent les fausses informations ; des médias de vérification individuels ont été menacés et harcelés, certains ont fui des pays ou des régions par crainte pour leur sécurité physique ; les organisations de vérification des informations ont été poursuivies en justice pour avoir vérifié des faits et ont dû se défendre, ce qui a épuisé leurs ressources déjà limitées ; les personnalités politiques et les personnalités importantes ne sont pas soumises à la vérification des informations ; les spécialistes en santé publique et le personnel de santé n’ont pas les connaissances ou les capacités nécessaires pour contrer efficacement les campagnes de désinformation, en particulier celles menées par des influenceurs notoires ou des acteurs ayant des intérêts politiques ou économiques, tels que la promotion de médicaments alternatifs inefficaces pour le COVID-19.
- Les problèmes identifiés par les parties prenantes en Amérique du Nord sont les suivants : les professionnels de la santé ont fait état de la pression considérable exercée sur les prestataires de soins de santé pour lutter contre les fausses informations, ce qui exige beaucoup de temps et de ressources et conduit à l’épuisement professionnel ; la nécessité de mettre en place des mécanismes de recours plus efficaces et plus équitables pour les utilisateurs dont le contenu est supprimé ; la préoccupation selon laquelle la plupart des recherches portant sur la prévalence des fausses informations et l’efficacité de diverses interventions se concentrent sur les États-Unis et l’Europe de l’Ouest ; les préoccupations soulevées par le fait que la vérification des informations n’est pas extensible et que sa couverture est nettement moindre dans les langues autres que l’anglais ; la nécessité d’une pénalisation plus efficace des comptes ; les préoccupations concernant les incohérences dans la suppression des fausses informations qui pourraient réaffirmer les théories du complot existantes ; les difficultés liées à la modération des contenus pour les formats vidéo.
- Les problèmes identifiés par les parties prenantes en Asie sont les suivants : les fausses informations étaient très répandues au début de la pandémie et se sont propagées par le biais des réseaux sociaux et des médias traditionnels ; dans de nombreux pays, les récits de fausses informations ciblent les minorités ou les populations vulnérables, telles que les travailleurs migrants ou les minorités religieuses, en tant que vecteurs du virus ; la vérification des informations ne peut pas suivre le rythme des fausses informations et arrive souvent trop tard ; les gouvernements ont utilisé les menaces liées aux fausses informations pour cibler les agences de médias et faire taire les voix dissidentes ; les articles vérifiés ne sont pas aussi accessibles ou convaincants que les contenus contenant des fausses informations ; une plus grande coordination entre les organisations de vérification des informations dans la région serait utile, car les mêmes récits ou des récits similaires se propagent d’un pays à l’autre ; les organisations de vérification des informations n’ont pas les ressources nécessaires pour fournir des articles vérifiés dans la diversité des langues parlées dans la plupart des pays.
- Les problèmes identifiés par les parties prenantes en Afrique sont les suivants : les chefs religieux en Afrique ont été des diffuseurs importants de fausses informations, tout comme les gouvernements et les partis d’opposition ; la méfiance à l’égard du gouvernement et des institutions publiques a créé un terrain fertile pour la diffusion de fausses informations ; les autorités de santé publique ont été confrontées à des défis importants dans leurs communications publiques et il y a une grande variation entre les pays en termes d’efficacité des autorités de santé publique et de disponibilité des ressources ; la vérification des informations n’est pas disponible dans toutes les langues, ce qui limite son efficacité.
- Les questions soulevées par les parties prenantes en Europe sont les suivantes : l’effet des fausses informations variera d’un pays à l’autre, en fonction des niveaux de culture numérique, de la confiance dans le gouvernement et les institutions de santé publique, et de l’ouverture de l’environnement médiatique ; certains craignent que la suppression des fausses informations n’étouffe le débat ouvert sur les questions d’intérêt public ; d’autres affirment que les populations les plus vulnérables sont les plus touchées par les fausses informations, comme les personnes immunodéprimées, les enfants, les personnes ayant une faible culture numérique, un faible accès à divers médias et les personnes n’ayant pas accès à un système de soins de santé adéquat ; les effets dissuasifs des fausses informations sur le processus décisionnel des personnes ; d’autres ont mentionné la nécessité d’adopter des mesures permettant aux personnes de discuter ouvertement des mesures de santé publique, telles que l’utilisation de masques faciaux ou la distanciation sociale ; certains ont souligné que les fausses informations retirées d’une plateforme se déplacent facilement vers une autre, et qu’une approche coordonnée est nécessaire ; la nécessité de concevoir une approche préventive, plutôt que réactive, face aux fausses informations ; la nécessité de promouvoir des informations de qualité et exactes sur les plateformes de Meta.
Engagement de Meta
36. Après que Meta a présenté sa demande d’avis consultatif en matière de politique, entre juillet et décembre 2022, le Conseil a posé 50 questions écrites à l’entreprise. Ces questions ont été abordées par Meta soit par écrit, soit oralement au cours de trois sessions de questions-réponses. Quarante questions ont reçu une réponse complète et 10 une réponse partielle. Les réponses partielles concernaient les demandes de répartition des données par région et par langue, les recherches internes sur l’efficacité des différentes mesures d’application, et la manière dont l’entreprise a pesé les considérations concurrentes et les conseils de spécialistes dans l’élaboration de sa politique. Le Conseil a posé des questions sur : Les données ou recherches internes de Meta sur la prévalence des fausses informations relatives aux COVID-19 sur les plateformes de Meta au niveau mondial et distribuées par pays et par langue ; le processus et les mesures utilisés pour appliquer la politique de suppression et les données sur le nombre de suppressions ; les rapports publics sur les données relatives à l’application du Standard de la communauté en matière de fausses informations ; le rôle des autorités de santé publique et des spécialistes dans l’élaboration et l’application de la politique de suppression ; toute recherche sur l’efficacité et l’impact de la suppression des fausses informations sur le COVID-19 ; toute recherche sur l’efficacité et l’impact d’autres mesures, y compris la vérification des informations, les étiquettes neutres et les rétrogradations ; le rôle des organisations tierces de vérification des informations ; les sanctions appliquées pour les fausses informations sur le COVID-19 ; les règles internes mettant en œuvre la politique de lutte contre les fausses informations sur le COVID-19 ; l’évaluation par l’entreprise de l’effet du programme de vérification croisée sur l’efficacité de la politique de lutte contre les fausses informations sur le COVID-19 ; le processus d’engagement des parties prenantes et les spécialistes consultés lors de l’élaboration de cette politique et la manière dont Meta a évalué les contributions reçues ; la faisabilité d’une application bifurquée de la politique, dans laquelle la suppression serait appliquée dans certains pays mais pas dans d’autres ; et les mesures alternatives supplémentaires, y compris les investissements dans l’alphabétisation numérique.
V. Cadre pour l’analyse et l’évaluation par le Conseil de la politique relative aux fausses informations sur la santé pendant les urgences de santé publique
37. Dans sa demande, Meta a demandé au Conseil si elle devait continuer à supprimer certains contenus sur le COVID-19 dans le cadre de la politique relative aux fausses informations sur la santé pendant les urgences de santé publique ou si une approche moins restrictive serait plus conforme aux valeurs de l’entreprise et à ses responsabilités en matière de droits humains. Pour répondre à cette question, le Conseil analyse si la politique est conforme aux valeurs de Meta et à ses engagements en matière de droits humains, et notamment si elle est nécessaire et proportionnée à l’heure actuelle, ou si l’entreprise devrait adopter une approche moins restrictive pour lutter contre les fausses informations sur le COVID-19. Les recommandations découlant de cette analyse sont présentées dans la dernière partie du présent avis consultatif en matière de politique.
38. En décrivant la stratégie adoptée par Meta pour élaborer sa politique en matière de fausses informations sur le COVID-19, Meta a attiré l’attention sur les divergences importantes dans l’évaluation des risques et des mesures d’atténuation entre les spécialistes de différentes disciplines et les parties prenantes de différentes régions. Dans le cadre de ses propres recherches et de l’engagement des parties prenantes, le Conseil a également entendu des positions opposées et contradictoires sur les risques liés au fait de laisser des fausses informations relatives aux COVID-19 sur les plateformes et sur l’efficacité des différentes mesures prises pour faire face à ces risques.
39. Il n’existe pas de solution unique au problème des fausses informations sur le COVID-19 et aux risques qu’elles présentent pour les droits humains, la vie et la santé, en particulier pour les plus vulnérables. Une approche plus régionale permettrait de mieux établir le lien nécessaire entre les fausses informations et les blessures physiques imminentes. Toutefois, le Conseil a dû tenir compte des observations de Meta sur les limites actuelles de ses systèmes et sur la manière dont les fausses informations sur le COVID-19 circulent dans le monde. Les membres du Conseil ont réagi différemment à ces préoccupations et le présent avis consultatif en matière de politique concilie, dans la mesure du possible, les différents points de vue au sein du Conseil. Il est le résultat d’un compromis prudent autour de la nécessité difficile de prendre en compte les différentes approches des fausses informations sur le COVID-19 à travers le monde dans le cadre d’une urgence de santé publique, en tenant compte des prétendues limitations techniques de Meta. Il ne représente donc pas nécessairement l’opinion personnelle de chaque membre du Conseil.
Valeurs de Meta
40. Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook, et la « liberté d’expression » y est considérée comme « primordiale ». Meta limite la liberté d’expression au profit de quatre autres valeurs, dont deux sont en l’espèce pertinentes : « Sécurité » et « Dignité ». Pour préserver la valeur de Meta appelée « Sécurité », Meta « supprime les contenus susceptibles de menacer la sécurité physique. » La valeur « Dignité » stipule que « toutes les personnes sont égales en dignité et en droits » et que les utilisateurs doivent « respecter la dignité d’autrui et ne pas harceler ou dégrader les autres ».
41. Le Conseil estime que la politique de Meta en matière de fausses informations sur la santé pendant les urgences de santé publique est conforme aux valeurs de Meta que sont la « Liberté d’expression », la « Sécurité » et la « Dignité ». En cas d’urgence sanitaire, le risque de blessures physiques est important et la valeur de la « Liberté d’expression » peut être limitée pour servir la valeur de la « Sécurité » pour les fausses informations sanitaires « susceptibles de contribuer directement au risque de blessures physiques imminentes. » Les blessures liées aux fausses informations sur le COVID-19 toucheront de manière disproportionnée les plus vulnérables, notamment les personnes immunodéprimées et les personnes souffrant d’autres affections sous-jacentes, les personnes handicapées, les communautés pauvres et les personnes âgées, ainsi que les professionnels de la santé.
Responsabilités de Meta en matière de droits humains
42. Le 16 mars 2021, Meta a annoncé sa Politique d’entreprise en matière de droits humains, dans laquelle elle souligne son engagement à respecter les droits conformément aux principes directeurs des Nations unies relatifs aux entreprises et aux droits humains (PDNU). Les PDNU, soutenus par le Conseil des droits humains des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités des entreprises privées en matière de droits humains.
43. Selon le principe 12 des PDNU, la responsabilité des entreprises de respecter les droits humains se réfère aux droits humains internationalement reconnus, c’est-à-dire, au minimum, à ceux qui sont mentionnés dans la Charte internationale des droits humains. Il s’agit de la Déclaration universelle des droits de l’homme, du Pacte international relatif aux droits civils et politiques (PIDCP) et du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC). Cette responsabilité signifie que les entreprises « doivent éviter de porter atteinte aux droits humains d’autrui et doivent remédier aux effets négatifs sur les droits humains dans lesquels elles sont impliquées » (principe 11). Les entreprises sont censées : « (a) éviter de causer ou de contribuer à des impacts négatifs sur les droits humains par leurs propres activités, et traiter ces impacts lorsqu’ils se produisent ; (b) chercher à prévenir ou à atténuer les impacts négatifs sur les droits humains qui sont directement liés à leurs opérations, produits ou services par leurs relations d’affaires, même si elles n’ont pas contribué à ces impacts » (principe 13).
44. Le principe 17 stipule en outre que pour « identifier, prévenir, atténuer et rendre compte de la manière dont elles traitent leurs incidences négatives sur les droits humains », les entreprises doivent « faire preuve de diligence raisonnable en matière de droits humains ». Ce processus doit comprendre l’évaluation des incidences réelles et potentielles sur les droits humains, l’intégration et l’application des conclusions, le suivi des réponses et la communication sur la manière dont les incidences sont traitées. La responsabilité d’exercer une diligence raisonnable en matière de droits humains est permanente, sachant que les risques liés aux droits humains peuvent changer au fil du temps, en fonction de l’évolution des activités de l’entreprise et de son contexte opérationnel. Enfin, le principe 20 stipule que les entreprises sont invitées à évaluer l’efficacité de leur réponse, sur la base d’indicateurs qualitatifs et quantitatifs appropriés, et à s’appuyer sur les avis émanant de sources internes et externes, y compris des parties prenantes concernées.
45. L’analyse du Conseil dans cet avis consultatif en matière de politique s’est appuyée sur les standards suivants en matière de droits humains :
- Le droit à la liberté d’expression, tel que protégé par l’article 19, paragraphe 2 du Pacte international relatif aux droits civils et politiques. Cet article prévoit une large protection de la liberté d’expression par n’importe quel moyen et sans considération de frontières. Le droit à la liberté d’expression s’étend au droit de rechercher, de recevoir et de diffuser des informations de toutes sortes.
- Le droit à la vie (art. 6, PIDCP) : tout être humain a un droit inhérent à la vie.
- Le droit à la santé (art. 2 et 12, PIDESC) : le droit de toute personne de jouir du meilleur état de santé physique et mentale qu’elle soit capable d’atteindre. L’article 12(2) stipule que la réalisation de ce droit comprend « la création de conditions propres à assurer à tous un service médical et des soins médicaux en cas de maladie ». Il englobe les « déterminants fondamentaux de la santé », tels que l’accès à l’éducation et à l’information en matière de santé, ainsi que la « participation de la population à toutes les prises de décisions relatives à la santé aux niveaux communautaire, national et international ». ( Observation générale n° 14, Pacte international relatif aux droits économiques, sociaux et culturels, paragraphe 11). L’accessibilité à l’information comprend le droit de rechercher, de recevoir et de transmettre des informations et des idées concernant les questions de santé. Respecter le droit à la santé, c’est préserver le débat légitime sur les questions de santé publique.
- Le droit de bénéficier du progrès scientifique et de ses applications (art. 15(1)(b), PIDESC).
- Le droit à la non-discrimination (art. 26, PIDCP) : L’article 26 interdit la discrimination et garantit à tous une protection égale et effective contre toute discrimination fondée sur une caractéristique protégée.
- Le droit à un recours effectif (art. 2, PIDCP).
46. Le rapporteur spécial des Nations unies sur le droit à la liberté d’expression a souligné l’importance du droit à la liberté d’expression dans le contexte de la pandémie de COVID-19, notant que « la promotion de l’accès à l’information favorise la promotion de la santé, de la vie, de l’autonomie et de la bonne gouvernance » et « a mis en garde contre la discrimination fondée sur le point de vue ». ( A/HRC/44/49, paragraphe 2, 52.) Les fausses informations lors d’une urgence de santé publique peut avoir un impact significatif sur les droits des personnes à accéder à des informations fiables et à des conseils et ressources en matière de santé, essentiels à la protection du droit à la santé et du droit à la vie. Comme l’a noté le rapporteur spécial des Nations unies, « les mensonges et la propagande privent les individus de leur autonomie, de leur capacité à penser de manière critique, de leur confiance en eux-mêmes et dans les sources d’information, et de leur droit à s’engager dans le type de débat qui améliore les conditions sociales ». ( A/HRC/44/49, paragraphe 60.) Le rapporteur spécial a également noté comment « les fausses informations sont amplifiées par des algorithmes et des modèles commerciaux conçus pour promouvoir des contenus sensationnels qui maintiennent l’engagement des utilisateurs sur les plateformes » et a appelé les entreprises à « répondre à ces préoccupations, en allant au-delà de l’amélioration de la modération des contenus pour revoir leurs modèles commerciaux. » ( A/HRC/47/25, paragraphe 16, 95.)
47. L’article 19 autorise la restriction du droit à la liberté d’expression dans certaines conditions spécifiques et limitées, connues sous le nom de test tripartite de la légalité (clarté), de la légitimité et de la nécessité, lequel inclut également une évaluation de la proportionnalité. Le rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression a suggéré que l’article 19, paragraphe 3, du Pacte international relatif aux droits civils et politiques fournit un cadre utile pour guider les pratiques de modération de contenu des plateformes et que les entreprises devraient lier leurs politiques de contenu aux principes des droits humains ( A/HRC/38/35, para. 10-11, A/74/486, para. 58). Le Conseil a reconnu que si le PIDCP ne crée pas d’obligations pour Meta comme c’est le cas pour les États, Meta s’est engagée à respecter les droits humains tels qu’ils sont énoncés dans les Principes directeurs de l’ONU. ( A/74/486, paragraphes 47 et 48). Par conséquent, lorsque les politiques de l’entreprise diffèrent de la norme élevée que les États doivent respecter pour justifier les restrictions d’expression, Meta doit fournir une explication motivée de la différence de politique, conformément aux normes des droits humains qu’elle s’est engagée à respecter (paragraphes 47 et 48).
Légalité (clarté et accessibilité des règles)
48. Toute restriction à la liberté d’expression doit être accessible et suffisamment claire, dans sa portée, sa signification et ses effets, pour indiquer aux utilisateurs et aux examinateurs de contenu quels sont les contenus autorisés sur la plateforme et quels sont ceux qui ne le sont pas. Le manque de clarté ou de précision peut conduire à une application incohérente et arbitraire des règles. ( A/HRC/47/25, paragraphe 40).
49. Dans sa décision « Affirmations sur un remède au COVID-19 » [2020-006-FB-FBR], le Conseil a recommandé à Meta « d’établir un Standard de la communauté clair et accessible sur les fausses informations en matière de santé, en consolidant et en clarifiant les règles existantes en un seul endroit (y compris en définissant des termes clés tels que les fausses informations) ». Ces règles devraient être accompagnées « d’hypothèses détaillées illustrant les nuances d’interprétation et d’application de [ces] règles afin d’apporter davantage de clarté aux utilisateurs ». En réponse à la recommandation du Conseil, Meta a créé le Standard de la communauté relatif aux fausses informations. Elle a également publié un article dans ses Pages d’aide qui fournit une liste des allégations susceptibles d’être supprimées ainsi que des questions courantes sur la manière dont la politique est appliquée, y compris la manière dont l’entreprise aborde l’humour, la satire et les anecdotes personnelles dans le cadre de la politique. Le Conseil félicite l’entreprise pour avoir pris ces mesures.
50. Les affirmations traitées dans le cadre de cette politique sont plus ou moins larges ou spécifiques. Par exemple, plusieurs affirmations actuellement soumises à la suppression sont définies de manière étroite par Meta (par exemple, « affirmations selon lesquelles les ordres de distanciation sociale du COVID-19 ne sont en réalité qu’un moyen d’installer une infrastructure de technologie de communication sans fil 5G »), tandis que d’autres sont formulées de manière plus large (par exemple, « affirmations selon lesquelles la distanciation sociale/physique ne contribue pas à empêcher la propagation du COVID-19 »). Le Conseil n’a pas analysé si la restriction dans chacune de ces affirmations est suffisamment claire, car la responsabilité de garantir la précision et la clarté incombe en premier lieu à Meta. Le Conseil note que Meta devrait disposer d’informations sur les affirmations qui ont systématiquement donné lieu à des problèmes d’application insuffisante ou excessive, ce qui pourrait indiquer des problèmes d’imprécision pertinents. En outre, le Conseil note que les affirmations spécifiques susceptibles d’être supprimées en vertu de la politique relative aux fausses informations sur le COVID-19 sont mentionnées dans une page des Pages d’aide. La page ne dispose pas d’un journal des modifications, qui permettrait aux utilisateurs de voir quand une affirmation a été ajoutée, supprimée ou modifiée.
51. Afin de mieux aligner la politique en matière de fausses informations sur la santé pendant les urgences de santé publique sur les normes de légalité, le Conseil émet les recommandations 1, 2, 3, 4 et 11, qui sont expliquées en détail dans la section VI ci-dessous.
Objectif légitime
52. Les restrictions à la liberté d’expression doivent poursuivre un but légitime, qui comprend notamment la protection des droits d’autrui et de la santé publique. Le Conseil des droits humains a interprété le terme « droits » comme incluant les droits humains tels qu’ils sont reconnus dans le PIDCP et plus généralement dans le droit international lié aux droits humains ( Observation générale 34, paragraphe 28).
53. La politique de Meta en matière de fausses informations sur la santé pendant les urgences de santé publique est axée sur les objectifs légitimes de protection de la santé publique pendant une crise sanitaire, ainsi que sur la protection du droit d’accès à l’information, du droit à la vie, du droit à la santé, du droit de bénéficier du progrès scientifique et de ses applications, et du droit à la non-discrimination.
Nécessité et proportionnalité
Présentation
54. Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale 34, paragraphe 34).
55. Pour les raisons expliquées ci-dessous, le Conseil estime que la politique autorisant Meta à supprimer les fausses informations sur le COVID-19 « susceptibles de contribuer directement au risque de blessures physiques imminentes » lors d’une urgence de santé publique est nécessaire et proportionnée. Elle est donc, en principe, compatible avec les valeurs de l’entreprise et ses responsabilités en matière de droits humains. En déclarant une urgence de santé publique, l’autorité de santé publique des Nations unies établit qu’il existe un évènement extraordinaire qui constitue un risque pour la santé publique ou la vie des populations humaines, du fait de la propagation internationale d’une maladie qui présente « un danger grave et direct » (OMS Règlement sanitaire international 2005). Étant donné que l’OMS a déclaré une urgence de santé publique mondiale concernant le COVID-19, une maladie dont les conséquences étaient très incertaines, volatiles et mortelles, le Conseil estime que la réponse de Meta était proportionnée. Le Conseil de surveillance comprend que dans de telles circonstances d’urgence, certaines fausses informations et préjudiciables à la santé, en particulier lorsqu’elles sont diffusées à grande échelle ou par des influenceurs de premier plan, peuvent entraîner de graves préjudices pour la santé publique et porter atteinte aux droits des personnes sur les plateformes de Meta et en dehors de celles-ci. Le Conseil est conscient qu’au cours de la phase la plus intensive d’une urgence de santé publique, il n’est pas toujours possible de mener des consultations préalables approfondies avec de nombreux spécialistes sur des affirmations individuelles de fausses informations. En évaluant la proportionnalité de l’approche de Meta, le Conseil a également pris en compte la position de l’entreprise selon laquelle il n’était pas possible d’adopter une approche localisée des fausses informations sur le COVID-19.
56. Toutefois, comme les circonstances de COVID-19 évoluent, le calcul de la nécessité et de la proportionnalité évolue nécessairement aussi. Le Conseil reconnaît que l’impact du COVID-19 varie d’un pays à l’autre. Cela dépend de la propagation du virus, des systèmes de santé d’un pays et de la qualité de l’espace civique qui permet aux gens de recevoir et de partager des informations sur le COVID-19, entre autres choses. Bien que la déclaration d’urgence sur le COVID-19 de l’OMS reste en vigueur (et qu’elle ait été réitérée en janvier 2023), dans de nombreuses régions du monde, les cas de COVID-19 ont diminué et les mesures d’urgence ont été considérablement réduites. Cela contribue à la difficulté de mettre en œuvre une approche globale qui satisfait au critère de proportionnalité. Comme indiqué dans la recommandation 1 ci-dessous, Meta devrait entamer un processus transparent et inclusif afin de déterminer si l’une des 80 affirmations faisant l’objet d’une suppression n’est plus fausse ou « susceptible de contribuer directement au risque d’une blessure physique imminente ». Le processus doit comprendre un mécanisme permettant d’entendre et de prendre en compte les opinions divergentes. Ceux-ci devraient inclure des points de vue divergents au sein de la communauté scientifique, des spécialistes en matière de liberté d’expression et des spécialistes de la manière dont les fausses informations circulent en ligne et de leur impact. Le Conseil demande également à Meta, dans la recommandation 4 ci-dessous, d’entamer un processus d’identification des risques pour les droits humains qui pourraient persister dans certains pays, et de se préparer à une approche plus localisée pour atténuer ces risques une fois que l’urgence sanitaire mondiale aura pris fin.
Contribution des parties prenantes
57. Dans de nombreuses régions du monde, les parties prenantes ont évoqué auprès du Conseil les personnalités politiques, les chefs religieux, les influenceurs et les autorités médicales qui diffusent des fausses informations avec une grande visibilité, sans que les médias de vérification, les spécialistes scientifiques et les autorités de santé publique ne puissent suivre le rythme. Les parties prenantes de chaque région ont également abordé l’impact des fausses informations sur les personnes qui se tournent vers des traitements alternatifs ou sur leur volonté de se faire vacciner. Ils ont noté que les fausses informations avaient un impact sur la volonté des individus de suivre les conseils de santé publique ou d’adopter des mesures préventives. Les parties prenantes ont souligné que ce type de fausses informations entrave les mesures préventives et la gestion des risques, ce qui affecte la population en général et, de manière disproportionnée, les groupes vulnérables tels que les personnes immunodéprimées, les personnes handicapées, les personnes souffrant de maladies préexistantes, les personnes âgées et les communautés pauvres et marginalisées. (Pour plus d’informations sur les données de COVID-19, voir le tableau de bord de l’OMS). Des études solides sur l’impact des fausses informations en ligne montrent une augmentation du mépris pour les conseils de santé publique et une réduction de la probabilité d’accepter de futurs tests de diagnostic ou une vaccination. Le Conseil prend note des autres préjudices signalés qui ont résulté des fausses informations sur le COVID-19, notamment l’ébranlement de la confiance dans les autorités scientifiques et de santé publique. Cela empêche la mise en œuvre efficace de mesures de santé publique pour le COVID-19 et pour d’autres crises de santé publique. D’autres préjudices liés aux fausses informations sur le COVID-19 ont été signalés, notamment des attaques directes, du harcèlement et des poursuites stratégiques à l’encontre d’organisations de vérification des informations et de médias de vérification particuliers.
58. Les spécialistes ont également noté qu’après que Meta a commencé à supprimer les fausses informations sur le COVID-19, la quantité globale de fausses informations sur la plateforme a été considérablement réduite et ont fait valoir que sans ces mesures, les fausses informations augmenteront à nouveau et les contenus anti-vaccination sur les plateformes sociales telles que Facebook domineront le discours. Ces spécialistes ont noté que le manque de transparence et d’accès aux données de Meta ou aux recherches internes entrave les efforts visant à trouver des preuves claires de l’efficacité des mesures de lutte contre les fausses informations, y compris la suppression. Toutefois, les parties prenantes du monde entier ont fait valoir au Conseil que tant que les pertes en vies humaines et les risques pour la santé d’innombrables personnes se poursuivront, l’entreprise devra continuer à prendre des mesures d’urgence et à accepter que toute erreur soit commise pour sauver les vies en danger, en particulier celles des personnes les plus vulnérables. Si la disponibilité d’informations scientifiques fiables sur le COVID-19 s’est considérablement améliorée depuis le début de la pandémie, l’accès à ces informations varie selon les pays et les communautés, et l’ampleur des informations fausses et trompeuses a rendu l’accès et l’évaluation des informations scientifiques existantes difficiles pour les populations du monde entier, ce qui compromet les avantages de l’accès à ces informations. À cet égard, par exemple, une contribution du Khazanah Research Institute (PC-10703), un institut de recherche politique en Malaisie, a mis en évidence les différents niveaux d’accès à des informations fiables sur la santé dans différents pays et les différents niveaux de risque liés au fait de laisser les fausses informations sans modération. La même position a été soutenue par d’autres spécialistes et parties prenantes de différentes parties du monde, en particulier de pays à faible niveau de revenu. S’il doit y avoir une approche globale, la soumission du Khazanah Research Institute recommande que Meta devrait pécher par excès de prudence et continuer à supprimer les informations erronées sur le COVID-19 qui sont préjudiciables.
59. Comme Meta l’a reconnu dans sa demande au Conseil, l’évolution de la pandémie a varié et continuera de varier dans le monde. Il existe d’importantes variations dans les taux de vaccination, les capacités et les ressources des systèmes de soins de santé, et la confiance dans les conseils des autorités. Ces facteurs contribuent à l’effet disproportionné du virus sur les personnes les plus vulnérables dans les différents pays. Bien que des vaccins aient été mis au point et soient facilement disponibles aux États-Unis et dans d’autres pays du monde, cela ne reflète pas les tendances mondiales. Comme le dit Meta : « 80 % des habitants des pays à revenu élevé ont reçu au moins une dose de vaccin, contre seulement 13 % des habitants des pays à faible revenu. Les pays à faible revenu sont également plus susceptibles d’avoir des systèmes de soins de santé moins performants, des économies moins robustes et une confiance moindre dans les conseils du gouvernement, autant de facteurs qui compliqueront la vaccination et le traitement des personnes ayant contracté le COVID-19. (Demande d’avis consultatif en matière de politique de Meta, page 15, juillet 2022). Pour ne citer que quelques cas illustrant la différence significative des taux de vaccination, en février 2023, moins de 20 % de la population irakienne aura achevé la série de première dose, et moins de 1 % aura reçu un rappel. En Bulgarie, environ 30 % de la population a terminé le cycle de première dose. Ce chiffre est de 13 % en Syrie et de moins de 5 % en Papouasie-Nouvelle-Guinée et en Haïti. Plusieurs spécialistes consultés par le Conseil ont mis en garde contre le danger de s’appuyer sur des informations et des données qui se concentrent essentiellement sur les pays occidentaux pour élaborer une politique et une approche globales. Ces spécialistes ont également noté la perspective géographique étroite de la plupart des études empiriques sur les fausses informations et la désinformation.
60. En janvier 2023, l’OMS a noté que si « le monde est en meilleure position que lors du pic de transmission d’Omicron il y a un an, plus de 170 000 décès liés au COVID-19 ont été signalés dans le monde au cours des huit dernières semaines » et que les systèmes de santé « sont actuellement saturés avec le COVID-19 et la prise en charge des patients atteints de la grippe et du virus respiratoire syncytial (VRS), la pénurie de personnel de santé et la fatigue des travailleurs de la santé ». L’OMS a également souligné que « la réponse au COVID-19 reste entravée dans de trop nombreux pays, incapables de fournir [des vaccins, des thérapies et des diagnostics] aux populations qui en ont le plus besoin, à savoir les personnes âgées et les travailleurs de la santé ». Le comité de l’OMS a noté que « l’hésitation face aux vaccins et la diffusion continue de fausses informations restent des obstacles supplémentaires à la mise en œuvre d’interventions cruciales en matière de santé publique ».
Insistance de Meta sur une approche globale
61. Meta reconnaît que l’évolution de la pandémie a été différente d’un pays à l’autre, l’écart le plus important se situant entre les pays « développés » et les pays « moins développés ». En demandant l’avis du Conseil, l’entreprise a pratiquement exclu une approche localisée, déclarant que l’application de telles mesures « créerait d’importants problèmes de transparence et d’équité, entraînerait une mauvaise expérience pour les utilisateurs et serait irréalisable d’un point de vue opérationnel ». Selon Meta, l’adoption à grande échelle de mesures d’exécution régionales ou nationales entraînerait un manque de clarté pour les utilisateurs quant aux politiques et aux sanctions qui s’appliqueront à un contenu, étant donné que les utilisateurs et les informations circulent au-delà des frontières. Cette approche nécessiterait une politique encore plus complexe et plus longue « décrivant où et dans quelles circonstances les différentes allégations sont soit supprimées , rétrogradées, soit soumises à d’autres mesures d’exécution ». Selon l’entreprise, elle n’a actuellement pas la capacité d’adopter une approche localisée et le développement d’une telle approche nécessiterait beaucoup de ressources et de temps, ce qui rend cette approche irréalisable dans l’avenir immédiat. Elle a fait valoir que « l’application des politiques au niveau national peut conduire à la fois à une application excessive lorsqu’un groupe d’évaluateurs de marché couvre plusieurs pays, et à une application insuffisante parce que le contenu peut se propager à travers les pays et les régions ». Dans ce contexte, Meta a déclaré que la politique proposée devrait être adaptée à toutes les régions, « tout en étant cohérente et réalisable à l’échelle mondiale ».
Analyse
62. Pour parvenir à sa décision sur la question de la proportionnalité, le Conseil a pris en compte divers facteurs, notamment : (i) les atteintes potentielles aux droits humains dans le cadre d’une urgence de santé publique en cours ; (ii) les contraintes pesant sur la liberté d’expression ; (iii) l’exigence du Standard de la communauté pertinent selon laquelle le contenu soumis à la suppression doit être considéré à la fois comme faux et susceptible de contribuer directement à une blessure physique imminente et importante ; (iv) l’architecture de la plateforme qui, selon certains spécialistes, pourrait contribuer à l’amplification de contenus nuisibles (voir la recommandation 10 sur la nécessité de procéder à une évaluation de l’impact sur les droits humains des choix de conception de la plateforme) ; (v) les préoccupations importantes soulevées quant à l’extensibilité et à l’efficacité des mesures de modération des contenus autres que les suppressions (comme expliqué dans les paragraphes suivants sur la vérification des informations, les rétrogradations et l’étiquetage) ; et (vi) l’affirmation de Meta selon laquelle une approche locale et à grande échelle n’était pas réalisable dans la mise en œuvre de sa politique.
63. Étant donné que Meta insiste sur une approche globale et que le COVID-19 continue d’être désigné comme une « urgence de santé publique de portée internationale » par l’OMS, le Conseil ne peut pas recommander de modifier la manière dont Meta met en œuvre sa politique globale sans une diligence raisonnable supplémentaire et une évaluation par la société de l’impact de ses politiques et de ses divers outils de mise en œuvre. Recommander un changement dans ces circonstances pourrait affecter de manière disproportionnée les personnes les plus vulnérables à travers le monde. Il s’agit notamment des personnes âgées, des personnes immunodéprimées et des personnes souffrant de maladies préexistantes, ainsi que des communautés pauvres et marginalisées disposant de moins de ressources, d’espaces civiques plus fragiles, n’ayant pas d’autres sources d’information fiables et disposant de systèmes de santé médiocres ou n’y ayant pas accès. Comme indiqué plus haut, le Conseil est conscient du fait que, pendant la phase la plus intensive d’une crise de santé publique, Meta a eu recours à des mesures exceptionnelles. Le Conseil comprend que l’entreprise ait dû prendre des mesures exceptionnelles lors d’une situation d’urgence déclarée en matière de santé publique, comme dans le cas présent, en supprimant des catégories entières de fausses informations sur la base d’une évaluation fournie uniquement par une autorité de santé publique dans le but d’éviter des blessures physiques imminentes probables. Le Conseil estime que les mesures étaient proportionnées compte tenu des circonstances uniques de la pandémie.
64. Toutefois, ces mesures exceptionnelles doivent être temporaires, strictement adaptées aux exigences des circonstances et identifiées publiquement. L’analyse de la nécessité et de la proportionnalité évolue avec les circonstances. Compte tenu de la nature évolutive des pandémies, Meta doit maintenant entreprendre un processus de consultation plus solide dès que possible pour essayer de garantir que la suppression automatisée d’affirmations spécifiques n’étouffe pas le débat sur des questions d’intérêt public ou ne conduise pas à une influence gouvernementale indue sur la modération du contenu de Meta. Le processus de consultation devrait s’appuyer sur l’expertise d’un ensemble plus diversifié de parties prenantes, y compris des voix dissidentes (comme indiqué dans la recommandation 1 ci-dessous). Le Conseil note que le principe 17 des PDNU stipule que pour « identifier, prévenir, atténuer et rendre compte de la manière dont elles traitent leurs impacts négatifs sur les droits humains », les entreprises doivent faire preuve d’une diligence raisonnable continue en matière de droits humains, ce qui implique « d’évaluer les impacts réels et potentiels sur les droits humains, d’intégrer les conclusions et d’y donner suite, de suivre les réponses et de communiquer sur la manière dont les impacts sont traités ». En outre, comme l’indique le principe 20 des PDNU, l’entreprise doit évaluer l’efficacité de sa réponse « sur la base d’indicateurs qualitatifs et quantitatifs appropriés et s’appuyer sur les réactions de sources tant internes qu’externes, y compris des parties prenantes concernées ».
65. Comme indiqué ci-dessus, pour parvenir à sa conclusion, le Conseil a examiné si des mesures moins intrusives que la suppression de contenus pouvaient répondre à l’ampleur des fausses informations et protéger la santé publique en cas d’urgence sanitaire, ainsi que les droits des personnes sur la plateforme et en dehors de celle-ci. Tout d’abord, si l’ajout d’étiquettes de vérification des informations au contenu permet de corriger les informations sans les supprimer, plusieurs parties prenantes, ainsi que les informations fournies par Meta, montrent la capacité limitée de cet outil à répondre à la vitesse et à l’ampleur des fausses informations sanitaires potentiellement préjudiciables lors d’une urgence de santé publique. Meta a informé le Conseil que les médias de vérification ne sont pas en mesure d’examiner une grande majorité des contenus dans leur file d’attente. Meta a également déclaré qu’elle ne serait pas en mesure de développer le programme de vérification des informations, car il s’agit d’organisations tierces qui ne sont ni contrôlées ni détenues par Meta. En outre, les limites imposées par le programme rendent cette mesure moins efficace. Meta n’autorise pas ses médias de vérification à examiner le contenu partagé par les personnalités politiques, c’est-à-dire les candidats aux élections, les titulaires de fonctions actuelles et les personnes qu’ils ont nommées, ainsi que les partis politiques et leurs dirigeants. Comme cela a été largement rapporté et confirmé par les parties prenantes de chaque région, ces types d’utilisateurs ont été d’importants diffuseurs de fausses informations. La vérification par les médias de vérification prend plus de temps que la suppression automatisée à grande échelle, ce qui peut être un facteur déterminant lorsqu’il s’agit de lutter contre les fausses informations nuisibles dans le contexte d’une crise de santé publique. Cette mesure renvoie en outre l’utilisateur à un article qui se trouve généralement en dehors de la plateforme (et donc moins accessible aux personnes qui n’ont pas les ressources nécessaires pour consulter des données supplémentaires). Le langage utilisé dans ces articles est souvent particulièrement technique et parfois complexe, contrairement aux messages courts et émotifs par lesquels les fausses informations sont diffusées. Une contribution du professeur Simon Wood de l’université d’Édimbourg (PC-10713) a mis en évidence le fait que les médias de vérification n’ont souvent pas les connaissances techniques suffisantes pour vérifier efficacement des documents et des preuves scientifiques complexes.
66. Deuxièmement, si les rétrogradations ont un impact sur l’endroit où le contenu apparaîtra dans le fil de l’utilisateur, la nature individualisée du fil de chaque utilisateur signifie que l’impact de cette mesure sur la viralité ou la portée d’un contenu est difficile à déterminer. Le score de classement d’un contenu vise à montrer aux utilisateurs le contenu qui « pourrait les intéresser le plus », et le contenu partagé dans un groupe ou par une page qu’un utilisateur suit est susceptible d’être classé en haut de l’échelle. Par conséquent, il n’est pas certain qu’une rétrogradation permette de remédier efficacement à la portée des contenus partagés par des utilisateurs ayant un nombre important de followers ou des contenus partagés au sein d’un groupe. La rétrogradation aura probablement le moins d’impact pour les utilisateurs qui suivent plusieurs comptes, pages ou groupes qui diffusent régulièrement des fausses informations sur le COVID-19, compte tenu de l’inventaire global du contenu dans leur fil d’actualité. Il apparaît également que l’entreprise ne dispose pas de données sur le nombre d’utilisateurs moins susceptibles d’accéder à un contenu rétrogradé, même si ce contenu a été rétrogradé de manière significative. Les rétrogradations ne sont pas accompagnées de pénalités et de sanctions. Enfin, comme les utilisateurs ne peuvent pas faire appel des rétrogradations de leur contenu, cette option soulèverait d’importantes préoccupations quant au traitement équitable des utilisateurs.
67. Troisièmement, selon les recherches internes de l’entreprise, rien ne prouve que les étiquettes neutres permettent d’atteindre les utilisateurs à grande échelle et d’informer leurs connaissances ou leurs attitudes. Meta applique des NIT (ou étiquettes neutres) par le biais d’un système automatisé qui détecte un sujet COVID-19 dans une publication. Ces étiquettes fournissent un lien vers un centre d’information sur le COVID-19, qui fournit des informations faisant autorité sur le COVID-19. Selon Meta, les recherches préliminaires de l’entreprise sur ces étiquettes ont montré que le « taux de clic » (le taux auquel les utilisateurs cliquent sur l’étiquette pour voir l’information faisant autorité) diminue à mesure que l’utilisateur voit plus de NIT. Meta a également informé le Conseil que l’entreprise avait cessé d’utiliser les NIT COVID-19. Selon Meta, ces étiquettes n’ont aucun effet détectable sur la probabilité que les utilisateurs lisent, créent ou partagent à nouveau des fausses informations vérifiées ou des contenus décourageant la vaccination. Enfin, l’entreprise a indiqué que les premières recherches ont montré que ces étiquettes pourraient n’avoir aucun effet sur les connaissances des utilisateurs et leurs attitudes à l’égard des vaccins.
68. En résumé, le Conseil conclut que, compte tenu de l’insistance de Meta sur une approche globale des fausses informations sur le COVID-19 et du maintien de la déclaration d’urgence de l’OMS, Meta devrait continuer à appliquer sa politique en matière de fausses informations sur le COVID-19 susceptibles de contribuer directement au risque de blessures physiques imminentes. Dans le même temps, elle devrait commencer à entreprendre un processus d’examen de diligence raisonnable solide et inclusif des affirmations en cours de suppression. Afin de mieux aligner la politique en matière de fausses informations sur la santé pendant les urgences de santé publique sur les normes de nécessité et de proportionnalité, le Conseil émet les recommandations 1, 4, 5, 9, 10, 12, 13, 14, 15 et 18, qui sont expliquées en détail dans la section VI ci-dessous.
VI. Recommandations
Recommandations sur la politique de contenu
69. Recommandation 1 : Compte tenu de la déclaration de l’Organisation mondiale de la santé selon laquelle le COVID-19 constitue une urgence sanitaire mondiale et de l’insistance de Meta sur une approche globale, Meta devrait poursuivre son approche actuelle consistant à supprimer les contenus globalement faux sur le COVID-19 qui sont « susceptibles de contribuer directement au risque de blessures physiques imminentes ». Dans le même temps, elle devrait entamer un processus transparent et inclusif de réévaluation solide et périodique de chacune des 80 affirmations faisant l’objet d’une mesure de suppression, afin de s’assurer que : (1) chacune des affirmations spécifiques concernant le COVID-19 qui fait l’objet d’une suppression est fausse et « susceptible de contribuer directement au risque de blessures physiques imminentes » ; et (2) les engagements de Meta en matière de droits humains sont correctement mis en œuvre (par exemple, les principes de légalité et de nécessité). Sur la base de ce processus de réévaluation, Meta doit déterminer si les affirmations ne sont plus fausses ou si elles ne sont plus « susceptibles de contribuer directement au risque de blessures physiques imminentes ». Si Meta estime qu’une affirmation n’est plus fausse ou qu’elle n’est plus « susceptible de contribuer directement au risque de blessures physiques imminentes », cette affirmation ne doit plus faire l’objet d’une suppression en vertu de la présente politique. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta annoncera un processus de réévaluation et toute modification apportée aux 80 affirmations sur la page des Pages d’aide.
70. Les sous-parties ci-dessous présentent les recommandations du Conseil concernant les recommandations pour la réévaluation des affirmations susceptibles d’être supprimées dans le cadre de la politique en matière de fausses informations sur la santé pendant les urgences de santé publique. Chacune des sous-recommandations sera considérée comme une recommandation distincte de la recommandation 1, ce qui signifie que le Conseil examinera séparément les mesures prises par Meta pour mettre en œuvre les recommandations.
Recommandation 1A : Consultation plus large de spécialistes et de parties prenantes
71. L’entreprise doit mettre en place, dès que possible, un processus permettant de prendre en compte un ensemble plus large de points de vue pour évaluer si la suppression de chaque affirmation est rendue nécessaire par les exigences de la situation. Les spécialistes et les organisations consultés devraient inclure des spécialistes en santé publique, des immunologistes, des virologues, des chercheurs en maladies infectieuses, des chercheurs en désinformation, des spécialistes en politique technologique, des organisations de défense des droits humains, des médias de vérification et des spécialistes en liberté d’expression. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta publiera des informations sur ses processus de consultation d’un ensemble diversifié de spécialistes sur sa politique en matière de fausses informations sur la santé pendant les urgences de santé publique, ainsi que des informations sur l’impact de ces conversations sur sa politique.
72. Comme indiqué ci-dessus, le Conseil admet que l’entreprise a dû prendre des mesures exceptionnelles lors d’une situation d’urgence déclarée en matière de santé publique, en l’occurrence en supprimant des catégories entières de fausses informations sur la base d’une évaluation fournie par une seule autorité de santé publique. Le Conseil est conscient qu’en cas d’urgence de santé publique, il n’est pas possible de mener immédiatement des consultations préalables approfondies avec de nombreux spécialistes sur des demandes individuelles. Toutefois, dès que possible, un groupe plus large de spécialistes et de parties prenantes doit être consulté, compte tenu de l’évolution constante des informations sur la nouvelle pandémie et des différents points de vue concernant la meilleure approche pour lutter contre les fausses informations liées à la pandémie. Comme l’a indiqué l’entreprise, elle a dû modifier sa position sur au moins deux affirmations précédemment soumises à la suppression, l’une sur les origines du virus et l’autre sur le taux de mortalité du COVID-19. Une consultation plus large et une plus grande transparence sur cette contribution sont essentielles pour une meilleure prise de décision et pour se prémunir contre une censure injustifiée.
73. Le Conseil a demandé à Meta si les affirmations figurant sur sa liste « ne pas publier » (parce qu’elles sont considérées comme fausses et « susceptibles de contribuer directement au risque de blessures physiques imminentes ») avaient été réévaluées pour tenir compte de l’impact des trois modifications décrites dans la demande de l’entreprise. Meta a informé le Conseil qu’elle ne disposait d’aucune information lui permettant de conclure que les affirmations actuellement supprimées n’étaient plus fausses ou n’étaient plus susceptibles de contribuer directement au risque de blessures physiques imminentes. Toutefois, l’entreprise n’a pas contacté les autorités sanitaires compétentes pour leur demander de réévaluer les affirmations. L’entreprise n’a pas non plus consulté les parties prenantes ou des spécialistes pour réévaluer les demandes individuelles ou la politique globale. Selon Meta, l’entreprise a choisi de s’adresser au Conseil avec une demande d’avis consultatif en matière de politique, au lieu d’entreprendre un engagement des parties prenantes externes sur la modification de sa politique, afin de ne pas retarder la demande. Le Conseil félicite Meta d’avoir sollicité un avis externe sur la politique élaborée dans une situation d’urgence mondiale et d’avoir reconnu la nécessité d’une réévaluation. Toutefois, la responsabilité de l’entreprise en matière de respect des droits humains ne s’arrête pas là. La mise en place d’un processus permettant d’évaluer si le maintien de la suppression de chaque revendication est nécessaire garantirait que l’entreprise fait preuve de la diligence requise, conformément aux principes directeurs des Nations unies.
Recommandation 1B : Calendrier de l’examen
74. Meta devrait fixer le calendrier de cet examen (par exemple, tous les trois ou six mois) et le rendre public afin de garantir la notification et la contribution des intéressés. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta publiera le procès-verbal de sa réunion d’examen, de la même manière qu’elle publie les procès-verbaux de ses forums sur les politiques publiques dans son Espace modération.
Recommandation 1C : Procédures de collecte des contributions du public
75. Meta devrait définir une procédure claire de réexamen régulier, y compris des moyens permettant aux personnes et organisations intéressées de contester l’évaluation d’une affirmation spécifique (par exemple, en fournissant un lien sur la page des Pages d’aide pour les commentaires du public et les consultations virtuelles). Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta créera un mécanisme d’avis du public et partagera avec le Conseil des informations sur l’impact de cet avis sur ses processus internes.
Recommandation 1D : Conseils sur le type d’informations à prendre en compte et à évaluer
76. L’examen des affirmations par Meta devrait inclure les recherches les plus récentes sur la diffusion et l’impact de ces fausses informations en ligne sur la santé. Cela devrait inclure une recherche interne sur l’efficacité relative des différentes mesures à la disposition de Meta, y compris les suppressions, la vérification des informations, les rétrogradations et les étiquettes neutres. L’entreprise doit tenir compte de l’état de la pandémie dans toutes les régions où elle opère, en particulier celles où ses plateformes constituent une source d’information primaire et où les communautés sont moins familiarisées avec le numérique, les espaces civiques plus faibles, les sources d’information fiables insuffisantes et les systèmes de soins de santé fragiles. Meta devrait également évaluer l’efficacité de l’application de ces affirmations. Meta devrait recueillir, si ce n’est déjà fait, des informations sur les affirmations qui ont systématiquement donné lieu à des problèmes d’application insuffisante ou excessive. Ces informations devraient permettre de déterminer si une demande doit continuer à être supprimée ou si elle doit faire l’objet d’autres mesures. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta partagera les données relatives à l’examen de l’application de sa politique et publiera ces informations.
Recommandation 1E : Conseils sur la transparence du processus décisionnel
77. Afin d’assurer la transparence des types de spécialistes consultés, de leur contribution, des recherches internes et externes prises en compte et de la manière dont les informations ont influencé le résultat de l’analyse, Meta devrait fournir au Conseil un résumé de la base de sa décision pour chaque affirmation. Le résumé doit spécifiquement inclure la base de la décision de l’entreprise de continuer à supprimer une affirmation. Meta devrait également indiquer quel rôle, le cas échéant, le personnel ou les entités du gouvernement ont joué dans sa prise de décision. Si l’entreprise décide de cesser de supprimer une affirmation spécifique, elle doit expliquer les raisons de cette décision (y compris) : (a) quels éléments ont conduit l’entreprise à déterminer que l’affirmation n’est plus fausse ; (b) quels éléments, provenant de quelle source, ont conduit l’entreprise à déterminer que l’affirmation ne contribue plus directement au risque de blessures physiques imminentes, et si cette évaluation est valable dans les pays où les taux de vaccination sont les plus faibles et où les infrastructures de santé publique manquent de ressources ; (c) si l’entreprise a déterminé que son système d’application a conduit à une application excessive de l’affirmation spécifique ; (d) si l’entreprise a déterminé que l’affirmation n’est plus répandue sur la plateforme.) Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta partagera l’évaluation de son processus d’évaluation des politiques. Ces informations doivent être alignées sur les raisons invoquées publiquement dans la publication des Pages d’aide pour toute modification apportée à la politique, comme indiqué dans le premier paragraphe de la présente recommandation.
78. Recommandation 2 :Meta devrait immédiatement fournir une explication claire des raisons pour lesquelles chaque catégorie d’affirmations supprimables est « susceptible de contribuer directement au risque de blessures physiques imminentes ». Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta modifiera la page des Pages d’aide pour fournir cette explication.
79. Actuellement, la page des Pages d’aide donne un exemple du lien entre une affirmation spécifique et pourquoi et comment elle contribue au risque de blessures physiques imminentes en « augmentant la probabilité d’exposition au virus ou de transmission de celui-ci, ou en ayant des effets néfastes sur la capacité du système de santé publique à faire face à la pandémie ». La même page identifie ensuite cinq catégories de fausses informations qui, selon Meta, satisfont au critère de « probabilité de contribuer à des blessures physiques imminentes ». La page des Pages d’aide n’explique cependant pas systématiquement comment chaque catégorie d’affirmations supprimables satisfait au standard établi. Meta devrait expliquer explicitement comment chaque catégorie d’affirmations est susceptible de contribuer directement au risque de blessures physiques imminentes et les sources d’information sur lesquelles l’entreprise s’est appuyée pour parvenir à cette conclusion.
80. Recommandation 3 : Meta devrait clarifier sa politique relative aux fausses informations sur la santé pendant les urgences de santé publique en expliquant que l’exigence selon laquelle les informations doivent être « fausses » se réfère à des informations fausses selon les meilleures preuves disponibles au moment de la dernière réévaluation de la politique. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura clarifié la politique dans la page correspondante des Pages d’aide.
81. À deux reprises au moins, Meta a dû modifier les affirmations faisant l’objet d’une suppression lorsque les informations connues ont changé ou que l’évolution de la maladie a rendu une affirmation inexacte ou incomplète. Des erreurs peuvent être commises, de nouvelles données ou recherches peuvent remettre en cause le consensus existant, ou la définition d’une affirmation peut devoir être affinée. Compte tenu de cette réalité, et pour bien montrer que Meta comprend qu’il lui incombe de réévaluer en permanence l’évaluation selon laquelle des affirmations spécifiques satisfont au standard plus large de sa politique, Meta devrait clarifier sa politique pour préciser que l’évaluation est fondée sur les meilleures preuves disponibles à ce moment-là et qu’elle est susceptible d’évoluer.
Recommandations sur l’application
82. Recommandation 4 : Meta devrait immédiatement lancer un processus d’évaluation des risques afin d’identifier les mesures nécessaires et proportionnées qu’elle devrait prendre, conformément à la présente décision politique et aux autres recommandations formulées dans le présent avis consultatif en matière de politique, lorsque l’OMS lève l’urgence sanitaire mondiale pour le COVID-19, mais que d’autres autorités locales de santé publique continuent de désigner le COVID-19 comme une urgence de santé publique. Ce processus devrait viser à adopter des mesures pour lutter contre les fausses informations nuisibles susceptibles de contribuer à un préjudice réel important et imminent, sans compromettre le droit général à la liberté d’expression au niveau mondial. L’évaluation des risques doit inclure : (1) une évaluation solide des décisions de conception et des différentes options de politique et de mise en œuvre ; (2) leurs impacts respectifs sur la liberté d’expression, le droit à la santé et à la vie et d’autres droits humains ; et (3) une évaluation de la faisabilité d’une approche d’application localisée. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta communiquera publiquement ses plans concernant la manière dont elle procédera à l’évaluation des risques et décrira le processus d’évaluation pour la détection et l’atténuation des risques, et mettra à jour la page des Pages d’aide avec ces informations.
83. Recommandation 5 : Meta devrait traduire les règles internes de mise en œuvre dans les langues de travail des plateformes de l’entreprise. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura traduit ses règles internes en matière de mise en œuvre et l’aura informé à ce sujet.
84. Les modérateurs de contenu ont accès à des règles de mise en œuvre internes détaillées qui fournissent des informations supplémentaires sur la manière d’identifier les contenus en infraction et les contenus qui devraient rester sur la plateforme en vertu de l’une des exceptions établies (par exemple, l’humour, la satire, l’anecdote personnelle, l’opinion). Afin de garantir une application cohérente dans les différentes parties du monde, Meta doit veiller à ce que ces règles soient fournies et accessibles aux modérateurs dans la langue dans laquelle ils travaillent.
85. Le Conseil a déjà recommandé à Meta de traduire ses règles de mise en œuvre internes fournies aux modérateurs dans la langue dans laquelle ils examinent le contenu (voir les décisions « Récupération des mots arabes » [ 2022-003-IG-UA] et « Bots au Myanmar » [ 2021-007-FB-UA]). Dans sa réponse au Conseil, Meta a déclaré que « [disposer] d’un ensemble de règles internes dans la langue que tous nos examinateurs de contenu maîtrisent [...] est le meilleur moyen de garantir une application mondiale normalisée de nos politiques qui évoluent rapidement [...]. Étant donné que ces conseils évoluent rapidement (ils sont constamment mis à jour avec de nouvelles clarifications, définitions et formulations, y compris des termes spécifiques au marché), le fait de s’appuyer sur des traductions pourrait entraîner des décalages irréguliers et des interprétations peu fiables ».
86. Depuis que Meta a fourni l’explication ci-dessus, une évaluation indépendante de l’application par Meta de ses politiques en Israël et en Palestine a identifié le manque de capacité linguistique des modérateurs de contenu comme l’une des causes de l’application excessive des politiques de Meta en arabe (voir le document « Diligence raisonnable en matière de droits humains concernant les incidences de Meta en Israël et en Palestine en mai 2021 » de Business for Social Responsibility). Compte tenu de cette constatation et de la complexité des règles internes et de l’interprétation nuancée qu’elles fournissent aux modérateurs de contenu, le Conseil estime que le risque d’une application excessive ou insuffisante de la politique en matière de fausses informations sur la santé pendant les urgences de santé publique est réel. Meta devrait atténuer ces risques afin de garantir que l’application de sa politique est cohérente entre les langues et les régions.
87. Recommandation 6 : Les appels d’utilisateurs pour une étiquette de vérification des informations doivent être examinés par un média de vérification différent de celui qui a procédé à la première évaluation. Afin de garantir l’équité et de promouvoir l’accès à un appel pour les utilisateurs dont le contenu a été vérifié, Meta devrait modifier son processus afin de s’assurer qu’un média de vérification différent, qui n’a pas déjà procédé à l’évaluation de l’affirmation en question, puisse évaluer la décision d’imposer une étiquette.Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta fournira un mécanisme permettant aux utilisateurs de faire appel à un autre média de vérification et lorsqu’elle mettra à jour ses politiques de vérification des informations avec ce nouveau mécanisme d’appel.
88. Recommandation 7 : Meta devrait permettre aux profils (et pas seulement aux pages et aux groupes) dont le contenu a été étiqueté par des médias de vérification tiers appliquant la politique en matière de fausses informations de Meta, de faire appel de l’étiquette auprès d’un autre média de vérification par le biais de la fonctionnalité d’appel dans le produit. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta aura étendu la fonctionnalité d’appel aux profils sur tous les marchés et démontré que les utilisateurs sont en mesure de faire appel des étiquettes de vérification des informations par le biais des données d’application.
89. Les appels des utilisateurs sont un élément clé de la correction des erreurs et de la garantie du droit d’accès des utilisateurs à un appel. Les médias de vérification examinent des contenus dont la complexité, le contenu technique et le contexte varient considérablement. Certaines erreurs sont inévitables. Un commentaire public a fait état de la crainte que les médias de vérification ne disposent pas des connaissances scientifiques et techniques nécessaires pour vérifier les articles scientifiques complexes partagés sur la plateforme. Les étiquettes de vérification des informations ont des conséquences pour les utilisateurs. Lorsqu’un média de vérification appose une étiquette sur un contenu, cette étiquette peut entraîner une pénalité si le contenu est qualifié de « faux » ou « altéré ». Une accumulation de pénalités entraînera une limitation des fonctionnalités et une rétrogradation du contenu partagé par ce profil. La mise en œuvre de cette recommandation permettrait aux utilisateurs d’informer les médias de vérification lorsqu’ils pensent qu’une erreur a été commise et de partager des informations supplémentaires pour faciliter le contrôle.
90. Recommandation 8 : Meta devrait augmenter ses investissements dans les programmes d’alphabétisation numérique à travers le monde, en donnant la priorité aux pays où les indicateurs de liberté des médias sont faibles (par exemple, le score de liberté de la presse de Freedom House) et où le taux de pénétration des réseaux sociaux est élevé. Ces investissements devraient inclure des formations d’alphabétisation sur mesure. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta publiera un article sur l’augmentation de ses investissements, en précisant le montant investi, la nature des programmes et les pays concernés, ainsi que les informations dont elle dispose sur l’impact de ces programmes.
91. En réponse à une question, Meta a informé le Conseil qu’au cours des trois dernières années, l’entreprise a investi plus de sept millions de dollars américains « pour aider les utilisateurs à améliorer leurs compétences en réseaux sociaux et réduire de manière proactive la quantité de fausses informations qui sont partagées ». Selon les sourcesfournies par Meta, ces investissements se sont principalement concentrés sur les États-Unis. Meta s’est associée à des organisations dans d’autres pays pour mettre en place des campagnes dans les réseaux sociaux ou des publicités axées sur l’éducation aux médias.
92. Des étudesévaluant l’impact des investissements de Meta dans les programmes d’éducation aux médias aux États-Unis (un programme en partenariat avec PEN America et l’autre avec l’Institut Poynter) ont constaté des améliorations significatives dans la capacité des participants à évaluer l’information en ligne. Par exemple, la capacité des participants à détecter les fausses informations sur le COVID-19 s’est améliorée, passant d’une moyenne de 53 % avant l’intervention à une moyenne de 82 % après l’intervention. Un programme d’éducation aux médias destiné aux personnes âgées a permis d’améliorer de 22 % la capacité des participants à juger avec précision si les titres sont vrais ou faux après avoir suivi le cours.
93. Recommandation 9 : Pour les comptes individuels et les réseaux d’entités Meta qui violent de manière répétée la politique en matière de fausses informations, Meta devrait mener ou partager les recherches existantes sur les effets de son système de sanctions récemment rendu public, y compris toute donnée sur la manière dont ce système est conçu pour prévenir ces violations. Cette recherche devrait inclure l’analyse des comptes qui amplifient ou coordonnent les campagnes de désinformation en matière de santé. L’évaluation doit porter sur l’efficacité des sanctions liées à la démonétisation actuellement appliquées par Meta pour lutter contre les motivations et avantages financiers liés à la diffusion d’informations nuisibles, fausses ou trompeuses. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta lui communiquera les résultats de cette recherche et publiera un résumé des résultats dans l’Espace modération.
Recommandations sur la transparence
94. Recommandation 10 : Meta devraitcommander une étude d’impact sur les droits humains concernant la façon dont le fil d’actualité de Meta, les algorithmes de recommandation et d’autres caractéristiques de conception amplifient les fausses informations nuisibles en matière de santé et leurs impacts. Cette évaluation devrait fournir des informations sur les facteurs clés de l’algorithme de classement des fils qui contribuent à l’amplification des fausses informations nuisibles pour la santé, sur les types de fausses informations qui peuvent être amplifiés par les algorithmes de Meta et sur les groupes les plus sensibles à ce type de fausses informations (et sur la question de savoir s’ils sont particulièrement ciblés par les choix de conception de Meta). L’évaluation devrait également rendre publique toute recherche antérieure menée par Meta pour évaluer les effets de ses algorithmes et de ses choix de conception sur l’amplification des fausses informations en matière de santé. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta publiera l’évaluation de l’impact sur les droits humains, qui contient une telle analyse.
95. Le rapporteur spécial des Nations unies sur la liberté d’expression a qualifié de « généralement positives » mais « insuffisantes » les réponses des plateformes de réseaux sociaux aux fausses informations liées au COVID-19, notamment la suppression des fausses informations par Meta et le programme de vérification tierce, pour relever les défis posés par les fausses informations. Le rapporteur spécial a souligné la nécessité d’entreprendre un « examen sérieux du modèle commercial qui sous-tend une grande partie des moteurs des fausses informations et de la désinformation ». ( A/HRC/47/25, paragraphes 65-67.)
96. Le Conseil s’inquiète du fait que Meta n’a pas réalisé d’évaluation de l’impact sur les droits humains des caractéristiques de conception de ses plateformes et des mesures actuelles sur la santé publique et les droits humains, tels que le droit à la vie, à la santé, à l’accès à l’information et à l’expression d’idées et de points de vue sur la pandémie et les mesures de santé publique qui s’y rapportent. Meta devrait s’assurer qu’elle a accès à toutes les informations nécessaires pour évaluer correctement les impacts potentiels sur les droits humains. Compte tenu des disparités en matière d’accès à des informations adéquates et accessibles, à des vaccins, médicaments et traitements essentiels, ainsi qu’à la modération des contenus dans le monde entier, une étude d’impact sur les droits humains est indispensable pour évaluer les risques découlant de la diffusion de fausses informations sur le COVID-19 susceptibles de causer des blessures physiques imminentes dans les produits de Meta dans le monde entier.
97. Recommandation 11 : Meta devrait ajouter un journal des modifications à la page des Pages d’aide fournissant la liste complète des affirmations sujettes à suppression dans le cadre de la politique de l’entreprise en matière defausses informations sur la santé pendant les urgences de santé publique. Le Conseil considérera que cette recommandation a été mise en œuvre lorsqu’un journal des modifications aura été ajouté à la page des Pages d’aide.
98. Les Standards de la communauté prévoient un journal des modifications afin d’alerter les utilisateurs sur les modifications apportées aux politiques mises en œuvre. Cependant, la page des Pages d’aide qui contient les affirmations spécifiques soumises à la suppression dans le cadre de la politique en matière de fausses informations sur la santé pendant les urgences de santé publiquene fournit pas de journal des modifications ni aucun moyen pour les utilisateurs de déterminer quand la liste des affirmations a été mise à jour ou modifiée. Il est donc difficile de suivre les ajouts ou les modifications apportées aux revendications faisant l’objet d’une suppression.
99. Meta a informé le Conseil qu’entre mars 2020 et octobre 2022, diverses affirmations ont été ajoutées à la liste des affirmations supprimées dans le cadre de la politique en matière de fausses informations sur la santé pendant les urgences de santé publiqueet certaines affirmations ont été supprimées ou modifiées.
100. Le rapporteur spécial des Nations unies sur la liberté d’expression a déclaré que tous les individus devraient avoir « un véritable accès aux outils de communication nécessaires pour s’informer sur la crise de santé publique » ( A/HRC/44/49, para. 63(b)). L’ajout d’un journal des modifications aux Pages d’aide serait conforme au principe de légalité, en informant clairement les utilisateurs de la suppression d’affirmations spécifiques. Une plus grande transparence sur l’évolution de la liste des affirmations serait bénéfique pour les utilisateurs, car le consensus scientifique et la compréhension de l’impact de la pandémie de COVID-19 sur la santé publique continuent d’évoluer.
101. L’ajout d’un journal des modifications dans les Pages d’aide aiderait également les utilisateurs ayant des opinions différentes à contester l’évaluation faite par l’autorité de santé publique sur la fausseté ou la probabilité de contribuer directement au risque de blessures physiques imminentes, en relation avec les recommandations 1 et 2. Cette approche répondrait à la responsabilité de Meta en matière de droits humains dans le domaine de la santé publique, tout en permettant aux voix dissidentes de contester les affirmations avec lesquelles elles ne sont pas d’accord.
102. Recommandation 12 : Meta devrait fournir des données trimestrielles sur l’application de la loi en matière de fausses informations dans le rapport trimestriel sur l’application de la loi, distribuées par type de fausses informations (c’est-à-dire blessures physiques ou violence, fausses informations nuisibles pour la santé, ingérence dans les élections ou les recensements, ou manipulation des médias) ainsi que par pays et par langue. Ces données devraient inclure des informations sur le nombre d’appels et le nombre de contenus restaurés. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta commencera à inclure des données sur l’application de la politique en matière de fausses informations dans les rapports de mise en œuvre de l’entreprise.
103. Le Rapport d’application des Standards de la communauté (CSER) que Meta publie chaque trimestre indique le nombre de contenus qui ont fait l’objet d’une action en vertu des différents Standards de la communauté. Toutefois, ce rapport ne contient aucune donnée relative à l’application de la politique en matière de fausses informations de l’entreprise. Le Conseil comprend que cela est dû en partie au fait que le Standard de la communauté sur les fausses informations a été officiellement établi en mars 2022. Meta a informé le Conseil qu’elle ne dispose pas de données sur la prévalence des fausses informations sur le COVID-19 sur ses plateformes. Selon Meta, cela est dû à l’évolution des définitions de ce qui constitue une fausse information sur le COVID-19, ainsi qu’à la difficulté d’établir une comparaison significative entre la prévalence avant et après la mise en œuvre de la politique.
104. Meta a cependant pu mesurer la prévalence pendant de brèves périodes pour des sous-ensembles plus restreints. Selon l’entreprise, entre le 1er mars 2022 et le 21 mars 2022, le contenu lié au COVID-19 a représenté 1 à 2 % des consultations des publications de Facebook aux États-Unis. Parmi ces vues, Meta estime qu’environ 0,1 % concerne des contenus qui violent les politiques en matière de fausses informations et de blessures.
105. Le Conseil a reçu de nombreux commentaires de parties prenantes du monde entier soulignant que l’absence d’informations accessibles au public sur le nombre de contenus ayant fait l’objet d’une action au titre de la politique en matière de fausses informations, parmi d’autres données pertinentes, compromet la capacité des chercheurs et des parties prenantes à évaluer l’efficacité des réponses existantes de Meta aux fausses informations sur le COVID-19. Meta doit fournir des données permettant d’évaluer si l’application de la politique donne lieu à un trop grand nombre de faux positifs et doit être modifiée pour réduire le risque d’une application excessive. À cet égard, le rapporteur spécial des Nations unies sur la liberté d’expression a souligné le « manque de transparence et d’accès aux données qui empêche une évaluation objective de l’efficacité des mesures » adoptées pour lutter contre les fausses informations en ligne. Cela empêche également les parties prenantes de savoir si les politiques ont été appliquées de manière cohérente dans le monde entier. ( A/HRC/47/25, paragraphe 65).
106. Le Conseil a déjà recommandé à Meta de distribuer les données de son rapport sur l’application des Standards de la communauté par pays et par langue (« Inquiétude pendjabie concernant le RSS en Inde », [ 2021-003-FB-UA] décision sur le cas, recommandation 1). En réponse, Meta s’est engagée à modifier ses indicateurs et s’est fixée pour objectif de les lancer d’ici la fin de l’année 2023. La distribution des données d’application par pays ou par langue est essentielle pour comprendre l’ampleur du problème dans les différentes parties du monde et l’efficacité relative des mesures d’application prises par l’entreprise. En l’absence de données pertinentes permettant aux chercheurs et à la société civile d’évaluer les efforts de l’entreprise, le Conseil et, surtout, les parties prenantes de Meta ne sont pas en mesure de comprendre pleinement et utilement l’efficacité de la politique mondiale actuelle de l’entreprise et de son approche en matière d’application de la loi pour lutter contre les fausses informations sur le COVID-19.
107. Recommandation 13 :Meta devrait créer une section dans son « Rapport sur l’application des Standards de la communauté » pour rendre compte des demandes des acteurs étatiques d’examiner le contenu pour les infractions à lapolitique en matière defausses informations sur la santé pendant les urgences de santé publique . Le rapport doit contenir des informations détaillées sur le nombre de demandes d’examen et de suppression par pays et par agence gouvernementale, ainsi que sur le nombre de rejets et d’approbations par Meta. Le Conseil examinera cette mise en œuvre lorsque Meta publiera, dans une section distincte de son « Rapport sur l’application des Standards de la communauté », des informations sur les demandes émanant d’acteurs étatiques qui ont abouti à une suppression pour ce type d’infraction à la politique.
108. Dans le cas « Musique drill britannique » [ 2022-007-IG-MR], le Conseil a recommandé à Meta de « publier des données sur les demandes d’examen et de suppression de contenu émanant d’acteurs étatiques pour infraction aux Standards de la communauté ». Au plus fort de la pandémie de COVID-19, des inquiétudes ont été exprimées quant à l’examen par Meta de contenus liés au COVID-19 à la demande des gouvernements. Cette tendance pourrait être exacerbée dans les pays où les gouvernements font de telles demandes pour réprimer les manifestants pacifiques ou les défenseurs des droits humains qui critiquent les politiques gouvernementales ou pour faire taire le débat public. Pendant la pandémie, le rapporteur spécial des Nations unies sur les droits à la liberté de réunion pacifique et d’association s’est inquiété de voir des gouvernements du monde entier utiliser la pandémie comme prétexte pour imposer l’état d’urgence ou pour contourner les exigences en matière de procédure régulière et les contrôles et équilibres institutionnels inhérents à une société démocratique. Cela a porté atteinte aux droits humains fondamentaux, tels que le droit de manifester pacifiquement ( A/HRC/50/42, paragraphe. 18 ; A/77/171, para. 40, 67). Un rapport détaillé sur les demandes d’examen de contenu formulées par les acteurs étatiques dans le cadre de la politique sur les fausses informations sur la santé pendant les urgences de santé publique permettrait aux utilisateurs de bénéficier d’une procédure régulière, conformément au principe de légalité, en particulier dans les pays à risque où l’espace civique est réduit.
109. Le rapporteur spécial des Nations unies sur les droits à la liberté de réunion pacifique et d’association a recommandé que les entreprises technologiques veillent à ce que leurs produits ne soient pas utilisés par les gouvernements pour surveiller ou contrôler les « militants des mouvements sociaux qui soutiennent les droits » (A/77/171, paragraphe 71). Le Conseil salue l’engagement de Meta à donner aux défenseurs des droits humains les moyens de lutter contre le harcèlement en ligne, la surveillance et la censure exigés par les gouvernements, comme le souligne la Politique de l’entreprise en matière de droits humains. La transparence sur les demandes gouvernementales d’examen et/ou de suppression de contenu en vertu du Standard de la communauté relatif aux fausses informations de Meta témoignerait de cet engagement.
110. Recommandation 14 : Meta devrait veiller à ce que les outils de recherche existants, tels que CrowdTangle et Facebook Open Research and Transparency (FORT), continuent d’être mis à la disposition des chercheurs. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta s’engagera publiquement à partager les données avec les chercheurs au moyen de ces outils.
111. Recommandation 15 : Meta devrait mettre en place une voie permettant aux chercheurs externes d’accéder aux données non publiques afin d’étudier de manière indépendante les effets des interventions politiques liées à la suppression et à la réduction de la diffusion de fausses informations sur le COVID-19, tout en veillant à ce que ces voies protègent le droit à la vie privée des utilisateurs de Meta et les droits humains des personnes sur la plateforme et en dehors de celle-ci. Ces données devraient inclure des paramètres qui n’ont pas encore été mis à disposition, notamment le taux de récidive dans le cadre des interventions de fausses informations sur le COVID-19. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta mettra ces ensembles de données à la disposition de chercheurs externes et qu’elle le confirmera au Conseil.
112. Le rapporteur spécial des Nations unies sur la liberté d’expression a noté qu’il était difficile de s’attaquer aux fausses informations, en partie à cause du manque d’informations suffisamment accessibles au public qui permettraient aux utilisateurs, aux chercheurs et aux militants de comprendre et d’articuler la nature du problème ( A/HRC/47/25, paragraphes 3, 67, 81). À cette fin, le rapporteur spécial des Nations unies sur la liberté d’expression recommande de rendre les données disponibles pour « la recherche, l’élaboration de politiques, le suivi et l’évaluation » (A/HRC/47/25, paragraphe 104).
113. CrowdTangle est un outil que les chercheurs externes peuvent utiliser pour suivre les « comptes publics et groupes influents sur Facebook et Instagram » et analyser les tendances pertinentes, notamment en matière de fausses informations. La base de données de l’outil comprend tous les utilisateurs, profils et comptes vérifiés/publics, tels que ceux des personnalités politiques, des journalistes, des médias et des éditeurs, des célébrités, des équipes sportives et d’autres personnalités publiques. Il inclut également les groupes publics et les pages dépassant un certain seuil selon le pays. Il partage des données sur la date et le type de contenu publié, la page, le compte ou le groupe qui a partagé le contenu, le nombre et le type d’interactions avec le contenu, et les autres pages ou comptes publics qui l’ont partagé. Il ne suit pas la portée du contenu, ni les données ou le contenu publiés par des comptes privés, ni le contenu payant ou renforcé, ni les informations démographiques des utilisateurs qui interagissent avec le contenu. CrowdTangle dispose de données sur plus de sept millions de pages, groupes et profils vérifiés de Facebook et sur plus de deux millions de comptes publics de Instagram.
114. En 2022, des articles de presse ont affirmé que Meta prévoyait de mettre fin à CrowdTangle. Bien que Meta ne l’ait pas confirmé publiquement, le Conseil souligne que les outils de recherche devraient être renforcés plutôt qu’abandonnés par l’entreprise. Cela permettrait aux chercheurs externes de comprendre l’impact des produits Meta, y compris sur les fausses informations sur le COVID-19.
115. Le Conseil prend acte des efforts déployés par Meta pour mettre en place l’outil Facebook Open Research and Transparency (FORT), qui met à la disposition des universitaires et des chercheurs divers ensembles de données protégées par le droit à la vie privée. Selon l’entreprise, la plateforme de recherche de FORT permet aux chercheurs en sciences sociales d’accéder à des informations sensibles dans un environnement contrôlé concernant des « données comportementales à grande échelle afin d’étudier et d’expliquer les phénomènes sociaux ». Toutefois, des rapports ont fait état des lacunes de l’outil pour la recherche universitaire, telles que les « conditions d’utilisation restrictives » de Meta ou le fait que les chercheurs reçoivent des informations insuffisantes pour entreprendre une analyse significative. Cela dit, le Conseil reconnaît que, dans le contexte d’autres entreprises de réseaux sociaux, Meta a pris des mesures importantes pour partager des données avec des chercheurs externes et le Conseil encourage Meta à entreprendre encore davantage d’actions.
116. Tout au long des activités d’engagement des parties prenantes menées dans le cadre du présent avis consultatif en matière de politique, les chercheurs ont insisté à plusieurs reprises sur la nécessité de disposer de ces outils pour suivre les tendances liées aux fausses informations sur le COVID-19. Le manque d’accès aux données pertinentes a également posé des problèmes au Conseil lorsqu’il a évalué le bien-fondé de la demande d’avis consultatif en matière de politique. D’après le Conseil, certaines de ces données ne sont pas disponibles pour l’entreprise elle-même, tandis que d’autres sont disponibles mais ne peuvent pas être partagées avec les parties prenantes externes, y compris le Conseil. Meta devrait permettre aux chercheurs d’accéder aux données pertinentes afin de suivre la prévalence des fausses informations sur le COVID-19 sur la plateforme et l’efficacité des mesures spécifiques prises pour y remédier. Ces informations sont également essentielles à la réalisation de l’évaluation de l’impact sur les droits humains évoquée plus haut.
117. Recommandation 16 : Meta devrait publier les résultats de ses recherches sur les étiquettes neutres et de vérification des informations qu’elle a partagées avec le Conseil au cours du processus d’avis consultatif en matière de politique sur le COVID-19. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta publiera cette recherche dans son Espace modération.
118. Le Conseil apprécie les informations que Meta a partagées avec le Conseil sur l’efficacité des NTI et la rétrogradation du contenu, telles que les résultats des expériences menées par l’entreprise pour évaluer l’efficacité continue des NTI. Le Conseil est d’avis que les résultats de ces expériences devraient être partagés plus largement avec les chercheurs externes qui cherchent à comprendre l’impact des réponses de l’entreprise aux fausses informations sur le COVID-19.
119. Recommandation 17 : Meta devrait garantir un accès équitable aux données aux chercheurs du monde entier. Alors que les chercheurs européens auront la possibilité de demander l’accès aux données par le biais de la loi sur les services numériques (DSA), Meta devrait s’assurer qu’il n’y a pas de surindexation des chercheurs des universités de recherche des pays du Nord. Les recherches sur la prévalence des fausses informations sur le COVID-19 et l’impact des politiques de Meta permettront de mieux comprendre les fausses informations nuisibles pour la santé dans cette situation d’urgence et dans les situations d’urgence à venir, et d’y réagir quand elles surviendront. Si cette recherche se concentre de manière disproportionnée sur les pays du Nord, la réponse le sera également. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta partagera publiquement son plan visant à fournir aux chercheurs du monde entier un accès aux données similaire à celui fourni aux pays de l’UE dans le cadre de la DSA.
120. La majorité des recherches sur les flux de fausses informations reflètent de manière disproportionnée les tendances et les modèles observés aux États-Unis et en Europe occidentale. Cela pourrait conduire à ce que les interventions en matière de politique de contenu soient conçues en fonction des problèmes spécifiques de ces zones géographiques. Le rapporteur spécial des Nations unies sur la liberté d’expression a pris note des appels de la société civile en faveur de recherches plus approfondies sur l’impact des fausses informations sur les « communautés vulnérables et minoritaires », citant les campagnes de désinformation fondées sur l’identité qui ont alimenté les conflits ethniques en Éthiopie et au Myanmar ( A/HRC/47/25, paragraphe 26). Comme Meta élargit l’accès aux chercheurs externes conformément à la loi sur les services numériques et qu’elle maintient son propre FORT, l’entreprise devrait assurer la représentation des universitaires et des chercheurs du monde entier.
121. Recommandation 18 : Meta devrait évaluer l’impact du système de vérification croisée Early Response Secondary Review (ERSR) sur l’efficacité de son application de la politique en matière de fausses informations et veiller à ce que les recommandations 16 et 17 de l’avis consultatif en matière de politique du Conseil sur le programme de vérification croisée de Meta s’appliquent aux entités qui publient du contenu enfreignant la politique en matière de fausses informations sur la santé pendant les urgences de santé publique. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta partagera ses conclusions avec le Conseil et les rendra publiques.
122. Selon Meta, le programme de vérification croisée a été mis en place pour minimiser les erreurs de modération faussement positives les plus risquées. La première partie du programme de vérification croisée est le système ERSR (Early Response Secondary Review) qui garantit un examen manuel supplémentaire des contenus potentiellement en infraction publiés par des entités habilitées spécifiques. Meta tient à jour des listes d’entités habilitées en fonction des personnes que l’entreprise a jugées aptes à bénéficier des avantages offerts par l’ERSR. Les entités peuvent prendre la forme de pages Facebook, de profils Facebook et de comptes Instagram et peuvent représenter des personnes, des groupes ou des organisations. De nombreux utilisateurs figurant sur ces listes sont des célébrités, de grandes entreprises, des chefs de gouvernement et des personnalités politiques.
123. Dans son avis consultatif en matière de politique sur le programme de vérification croisée de Meta, le Conseil a recommandé à Meta d’établir « des critères clairs et publics pour l’éligibilité à la prévention des erreurs basée sur les entités » qui permettraient de différencier les « utilisateurs dont l’expression mérite une protection supplémentaire du point de vue des droits humains » de ceux « inclus à des fins commerciales ».
124. Les personnalités politiques sont exemptées du programme de vérification tierce. Cela signifie que les fausses informations diffusées par les personnalités politiques, qui ne sont pas supprimées dans le cadre de la politique en matière de fausses informations nuisibles pour la santé, ne peuvent pas être examinées et étiquetées par des médias de vérification tiers. Meta a également expliqué qu’elle n’avait pas évalué l’impact du système ERSR sur l’efficacité de la politique en matière de fausses informations sur le COVID-19, car l’ERSR a été mis en place pour éviter les erreurs d’application plutôt que pour évaluer l’efficacité d’un Standard de la communauté spécifique. Les équipes internes de l’entreprise ne suivent pas et n’analysent pas les données relatives à son impact sur la politique en matière de fausses informations sur le COVID-19.
125. Sur la base de recherches internes et de l’engagement des parties prenantes pour cet avis consultatif en matière de politique sur le COVID-19, le Conseil a constaté que de nombreux diffuseurs de fausses informations sont des orateurs de premier plan tels que des célébrités, des personnalités politiques, des acteurs étatiques et des personnalités religieuses qui peuvent être des entités ayant droit aux avantages du programme de l’ERSR. Par exemple, la soumission de Media Matters for America (PC-10758) a attiré l’attention sur l’impact du système de vérification croisée de Meta, qui sape les efforts déployés pour lutter contre les fausses informations. Comme les célébrités, les personnalités politiques, les journalistes et d’autres utilisateurs importants bénéficiant d’une « application plus lente ou plus indulgente » en cas de violation de contenu, les fausses informations ont pu rester sur la plateforme. Le rapporteur spécial des Nations unies sur la liberté d’expression s’est également inquiété des « informations peu fiables » diffusées par des individus disposant de plateformes importantes », notant que cela « peut causer de graves préjudices, que l’intention soit malveillante ou non ». Les acteurs étatiques ont également diffusé des « affirmations souvent irréfléchies » sur les origines du virus, la disponibilité de médicaments pour lutter contre les symptômes et la situation du COVID-19 dans leur pays, entre autres. Le rapporteur spécial des Nations unies a recommandé de tenir les représentants étatiques responsables de leurs déclarations et de leurs actes. ( A/HRC/44/49, para. 41, 45, 63(c) ; voir également A/HRC/47/25, para. 18, identifiant les célébrités comme des pourvoyeurs de fausses informations de manière plus générale).
126. Les fausses informations publiées par les entités habilitées dans le cadre du programme ERSR et susceptibles de contribuer directement au risque de blessures physiques imminentes pour la santé et la sécurité publiques seront supprimées conformément à la politique en matière de fausses informations nuisibles pour la santé. Toutefois, les fausses informations qui mériteraient une vérification des informations ou une étiquette, mais qui sont publiées par des entités habilitées telles que des personnalités politiques, sont non seulement exemptées de la vérification tierce, mais bénéficient également d’une application retardée en raison de l’examen manuel supplémentaire des contenus potentiellement en infraction fourni par le système ERSR. Cela signifie que les fausses informations sur le COVID-19 qui ne font pas partie des 80 affirmations définies et qui sont publiées par des entités habilitées peuvent rester sur la plateforme sans étiquette de vérification des informations et peuvent même ne pas être examinées du tout.
*Note de procédure :
Les avis consultatifs en matière de politique du Conseil de surveillance sont préparés par des groupes de cinq membres et approuvés par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.
Pour cet avis consultatif en matière de politique, une étude indépendante a été commandée pour le compte du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 spécialistes en sciences sociales sur 6 continents ainsi que 3 200 spécialistes nationaux du monde entier. Le Conseil a également bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Le Conseil a également bénéficié de l’aide de Memetica, une organisation qui effectue des recherches en libre accès sur les tendances des réseaux sociaux, qui a également fourni une analyse.
Retour aux décisions de cas et aux avis consultatifs politiques