Confirmé
Confinements pour COVID au Brésil
Le Conseil de surveillance a confirmé la décision de Facebook de conserver la publication d’un conseil médical d’État au Brésil qui prétendait que les confinements étaient inefficaces et avaient été condamnés par l’Organisation mondiale de la Santé (OMS).
Résumé du cas
Le Conseil de surveillance a confirmé la décision de Facebook de conserver la publication d’un conseil médical d’État au Brésil qui prétendait que les confinements étaient inefficaces et avait été condamnée par l’Organisation mondiale de la Santé (OMS).
Le Conseil a estimé que la décision de Facebook de conserver le contenu sur la plateforme était conforme à ses règles relatives au contenu. Le Conseil était d’avis que le contenu comportait certaines informations incorrectes qui soulèvent des inquiétudes compte tenu de la gravité de la pandémie au Brésil et du statut du conseil en tant qu’institution publique. Cependant, selon le Conseil, le contenu ne créait pas un risque de danger imminent et devrait, par conséquent, rester sur la plateforme. Enfin, le Conseil a souligné l’importance de l’adoption d’autres mesures que la suppression pour lutter contre la diffusion de fausses informations sur le COVID-19 dans certaines circonstances, comme celles de ce cas.
À propos du cas
En mars 2021, la Page Facebook d’un conseil médical d’État au Brésil a publié une photo comportant un avis écrit sur les mesures visant à réduire la propagation du COVID-19 et intitulé « Avis public contre le confinement ».
L’avis affirme que les mesures de confinement sont inefficaces, vont à l’encontre des droits fondamentaux de la Constitution et sont condamnées par l’OMS. Il comprend une prétendue citation du Dr David Nabarro, envoyé spécial de l’OMS pour le COVID-19, indiquant que « le confinement ne sauve pas de vies et rend les personnes pauvres encore plus pauvres ». L’avis prétend que l’État brésilien d’Amazonas a enregistré une augmentation du nombre de décès et d’hospitalisations après le confinement, preuve de l’échec des restrictions imposées. D’après cette publication, le confinement provoquerait davantage de troubles mentaux et d’abus de drogue et d’alcool, ainsi que des dommages économiques, entre autres. Elle conclut en expliquant que les mesures préventives efficaces contre le COVID-19 sont les campagnes sur les mesures d’hygiène, l’utilisation de masques, la distanciation sociale, la vaccination et un contrôle par le gouvernement, mais en aucun cas le confinement.
La page compte plus de 10 000 abonnés. Le contenu a été vu environ 32 000 fois et partagé environ 270 fois. Aucun utilisateur n’a signalé le contenu. Facebook n’a pris aucune mesure contre le contenu et a transmis le cas au Conseil. Le contenu est toujours en ligne sur la plateforme.
Principales observations
Le Conseil en a conclu que la décision de Facebook de conserver le contenu sur la plateforme était conforme à ses règles relatives au contenu. Le Standard de la communauté en matière de violence et d’incitation interdit le contenu comportant de fausses informations qui contribue à un risque de violence imminente ou de blessures physiques. L’article des pages d’aide lié au Standard stipule que Facebook déterminera si les informations sont fausses sur la base de l’opinion des autorités de santé publique. Le Conseil était d’avis que le contenu comportait certaines informations incorrectes qui soulèvent des inquiétudes compte tenu de la gravité de la pandémie au Brésil et du statut du conseil en tant qu’institution publique. Cependant, selon le Conseil, le contenu ne créait pas un risque de danger imminent.
La déclaration affirmant que l’OMS a condamné les confinements et la citation attribuée au Dr David Nabarro ne sont pas tout à fait justes. Le Dr Nabarro n’a pas déclaré que « le confinement ne sauve pas de vies », mais a plutôt indiqué que l’OMS « ne préconisait pas le confinement comme méthode principale de contrôle du virus » et que cette méthode « rendait les personnes pauvres encore plus pauvres ». L’OMS a expliqué que « le confinement n’est pas une solution durable en raison de ses importantes répercussions économiques, sociales et sanitaires. Cependant, durant la pandémie #COVID19, il y a eu des moments où des restrictions ont été nécessaires et il pourrait y en avoir d’autres à l’avenir ».
Le Conseil prend note de l’argument de Facebook selon lequel le seuil du « danger imminent » n’avait pas été atteint, car l’OMS et d’autres spécialistes de la santé ont conseillé à l’entreprise de « supprimer les déclarations plaidant contre des pratiques sanitaires spécifiques, telles que la distanciation sociale », mais pas les déclarations plaidant contre les mesures de confinement. Bien que Facebook ait confirmé avoir été en contact avec l’autorité de santé publique nationale brésilienne, l’entreprise affirme ne pas tenir compte du contexte local lorsqu’elle définit le seuil de danger imminent pour la mise en application des règles en matière de fausses informations et de danger imminent.
Le Conseil estime que Facebook devrait tenir compte du contexte local pour évaluer le risque de blessures physiques imminentes et prendre en considération le fait que le contenu a été partagé par une institution publique qui a le devoir de fournir des informations fiables. Cependant, le Conseil reste d’avis que la publication n’atteint pas le seuil de danger imminent dans ce cas, et ce, malgré la gravité de la pandémie au Brésil, car la publication soulignait l’importance des autres mesures pour lutter contre la propagation du COVID-19, notamment la distanciation sociale.
Facebook a divulgué que la publication était éligible à la vérification des informations, mais que les partenaires de vérification des informations n’avaient pas évalué ce contenu. Le Conseil remarque que l’approche de Facebook n’a pas permis de fournir davantage de contexte au contenu susceptible de mettre en péril la confiance des personnes dans les informations publiques concernant le COVID-19 et que Facebook devrait donner la priorité à l’envoi de potentielles fausses informations en matière de santé publiées par des autorités publiques à des partenaires de vérification des informations.
Le Conseil remarque que Facebook a précédemment déclaré que le contenu des personnalités politiques n’était pas éligible à la vérification des informations, mais ses règles ne mentionnent pas de critères d’éligibilité clairs pour les autres utilisateurs, comme les pages ou comptes administrés par des institutions publiques.
Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé la décision de Facebook de garder le contenu sur la plateforme.
Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :
- Mettre en œuvre la recommandation du Conseil de la décision sur le cas 2020-006-FB-FBR suggérant à Facebook d’adopter des mesures moins intrusives lorsque le contenu lié au COVID-19 déforme les recommandations des autorités de santé internationales et lorsqu’un risque de blessures physiques est identifié, mais pas imminent.
- Donner la priorité à la vérification des informations du contenu signalé comme de fausses informations sanitaires en tenant compte du contexte local.
- Être plus transparent dans le Standard de la communauté sur les fausses informations concernant les cas où le contenu est éligible à la vérification des informations, et notamment la possibilité ou non pour les comptes des institutions publiques d’être soumis à la vérification des informations.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a confirmé la décision de Facebook de conserver la publication d’un conseil médical d’État au Brésil qui prétendait que les confinements étaient inefficaces et avait été condamnée par l’Organisation mondiale de la Santé (OMS). De ce fait, le contenu restera sur Facebook.
2. Description du cas
En mars 2021, la Page Facebook d’un conseil médical d’État au Brésil a publié une photo comportant un avis écrit en portugais sur les mesures visant à réduire la propagation du COVID-19 et intitulé « Avis public contre le confinement ». L’avis affirme que les mesures de confinement sont inefficaces, vont à l’encontre des droits fondamentaux de la Constitution et sont condamnées par l’Organisation mondiale de la Santé (OMS). Il comprend une prétendue citation du Dr David Nabarro, l’un des envoyés spéciaux de l’OMS pour le COVID-19, indiquant que « le confinement ne sauve pas de vies et rend les personnes pauvres encore plus pauvres. » L’avis prétend également que l’État brésilien d’Amazonas a enregistré une augmentation du nombre de décès et d’hospitalisations après le confinement, preuve de l’échec des restrictions imposées. D’après cette publication, le confinement provoquerait une augmentation des troubles mentaux et de l’abus de drogue et d’alcool, ainsi que des dommages économiques, entre autres. Elle conclut en expliquant que les mesures préventives efficaces contre le COVID-19 sont les campagnes sur les mesures d’hygiène, l’utilisation de masques, la distanciation sociale, la vaccination et un contrôle accru du gouvernement, mais pas le confinement.
La page compte plus de 10 000 abonnés. Le contenu a été vu environ 32 000 fois et partagé environ 270 fois. Aucun utilisateur n’a signalé le contenu. Facebook n’a pris aucune mesure contre le contenu et a transmis le cas au Conseil. Le contenu est toujours en ligne sur la plateforme.
Les faits passés suivants sont pertinents pour la décision du Conseil. L’article 1 de la loi fédérale n° 3268/1957 stipule que les conseils médicaux font partie de l’administration gouvernementale de chacun des 26 états, sont dotés d’une personnalité juridique en vertu de la loi publique et disposent d’une autonomie financière et administrative. Les conseils sont responsables de l’enregistrement professionnel des médecins et de leurs titres. L’article 2 indique qu’ils constituent des organes de supervision de l’éthique professionnelle et ont le pouvoir de sanctionner les médecins. Les conseils médicaux ne sont pas habilités à imposer des mesures comme des confinements conformément à la loi fédérale n° 3268/1957.
Les allégations de la publication disant que l’OMS condamnait les confinements et que le Dr David Nabarro déclarait que « le confinement ne sauve pas de vie » ne sont pas tout à fait justes. Le Dr Nabarro faisait remarquer que les confinements avaient pour conséquence de « rendre les personnes pauvres encore plus pauvres », mais il n’a pas dit que cette mesure « ne sauve pas de vies ». L’OMS n’a pas condamné les confinements, elle a indiqué que cette mesure n’est pas une solution durable en raison de ses importantes répercussions économiques, sociales et sanitaires, mais il y a des moments où des restrictions sont nécessaires et où il est préférable d’y recourir afin de préparer des mesures de santé publique à plus long terme.
Le confinement dans l’État d’Amazonas qui est mentionné dans l’avis partagé par le conseil médical a été appliqué entre le 25 et le 31 janvier 2021 par le biais du décret n° 43 303 du 23 janvier 2021 et prolongé jusqu’au 7 février 2021 par le décret n° 43 348 du 31 janvier 2021. Les décrets fixaient des restrictions temporaires à la circulation des personnes dans des lieux publics et suspendaient le déroulement de tout service ou toute activité commerciale à quelques exceptions près, notamment le transport des biens essentiels, l’ouverture des marchés, boulangeries, pharmacies, stations services, banques et unités de soins de santé. Les forces de l’ordre et d’autres autorités ont veillé à l’application des mesures de confinement. Les personnes qui ne respectaient pas ces décrets pouvaient se voir infliger différentes sanctions.
3. Autorité et champ d’application
Le Conseil de surveillance est habilité à examiner un large éventail de questions soumises par Facebook (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Les décisions prises sur ces questions sont contraignantes et peuvent inclure des avis consultatifs sur les politiques assortis de recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte).
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook :
L’introduction des Standards de la communauté comporte une section intitulée «COVID-19 : Mises à jour et protections des Standards de la communauté ». La version intégrale du texte stipule ce qui suit :
Étant donné que le monde entier fait face à cette crise sanitaire sans précédent, nous souhaitons nous assurer que nos Standards de la communauté protègent nos utilisateurs contre tout contenu dangereux ou nouveau type d’abus lié au COVID-19. Nous nous efforçons de supprimer tout contenu susceptible d’entraîner un préjudice dans le monde réel, notamment par le biais de nos politiques interdisant la coordination des préjudices, la vente de masques médicaux et d’articles connexes, les discours haineux, l’intimidation, le harcèlement ainsi que les fausses informations contribuant au risque d’un acte de violence ou de blessures physiques imminentes.
À mesure que la situation évoluera, nous continuons d’examiner le contenu de la plateforme, d’évaluer les tendances en matière de discours et de collaborer avec des experts, et nous vous fournirons, le cas échéant, des règles en matière de politique pour assurer la sécurité des membres de notre communauté durant cette crise. [souligné]
Le Standard de la communauté en matière de violence et d’incitation stipule que Facebook interdit le contenu comportant de « fausses informations et rumeurs invérifiables qui contribuent à un risque de violence imminente ou de blessures physiques ». Par la suite, le texte dit ce qui suit : « De plus, nous nous appuyons sur des règles et des instructions spécifiques concernant le contenu lié au COVID-19 et aux vaccins. Pour consulter ces règles spécifiques, cliquez ici. »
Selon l’article auquel renvoie le lien ci-dessus et en vertu de cette règle, Facebook supprime le contenu incitant à ne pas suivre les bonnes pratiques sanitaires « que les autorités de santé publique conseillent de suivre afin de se protéger de la contraction et de la propagation du COVID-19 », y compris « le port d’un masque de protection, le respect de la distanciation sociale, le passage d’un test au COVID-19 et […] la vaccination contre le COVID-19 ».
La justification de la Politique pour le Standard de la communauté sur les fausses informations stipule que :
Limiter la diffusion de fausses informations sur Facebook est une responsabilité que nous prenons très au sérieux. Nous sommes bien conscients qu’il s’agit d’un problème épineux et délicat. Nous voulons que les gens restent informés sans étouffer les débats publics productifs. En effet, il n’y a qu’un pas entre les fausses informations et la satire ou les avis personnels. Pour ces raisons, nous ne supprimons pas les fausses informations de Facebook, mais en limitons significativement la diffusion en les affichant plus bas dans le fil d’actualité.
Le Standard sur les fausses informations fournit des informations sur un éventail d’options de mise en application utilisées par Facebook en plus de la suppression du contenu :
Nous travaillons pour créer une communauté plus informée et réduire la diffusion des fausses informations par de nombreux moyens, notamment :
- En mettant fin aux incitations économiques pour les personnes, les Pages et les domaines qui propagent de fausses informations.
- Utiliser différents signaux, notamment les retours de notre communauté, pour informer un modèle de machine learning qui prédit quelles informations peuvent être fausses.
- Limiter la diffusion du contenu qualifié comme faux par des médias de vérification indépendants.
- En donnant aux personnes la possibilité de choisir quels articles lire, croire ou partager en leur proposant plus de contexte et en encourageant la culture d’information.
- En collaborant avec des universitaires et d’autres organisations pour résoudre cette question épineuse.
II. Valeurs de Facebook :
Les valeurs de Facebook sont décrits dans l’introduction des Standards de la communauté. La « liberté d’expression » est décrite comme la valeur primordiale de Facebook :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner la parole à tous. Cela n’a pas changé et cela ne changera pas. Pour créer des communautés et rapprocher le monde entier, les personnes doivent pouvoir partager des points de vue, des expériences, des idées et des informations variés. Nous souhaitons que chacun puisse s’exprimer ouvertement sur des sujets qui lui tiennent à cœur, même si d’autres ne sont pas d’accord ou trouvent ces sujets désagréables.
Facebook fait remarquer que la « liberté d’expression » peut être limitée au profit de quatre autres valeurs – dans ce cas-ci, la « Sécurité » constitue la valeur pertinente :
Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.
III. Normes relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En mars 2021, Facebook a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle elle réaffirme son engagement à respecter les droits de l’homme conformément aux UNGP. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :
- Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme,2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018), A/74/486 (2019), A/HRC/44/49 (2020), A/HRC/47/25 (2021); la Déclaration conjointe sur la liberté d’expression et les fausses nouvelles (« fake news »), la désinformation et la propagande, FOM.GAL/3/17 (2017).
- Le droit à la santé : l’article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC). l’observation générale n° 14, Comité des droits économiques, sociaux et culturels, (2000).
- Le droit à la vie : Article 6, ICCPR.
5. Déclaration de l’utilisateur
Facebook a transmis ce cas au Conseil de surveillance. Facebook a confirmé au Conseil de surveillance que l’entreprise avait envoyé une notification à l’utilisateur indiquant que le cas avait été transmis au Conseil et avait laissé la possibilité à l’utilisateur d’envoyer des informations relatifs à ce cas, mais que l’utilisateur n’avait pas envoyé de déclaration.
Le Conseil prend note du fait que la notification envoyée par Facebook laisse la possibilité à l’utilisateur d’envoyer des informations. Cependant, le Conseil s’inquiète du fait que Facebook ne fournisse pas suffisamment d’informations à l’utilisateur pour qu’il puisse envoyer une déclaration correctement. Les notifications que l’utilisateur peut voir sur Facebook indiquent les thèmes généraux sur lesquels portent les cas, mais ne fournissent pas une explication détaillée de la raison pour laquelle le contenu avait été transmis au Conseil et ne mentionnent pas non plus les règles pertinentes que le contenu doit respecter.
6. Explication de la décision de Facebook
Facebook n’a pris aucune mesure contre le contenu et a indiqué, dans son renvoi au Conseil, que le cas est « complexe, car ce contenu n’enfreint pas les règles de Facebook, mais peut tout de même être compris par certaines personnes comme un plaidoyer pour certaines mesures de sécurité pendant la pandémie ». Ce document expliquait qu’« une équipe interne de Facebook qui connaît la région a remarqué des signalements de la presse pour ce cas et l’avait signalé pour examen. Les examinateurs ont déterminé que le contenu n’enfreignait pas les règles de Facebook. »
Facebook déclare interdire les fausses informations qui peuvent contribuer à un risque de violence imminente ou de blessures physiques » et avoir consulté l’OMS et les Centres pour le contrôle et la prévention des maladies des États-Unis ainsi que les autres autorités de santé publique principales afin de déterminer si une fausse allégation particulière concernant le COVID-19 pourrait contribuer à un risque de blessures physiques imminentes. Facebook affirme que le contenu ne répond pas à ce critère dans ce cas-ci. L’entreprise déclare que « l’Organisation mondiale de la Santé n’a pas indiqué que critiquer les mesures de confinement peut contribuer à un risque de blessures physiques imminentes » et que « si l’OMS et d’autres spécialistes de la santé ont conseillé à Facebook de supprimer les déclarations plaidant contre des pratiques sanitaires spécifiques, telles que la distanciation sociale, ils n’ont pas conseillé à Facebook de supprimer les déclarations plaidant contre les mesures de confinement ».
En réponse à une question du Conseil sur la manière dont Facebook définit la limite entre les mesures de confinement et de distanciation sociale, l’entreprise a indiqué que « l’OMS définit "le confinement" comme des mesures de distanciation sociale et des restrictions de mouvement à grande échelle mises en place par le gouvernement. La distanciation sociale, par contre, correspond à la pratique selon laquelle un individu garde une certaine distance physique par rapport à une autre personne. En théorie, un confinement peut inclure la distanciation sociale comme critère. »
Facebook fait également remarquer que « dans ce cas, la publication était éligible à une évaluation par nos médias de vérification tiers, mais ces derniers n’ont pas évaluer ce contenu. [sic] et il n’a pas été rétrogradé ou classé comme fausse information. » Facebook a déclaré que ses partenaires de vérification des informations sont indépendantes et que l’entreprise « ne spécule pas sur la raison pour laquelle ils évaluent ou non des publications éligibles, y compris celle-ci. »
Facebook indique que l’entreprise n’adopte pas une approche différente pour le seuil de fausses informations sanitaires selon le contexte des différents pays – le champ d’application de ses règles est global. L’entreprise affirme consulter les principales autorités de santé publique pour la mise au point de ses règles et a confirmé dans ses réponses aux questions du Conseil qu’elle avait été en contact avec l’autorité de santé publique nationale brésilienne.
7. Soumissions de tierces parties
Le Conseil de surveillance a reçu 30 commentaires publics sur ce cas. Trois commentaires ont été publiés depuis l’Asie-Pacifique et l’Océanie, un d’Asie centrale et du Sud, neufs d’Amérique latine et des Caraïbes et 17 des États-Unis et du Canada.
Une série d’organisations et d’individus ont publiés des commentaires, y compris plusieurs chercheurs et organisations du Brésil. Les soumissions couvraient les thèmes suivants : l’importance de tenir compte du contexte brésilien, y compris l’impact du COVID-19 et le contexte politique ; la discussion autour et l’analyse de l’impact des autres mesures de mise en application comme le classement ou la rétrogradation ; et l’effet d’influence de l’utilisateur en tant qu’autorité médicale.
Les commentaires fournissant plus de contexte sur la situation au Brésil signalaient la politisation de l’urgence sanitaire au Brésil (PC-10105), le fait que l’adhésion à des mesures stratégiques publiques factuelles de lutte contre le COVID-19 au Brésil avait été impactée par des forces politiques qui contestaient ces mesures (PC-10100) et le fait que des allégations contre les confinements pouvaient alimenter le non-respect d’autres mesures de sécurité en raison du contexte dans lequel le mot « confinement » avait engendré un buzz politique (PC-10106). Les chercheurs concentrés sur la désinformation au Brésil ont également estimé que les autorités publiques avaient un impact plus important lorsqu’elles partagent de fausses informations (PC-10104).
Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
8.1 Respect des Standards de la communauté
Le Conseil en conclut que la décision de Facebook de conserver le contenu sur la plateforme était conforme à ses règles relatives au contenu. Le Standard de la communauté en matière de violence et d’incitation interdit le contenu comportant de fausses informations qui contribue à un risque de violence imminente ou de blessures physiques. L’article des pages d’aide lié au Standard de la communauté en matière de violence et d’incitation stipule que Facebook supprime le faux contenu en vertu des présentes règles, qui sont basées sur des conseils déjà formulés par les autorités de santé publique. Bien que le Conseil estime que le contenu comporte de fausses informations (voir ci-dessous), le contenu ne crée pas un risque de danger imminent.
La publication prétend que les confinements ne constituent pas une mesure efficace et que l’OMS les condamne. Elle inclut une prétendue citation d’un représentant de l’OMS, le Dr David Nabarro, indiquant que « le confinement ne sauve pas de vies et rend les personnes pauvres encore plus pauvres. » Ces informations ne sont pas tout à fait justes. La partie de la citation du représentant de l’OMS, le Dr David Nabarro disant que « le confinement ne sauve pas de vie » n’est pas tout à fait juste. Le Dr Nabarro a indiqué que l’OMS « ne préconisait pas le confinement comme méthode principale de contrôle du virus » et que cette méthode « rendait les personnes pauvres encore plus pauvres », mais il n’a pas déclaré que « le confinement ne sauve pas de vies ». L’OMS a expliqué que « le confinement n’est pas une solution durable en raison de ses importantes répercussions économiques, sociales et sanitaires. Cependant, durant la pandémie #COVID19, il y a eu des moments où des restrictions ont été nécessaires et il pourrait y en avoir d’autres à l’avenir... En raison de ses importantes répercussions économiques, sociales et sanitaires, le confinement doit être limité dans le temps. Il est préférable d’y recourir afin de préparer des mesures de santé publique à plus long terme. Durant ces périodes, les états sont encourages à jeter les bases de solutions plus durables. »
Le Conseil prend note de l’argument de Facebook selon lequel le seuil du « danger imminent » n’avait pas été atteint, car l’Organisation mondiale de la Santé et d’autres spécialistes de la santé ont conseillé à l’entreprise de « supprimer les déclarations plaidant contre des pratiques sanitaires spécifiques, telles que la distanciation sociale », mais pas les déclarations plaidant contre les mesures de confinement. Bien que Facebook ait confirmé avoir été en contact avec « l’autorité de santé publique nationale brésilienne », l’entreprise a souligné qu’elle ne tenait pas compte du contexte local lorsqu’elle définit le seuil de « danger imminent » pour la mise en application des règles en matière de fausses informations et de danger imminent.
Cependant, le Conseil estime que Facebook devrait tenir compte du contexte local et de la situation actuelle au Brésil lors de l’évaluation du risque de blessures physiques imminentes. Comme l’ont mis en avant les experts consultés par le Conseil ainsi que plusieurs commentaires publiques publiés par des organisations et des chercheurs au Brésil, la pandémie de COVID-19 a déjà entraîné la mort de plus de 500 000 personnes dans ce pays, soit l’un des pires taux de mortalité par million d’habitants au monde. Les experts consultés et certains commentaires publics ont également mis l’accent sur la politisation des mesures de lutte contre la propagation du COVID-19 dans ce pays.
En raison de la situation et du contexte au Brésil, le Conseil s’inquiète du fait que la diffusion de fausses informations relatives au COVID-19 dans le pays est susceptible de mettre en péril la confiance des personnes dans les informations publiques concernant les mesures adéquates pour lutter contre la pandémie, ce qui pourrait accroître le risque que des utilisateurs adoptent des comportements à risque. Le Conseil comprend que cela justifierait une approche plus nuancée de Facebook dans le pays, qui devra intensifier ses efforts pour lutter contre les fausses informations sur place, comme le préconise le Conseil dans sa Recommandation 2 ci-dessous. Cependant, le Conseil reste d’avis que la publication n’atteint pas le seuil de danger imminent, car elle aborde une mesure qui n’est pas toujours suggérée par les autorités de santé publique et souligne l’importance des autres mesures pour lutter contre la propagation du COVID-19, notamment la distanciation sociale.
Dans ses réponses aux questions du Conseil concernant ce cas, Facebook a divulgué que la publication était éligible à la vérification des informations conformément au Standard de la communauté sur les fausses informations, mais que les partenaires de vérification des informations n’avait pas évalué ce contenu. Le Conseil comprend que ces partenaires ne soient pas en mesure d’analyser tout le contenu signalé comme des fausses informations par les systèmes automatisés de Facebook, les équipes internes ou les utilisateurs. Cependant, le Conseil remarque que l’approche de Facebook n’a pas permis de fournir davantage de contexte au contenu susceptible de mettre en péril la confiance des personnes dans les informations publiques concernant le COVID-19 et peut nuire à l’efficacité de mesures qui peuvent être essentielles dans certains cas. Facebook devrait donner la priorité à l’envoi de contenu qui attire son attention et contient de fausses informations en matière de santé partagées par des autorités publiques aux partenaires de vérification des informations, surtout pendant la pandémie. Le Conseil a formulé une recommandation à ce sujet à la section 10. Le Conseil remarque également que Facebook a précédemment déclaré que « la liberté d’opinion et d’expression » des personnalités politiques n’était pas éligible à la vérification des informations, mais ses règles ne mentionnent pas de critères d’éligibilité clairs pour les autres utilisateurs, comme les pages ou comptes administrés par des institutions publiques ou de l’État. Le Conseil indique que le contenu partagé par les institutions publiques ou d’État devrait être éligible à la vérification des informations.
8.2 Respect des valeurs de Facebook
Le Conseil a jugé que la décision de Facebook de ne pas prendre de mesures contre ce contenu était cohérente avec sa valeur de « liberté d’expression ». Bien que la valeur de « sécurité » de Facebook soit importante, surtout dans le contexte de la pandémie, ce contenu n’entraînait pas de danger imminent justifiant de faire passer la valeur de « sécurité » avant celle de « liberté d’expression ».
8.3 Respect des responsabilités de Facebook en matière des droits de l’homme
Liberté d’expression (article 19 du PIDCP)
L’article 19, paragraphe 2, du PIDCP fournit une large protection pour « toutes sortes » d’expression. Le Comité des droits de l’homme des Nations unies a souligné que la valeur d’expression est particulièrement élevé lorsque des questions d’intérêt public sont abordées ou que des institutions publiques sont impliquées (Observation générale n° 34, paragraphes 13, 20 et 38). En tant qu’institution établie par la loi, le conseil médical est une institution publique qui doit respecter les droits de l’homme, notamment le devoir de veiller à faire en sorte de diffuser une information fiable et digne de confiance, y compris sur les sujets d’intérêt général (A/HRC/44/49, paragraphe 44).
Le Conseil fait remarquer que même si les conseils médicaux ne sont pas habilités à imposer des mesures telles que des confinements, il est pertinent qu’ils fassent partie d’une administration gouvernementale d’État et qu’ils puissent exercer une influence sur les autorités qui décident de l’adoption de mesures pour lutter contre le propagation du COVID-19.
Le Conseil remarque que la publication interagit avec une discussion plus large et plus importante concernant les mesures appropriées pour lutter contre la propagation du COVID-19 au Brésil. En outre, vu que la publication a été partagée par la page Facebook d’un conseil médical au Brésil, elle a bénéficié d’un intérêt général accru au niveau de ses vues en tant qu’institution de santé publique. Le Conseil reconnaît qu’il est important que des experts professionnels partagent leurs opinions concernant la mise au point de politiques de santé publique.
Le droit à la liberté d’expression est fondamental et inclut le droit à l’information, y compris en provenance d’entités gouvernementales – bien que ce droit ne soit pas absolu. Lorsque des restrictions sont imposées par un État, elles doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Facebook a reconnu sa responsabilité de respecter les standards des droits internationaux de l’homme en vertu des PDNU. Sur la base du cadre des PDNU, le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression a appelé les entreprises de réseaux sociaux à veiller à ce que leurs règles en matière de contenu se fondent sur les critères de l’article 19, paragraphe 3 du PIDC (sur les règles de contenu traitant de la désinformation, voir 🙂 A/HRC/47/25, paragraphe 96 ; sur les règles de contenu au sens large, voir : A/HRC/38/35, paragraphes 45 et 70). Le Conseil a examiné si la suppression de la publication aurait été justifiée en vertu de ce test tripartite conformément aux responsabilités de Facebook en matière de droits de l’homme.
I. Légalité (clarté et accessibilité des règles)
L’article 19, paragraphe 3 du PIDCP exige que toute règle imposée par un État restreignant la liberté d’expression doit être claire, précise et accessible par le public (Observation générale 34, paragraphe 25). Les personnes doivent disposer de suffisamment d’informations pour déterminer si et comment leur accès à l’information peut être limité. Afin de protéger ces droits, il est également important que les organismes publiques soient en mesure de comprendre clairement les règles qui s’appliquent à leurs communications sur la plateforme et d’ajuster leur comportement en fonction de celles-ci. L’Observation générale 34 souligne aussi que les règles imposées « ne peuvent pas conférer aux personnes chargées de leur application un pouvoir illimité de décider de la restriction de la liberté d’expression » (paragraphe 25). Facebook a également la responsabilité de veiller à ce que ses règles respectent le principe de légalité (A/HRC/38/35, paragraphe 46).
Dans la décision sur le cas 2020-006-FB-FBR, le Conseil a estimé qu’il était « difficile pour les utilisateurs de comprendre quel contenu est interdit en matière de fausses informations sanitaires » en vertu des Standards de la communauté Facebook vu la « panoplie » de règles pertinentes (y compris les fausses informations qui contribuent à un risque de danger imminent en vertu du Standard en matière de « violence et d’incitation »). Le Conseil a également remarqué l’absence de définitions publiques de termes clés comme « fausses informations », concluant que cela rendait le Standards de la communauté en matière de violence et d’incitation « était trop vague » lorsqu’il s’appliquait aux fausses informations. À cet égard, le Rapporteur des Nations unies sur la liberté d’expression a déclaré que le principe de légalité devrait s’appliquer à « toute stratégie » face aux fausses informations, car il s’agit d’une « notion extraordinairement délicate à définir dans le droit, dont les représentants de l’exécutif sont susceptibles de tirer un pouvoir discrétionnaire excessif (A/HRC/44/49, paragraphe 42). Pour traiter ces problèmes, le Conseil a recommandé à Facebook de « présenter un Standard de la communauté clair et accessible en matière de fausses informations sanitaires afin de consolider et clarifier les règles existantes en les regroupant sur un seul emplacement ».
En réponse à la recommandation du Conseil, Facebook a publié l’article « Mises à jour des politiques et des protections relatives au COVID-19 et au vaccin » sur les pages d’aide, lequel est lié à la politique en matière de fausses informations et de danger en vertu du Standard de la communauté en matière de violence et d’incitation. Dans cet article, Facebook liste toutes les politiques relatives au COVID-19 et au vaccin issues des différents Standards de la communauté et fournit des exemples des types de contenu qui les enfreignent. Cet article est également disponible en portugais.
Bien que l’article des pages d’aide fournisse des informations utiles aux utilisateurs afin qu’ils comprennent comment la politique est mise en application, il s’ajoute aussi au nombre de sources de règles en dehors des Standards de la communauté. De plus, l’article n’est pas suffisamment « accessible au public » (Observation générale 34, paragraphe 25), étant donné qu’il est uniquement accessible aux personnes disposant d’une connexion à Facebook. En outre, il est seulement lié au Standard de la communauté en matière de violence et d’incitation et pas à d’autres Standards de la communauté applicables ou à l’annonce sur le COVID-19 dans l’introduction des Standards de la communauté.
Le Conseil rappelle également le point soulevé à la section 5 ci-dessus indiquant que Facebook ne fournit pas suffisamment d’informations aux utilisateurs pour leur permettre d’envoyer une déclaration au Conseil.
II. Objectif légitime
Toute restriction de la liberté d’expression doit également poursuivre « un objectif légitime ». Facebook a la responsabilité de veiller à ce que ses règles respectent le principe de légitimité (A/HRC/38/35, paragraphe 45). Le PIDCP dresse la liste des objectifs légitimes dans l’article 19, paragraphe 3, laquelle inclut la protection des droits des autres ainsi que la protection de la santé publique.
III. Nécessité et proportionnalité
Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale 34, paragraphe 34). Facebook a la responsabilité de veiller à ce que ses règles respectent les principes de nécessité et de proportionnalité (A/HRC/38/35, paragraphe 47).
Le Conseil a évalué si la suppression du contenu était nécessaire pour protéger la santé publique et le droit à la santé, conformément aux responsabilités en matière de droits de l’homme de Facebook. Le contenu avait été partagé par la page d’un conseil médical, faisant partie de l’administration gouvernementale d’État, qui peut, par les informations qu’il partage, influencer les décisions d’autres autorités publiques ainsi que le comportement du grand public.
Le Conseil fait remarquer qu’il est pertinent pour Facebook de tenir compte du fait que la page ou le compte soit administré par une institution publique, comme c’est le cas ici, car ces institutions ne devraient pas « faire, cautionner, encourager ou relayer des déclarations dont ils savent ou devraient raisonnablement savoir qu’elles sont fausses » ou « révèlent un mépris flagrant pour l’information vérifiable » (Rapporteur spécial des Nations unies sur la liberté d’expression, rapport A/HRC/44/49, paragraphe 44). Déclaration conjointe sur la liberté d’expression et les fausses informations (« fake news »), la désinformation et la propagande, FOM.GAL/3/17, paragraphe 2 (c)). En outre, les acteurs d’État devraient « conformément à leurs obligations juridiques nationales et internationales et à leurs devoirs publics, veiller à faire en sorte de diffuser une information fiable et digne de confiance, y compris sur les sujets d’intérêt général, telles que l’économie, la santé publique, la sécurité et l’environnement » (ibid., paragraphe 2(d)). Ce devoir est particulièrement important lorsque l’information est liée au droit à la santé, notamment lors d’une pandémie mondiale.
Une minorité est d’avis que le standard cité dans la Déclaration conjointe n’est pas applicable dans ce cas et que la définition utilisée dans la Déclaration conjointe est contredite par d’autres autorités du droit international des droits de l’homme. Le standard de la Déclaration conjointe fait référence aux fausses informations diffusées par les institutions publiques, tandis que dans le cas présent, la décision qualifie expressément la déclaration contestée de fausse information. Comme souligné par le Rapporteur spécial, l’utilisation interchangeable des deux concepts met en péril le droit à la liberté d’expression (A/HRC/47/25, paragraphe 14) – et « les "fausses informations" s’entendent comme la diffusion intentionnelle d’une fausse information en vue de causer un préjudice social grave et la "mésinformation" s’entend comme le fait de diffuser de fausses informations sans savoir qu’elles le sont. Ces termes ne sont pas utilisés de manière interchangeable » (paragraphe 15). Dans ce cas-ci, il n’a pas été démontré que l’utilisateur, un conseil médical, aurait raisonnablement dû savoir que la déclaration diffusée est fausse. La minorité est d’avis que, bien que la déclaration contienne certaines informations incorrectes, il s’agit dans l’ensemble d’une opinion liée aux faits qui est légitime dans le débat public. L’efficacité des confinements, bien que généralement acceptée parmi les experts et les agences de santé publique de la plupart des pays du monde, est sujette à des débats raisonnables. En outre, bien que le conseil fasse partie de l’administration publique, il ne peut être considéré dans le présent contexte comme un acteur d’État, car ses pouvoirs se limitent à ses membres, ni comme une autorité publique ayant le pouvoir légal d’influencer ou de déterminer une décision de confinement.
La majorité comprend le point de vue de la minorité, mais le désapprouve respectueusement. Selon les standards susmentionnés, les autorités publiques ont le devoir de vérifier les informations qu’elles fournissent au public. Elles ne sont pas dispensées de ce devoir lorsque les fausses informations diffusées ne sont pas directement liées à ses fonctions statutaires.
Facebook a soutenu que le seuil de blessures physiques imminentes n’était pas atteint dans ce cas-ci, car des autorités sanitaires telles que l’Organisation mondiale de la Santé et d’autres experts ont recommandé à l’entreprise de supprimer les fausses informations sur des pratiques telles que la distanciation sociale, mais ils n’en ont pas fait de même en ce qui concerne les confinements. En outre, le Conseil note que, dans ce cas-ci, le contenu n’a pas servi de base au conseil pour l’adoption de mesures de santé publique qui pourraient créer des risques, puisque le conseil n’est pas habilité à statuer sur ces questions. Pour ces raisons et conformément à l’analyse du Conseil dans la décision sur le cas 2020-006-FB-FBR, le Conseil considère que la décision de Facebook de maintenir le contenu sur la plateforme est justifiée, étant donné que le seuil de blessures physiques imminentes n’avait pas été atteint. Toutefois, comme cela a déjà été mentionné, le Conseil note que la diffusion de fausses informations sur la santé publique peut avoir un impact sur la confiance des personnes dans les informations publiques et dans l’efficacité de certaines mesures qui, selon l’Organisation mondiale de la Santé, peuvent être essentielles dans certains contextes. Dans ces cas-là, tel que suggéré par le Rapporteur spécial des Nations Unies sur la liberté d’expression, les dommages causés par des informations fausses ou trompeuses peuvent être atténués par le partage d’informations fiables (A/HRC/44/49, paragraphe 6). Ces autres mesures moins intrusives peuvent fournir au public davantage de contexte et promouvoir leur droit à une information précise en matière de santé. Dans ce cas particulier, Facebook devrait fournir au public davantage de contexte sur les déclarations du Dr Nabarro et le point de vue de l’Organisation mondiale de la Santé susmentionné concernant les confinements.
Le Conseil rappelle que, dans la décision sur le cas 2020-006-FB-FBR, il recommandait que Facebook envisage des mesures moins intrusives que des suppressions pour les fausses informations pouvant entraîner des formes de blessures physiques qui ne sont pas imminentes. Ces mesures sont fournies pour le Standard de la communauté sur les fausses informations – tel qu’indiqué ci-dessus dans la section 8.1. Le Conseil recommande à Facebook de donner la priorité au contenu référent porté à son attention à ses partenaires de vérification des informations lorsqu’une position publique sur des thèmes de politique sanitaire débattues (en particulier dans le contexte d’une pandémie) est présentée par une partie de l’administration gouvernementale d’un État normalement capable d’influencer l’opinion publique et le comportement individuel en matière de santé. Le Conseil reconnaît que l’approche de Facebook en matière de vérification des informations a été critiqué, mais en raison de l’absence d’examen de cette publication par les médias de vérification. Ce cas ne constitue donc pas une bonne occasion de prendre ces thèmes en considération.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a confirmé la décision de Facebook de garder le contenu sur la plateforme.
10.Avis consultatif sur la politique
Mise en application de la recommandation du Conseil provenant de la décision sur le cas 2020-006-FB-FBR
1. Facebook devrait procéder à une analyse de proportionnalité pour identifier une série de mesures moins intrusives que la suppression du contenu. Lorsque cela est nécessaire, des mesures moins intrusives devraient être utilisées lorsque le contenu lié au COVID-19 déforme les recommandations des autorités de santé internationales et lorsqu’un risque de blessures physiques est identifié, mais pas imminent. Les mesures recommandées incluent : (a) le classement de contenu pour alerter les utilisateurs de la nature contestée du contenu d’une publication et fournir des liens vers les points de vue de l’Organisation mondiale de la Santé et des autorités sanitaires nationales ; (b) l’introduction d’un point de friction dans les publications pour éviter les interactions ou le partage ; et (c) la rétrogradation afin de réduire la visibilité dans les Fils d’actualité d’autres utilisateurs. Toutes ces mesures de mise en application devraient être clairement communiquées à l’ensemble des utilisateurs et pouvoir faire l’objet d’un appel.
Donner la priorité à la vérification des informations du contenu signalé comme de fausses informations sanitaires
2. Étant donné le contexte de la pandémie de COVID-19, Facebook devrait mettre en place des dispositions techniques pour donner la priorité à la vérification des informations concernant les fausses informations en matière de santé potentielles partagées par les autorités publiques qui sont portées à la connaissance de l’entreprise, en tenant compte du contexte local.
Clarté sur l’éligibilité à la vérification des informations
3. Facebook devrait être plus transparent dans le Standard de la communauté sur les fausses informations concernant les cas où le contenu est éligible à la vérification des informations, et notamment la possibilité ou non pour les comptes des institutions publiques d’être soumis à la vérification des informations.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel.
Retour aux décisions de cas et aux avis consultatifs politiques