Le Conseil de surveillance annule la décision de Facebook : Cas 2020-006-FB-FBR
28 janvier 2021
Le Conseil de surveillance annule la décision de Facebook de supprimer une publication qui, selon l’entreprise, « présente un risque de préjudice physique imminent. » Le Conseil a estimé que les règles de Facebook en matière de désinformation et danger imminent (s’inscrivant dans le cadre des Standards de la communauté en matière de violence et incitation) étaient trop vagues. Il a, entre autres, recommandé à l’entreprise de créer de nouveaux Standards de la communauté sur la désinformation sanitaire.
À propos du cas
En octobre 2020, un utilisateur a publié une vidéo accompagnée d’un texte en français dans un groupe public Facebook sur le COVID-19 La publication parlait d’un prétendu scandale au sein de l’Agence nationale de sécurité du médicament (l’agence française chargée de contrôler les produits de santé), qui a refusé d’autoriser l’utilisation de l’hydroxychloroquine associée à l’azithromycine pour traiter le COVID-19, mais a autorisé le remdesivir et en a fait la promotion. L’utilisateur critiquait l’absence de stratégie sanitaire en France et affirmait que « le remède de [Didier] Raoult » était utilisé ailleurs pour sauver des vies. Dans sa publication, l’utilisateur se demandait également ce qu’avait à perdre la société française en autorisant les médecins à prescrire, en situation d’urgence, un « médicament inoffensif » lorsque les premiers symptômes du COVID-19 apparaissent.
Lors de son renvoi devant le Conseil, Facebook a cité ce cas comme exemple des difficultés rencontrées dans sa lutte contre les risques de préjudices hors ligne en lien avec la désinformation sur la pandémie de COVID-19.
Principales observations
Facebook a supprimé le contenu, car il enfreignait ses règles en matière de désinformation et de préjudice physique, s’inscrivant dans le cadre de ses Standards de la communauté en matière de violence et incitation. En effet, l’entreprise estimait que la publication présentait un risque de préjudice physique imminent en pleine pandémie mondiale. Facebook a expliqué avoir supprimé la publication au motif que celle-ci affirmait l’existence d’un remède contre le COVID-19. L’entreprise en a conclu que cela risquait d’inciter certaines personnes à ignorer les recommandations sanitaires ou à se tourner vers l’automédication.
Le Conseil a constaté que, dans cette publication, l’utilisateur dénonçait une politique publique et cherchait à la faire changer. En France, les médicaments qui, d’après la publication, représentent un remède ne sont pas disponibles sans ordonnance, et le contenu de la publication n’encourage pas les personnes à acheter ou prendre des médicaments sans ordonnance. Compte tenu de cela et d’autres facteurs contextuels, le Conseil a constaté que Facebook n’était pas parvenu à démontrer que la publication atteignait le niveau de préjudice imminent, comme requis dans ses propres Standards de la communauté.
Le Conseil a également estimé que la décision de Facebook ne respectait pas les normes internationales relatives aux droits de l'homme sur la liberté d’expression. Facebook dispose de nombreux moyens pour gérer la désinformation (tels que donner davantage de contexte aux utilisateurs). Or, l’entreprise n’a pas su justifier son choix et expliquer pourquoi elle n’avait pas préféré une option moins intrusive que la suppression du contenu.
Le Conseil a également jugé que les règles de Facebook en matière de désinformation et de préjudice imminent, que la publication aurait enfreint, étaient trop vagues et contraires aux normes internationales relatives aux droits de l’homme. Étant donné la panoplie de règles se trouvant à différents endroits sur le site web de Facebook, il est difficile pour les utilisateurs de comprendre quel contenu est interdit. Les modifications des règles de Facebook relatives au COVID-19 annoncées dans la Newsroom de l’entreprise n’ont pas toujours été intégrées dans ses Standards de la communauté. De plus, certaines de ces modifications semblent être contradictoires.
La décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Facebook de supprimer le contenu et demande à ce que la publication soit restaurée.
Dans une déclaration consultative en matière de politiques, le Conseil recommande à Facebook :
- De créer de nouveaux Standards de la communauté sur la désinformation sanitaire, afin de regrouper et de préciser les règles déjà existantes en un seul et même endroit. Ces derniers devraient définir certains termes clés tels que « désinformation ».
- D’adopter des méthodes moins intrusives pour faire appliquer ses règles en matière de désinformation sanitaire, lorsque le contenu n’atteint pas le niveau de préjudice physique imminent de Facebook.
- D’améliorer la transparence sur la façon dont l’entreprise modère la désinformation sanitaire, notamment en publiant un rapport transparent sur la manière dont les Standards de la communauté ont été appliqués pendant la pandémie de COVID-19. Cette recommandation s’appuie sur les commentaires publics reçus par le Conseil.
Pour plus d’informations :
Pour lire l’intégralité de la décision sur le cas, cliquez ici.
Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.