Renversé
Citation nazie
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication qui, selon l’entreprise, violait son Standard de la communauté sur les personnes et organisations dangereuses.
Résumé du cas
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication qui, selon l’entreprise, violait ses Standards de la communauté en matière de personnes et d’organisations dangereuses. Le Conseil a estimé que ces règles n’étaient pas suffisamment claires pour les utilisateurs.
À propos du cas
En octobre 2020, un utilisateur a publié une citation indûment attribuée à Joseph Goebbels, ministre de la Propagande du Reich de l’Allemagne nazie. Écrite en anglais, ladite citation affirmait que les arguments devaient solliciter les émotions et l’instinct plutôt que de faire appel aux intellectuels. Elle déclarait que la vérité importait peu et était subordonnée à la tactique et la psychologie. La publication n’était pas assortie d’images de Joseph Goebbels ou de symboles nazis. Dans sa déclaration au Conseil, l’utilisateur a indiqué que son intention était d’établir une comparaison entre le sentiment exprimé dans la citation et la présidence de Donald Trump.
L’utilisateur a publié le contenu pour la première fois deux ans auparavant et a été invité à le partager à nouveau par le biais de la fonction « Souvenir » de Facebook, laquelle permet aux utilisateurs de voir ce qu’ils ont publié un jour précis d’une année précédente, avec la possibilité de le partager à nouveau.
Facebook a supprimé la publication pour violation de ses Standards de la communauté en matière de personnes et organisations dangereuses.
Principales observations
Dans sa réponse au Conseil, Facebook a confirmé que Joseph Goebbels figure sur la liste de l’entreprise relative aux personnes dangereuses. Elle a soutenu que les publications partageant une citation attribuée à une personne dangereuse étaient traitées comme exprimant un soutien à leur égard, à moins que l’utilisateur ne fournisse plus de contexte pour rendre son intention explicite.
Facebook a supprimé la publication, car l’utilisateur n’a pas clairement indiqué qu’il avait partagé la citation pour condamner Joseph Goebbels, pour lutter contre l’extrémisme ou les discours haineux, ou à des fins académiques ou informatives.
Après examen du cas, le Conseil a estimé que la citation ne soutenait pas l’idéologie du parti nazi ni les actes de haine et de violence du régime. Les commentaires des amis de l’utilisateur étayent l’affirmation selon laquelle il cherchait à comparer la présidence de Donald Trump au régime nazi.
Conformément au droit international des droits de l’homme, toute règle visant à restreindre la liberté d’expression doit être claire, précise et accessible au public afin que les personnes puissent agir en conséquence. Le Conseil estime que les règles de Facebook en matière de personnes et d’organisations dangereuses ne remplissent pas cette condition.
Il a relevé un décalage entre les règles rendues publiques par les Standards de la communauté Facebook et les règles non publiques utilisées par les modérateurs de contenu de l’entreprise. Dans ses règles accessibles au public, Facebook n’est pas suffisamment claire sur le fait que, lors de la publication d’une citation attribuée à une personne dangereuse, l’utilisateur doit clairement indiquer qu’il ne la soutient ni n’en fait l’éloge en aucun cas.
La politique de Facebook en matière de personnes et d’organisations dangereuses ne fournit pas non plus d’exemples clairs pour éclaircir la signification de termes tels que « faire l’éloge » et « soutenir », ce qui empêche les utilisateurs de comprendre pleinement le sens de ce Standard de la communauté.
Bien que Facebook ait confirmé au Conseil que Joseph Goebbels est désigné comme personne dangereuse, l’entreprise ne fournit pas de liste publique des personnes et organisations dangereuses ni d’exemples à cet égard. Le Conseil observe également qu’en l’espèce, l’utilisateur ne semble pas avoir été informé du Standard de la communauté que son contenu enfreignait.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée.
Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :
- garantir que les raisons de toute mise en application des Standards de la communauté à leur encontre soient toujours communiqués aux utilisateurs, y compris la règle spécifique que Facebook fait appliquer.
- Expliquer et donner des exemples de l’application de termes clés de la politique relative aux personnes et organisations dangereuses, en ce compris la signification des termes « faire l’éloge », « soutenir » et « représentation ». Le Standard de la communauté devrait également mieux conseiller les utilisateurs sur la manière dont ils peuvent rendre leur intention explicite lorsqu’il est question de personnes ou d’organisations dangereuses.
- Fournir une liste publique des organisations et des personnes désignées comme « dangereuses » en vertu du Standard de la communauté sur les personnes et organisations dangereuses ou, à tout le moins, une liste d’exemples.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication qui, selon l’entreprise, violait ses Standards de la communauté en matière de personnes et d’organisations dangereuses. Le Conseil a estimé que ces règles n’étaient pas suffisamment claires pour les utilisateurs.
2. Description du cas
En octobre 2020, un utilisateur a publié une citation indûment attribuée à Joseph Goebbels, ministre de la Propagande du Reich de l’Allemagne nazie. Écrite en anglais, la citation affirmait qu’il était inutile de faire appel aux intellectuels, car ils ne se convertiront pas et, en tout état de cause, ne céderont pas à l’homme le plus fort de la rue. Elle déclarait ainsi que les arguments devaient solliciter les émotions et l’instinct. Elle concluait en indiquant que la vérité importait peu et qu’elle était subordonnée à la tactique et la psychologie. La publication n’était pas assortie d’images de J. Goebbels ou de symboles nazis. L’utilisateur a publié le contenu pour la première fois deux ans auparavant et a été invité à le partager à nouveau par le biais de la fonction « Souvenir » de Facebook, laquelle permet aux utilisateurs de voir ce qu’ils ont publié un jour précis d’une année précédente, avec la possibilité de le partager à nouveau. Le contenu n’a fait l’objet d’aucun signalement. Facebook a supprimé la publication, car elle enfreignait les Standards de la communauté en matière de personnes et d’organisations dangereuses.
La publication comprenait la citation et l’attribution à J. Goebbels seul. Il n’y avait aucun commentaire supplémentaire sur la publication étayant l’intention de l’utilisateur de partager ce contenu. Dans sa déclaration au Conseil, l’utilisateur a expliqué que sa citation portait sur des enjeux sociaux importants et que son contenu était d’une « TRÈS GRANDE IMPORTANCE à l’heure où notre pays est dirigé par un « chef d’État » dont la présidence suit un modèle fasciste ». Il a indiqué que son intention était d’établir une comparaison entre le sentiment exprimé dans la citation et la présidence de Donald Trump. Les commentaires de la publication suggéraient que les amis de l’utilisateur ont compris que c’était bien le cas.
3. Autorité et champ d’application
Le Conseil peut examiner la décision de Facebook en vertu de l’article 2 (Autorité responsable de l’examen) de la Charte du Conseil et peut confirmer ou annuler cette décision en vertu de l’article 3, section 5 (Procédures d’examen : résolution) de la Charte. Facebook n’a pas soumis de raison pour l’exclusion du contenu comme l’exige l’article 2, section 1.2.1 (contenu indisponible pour l’examen par le Conseil) des Statuts du Conseil, ni indiqué qu’il considère le cas comme étant inéligible en vertu de l’article 2, section 1.2.2 (Obligations légales) des Statuts.
4.Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook :
Le standard de la communauté relatif aux personnes et organisations dangereuses établit ce qui suit : « afin d’éviter et d’empêcher tout danger réel, les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Facebook ». Il indique en outre que Facebook « supprimera également tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans ces activités ».
II. Valeurs de Facebook :
Les valeurs de Facebook pertinentes dans ce cas sont détaillées dans l’introduction aux Standards de la communauté. La première est la « liberté d’expression », qui est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Facebook limite « la liberté d’expression » au profit de quatre autres valeurs. Le Conseil considère que la valeur de « sécurité » est pertinente pour cette décision :
Sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.
III. Normes relatives aux droits de l’homme prises en considération par le Conseil :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. Sur la base des UNGP, les normes internationales relatives aux droits de l’homme suivantes ont été prises en considération pour ce cas :
- Le droit à la liberté d’expression : les articles 19 et 20 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme (2011) (Observation générale 34) ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/69/335 (2014) ; A/HRC/38/35 (2018) ; A/73/348 (2018) et A/HRC/44/49 (2020) ; Déclaration conjointe sur la liberté d’expression et les élections à l’ère du numérique(2020) ; et le plan d’action de Rabat ;
- Le droit à la non-discrimination : les articles 2 et 26 du PIDCP ; les articles 1, 4 et 5 de la Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) ; l’observation générale n° 35, Comité pour l’élimination de la discrimination raciale (2013) (OG35) ; le rapport du Rapporteur spécial des Nations unies sur le racisme : A/HRC/38/53 (2018) ;
- Le droit à la vie : l’article 6 du PIDCP ; l’observation générale n° 36, Comité des droits de l’homme (2018) (OG36) ;
- Le droit à la sécurité de sa personne : l’article 9 du PIDCP, tel qu’interprété par l’Observation générale n° 35, paragraphe 9, Comité des droits de l’homme (2014).
5. Déclaration de l’utilisateur
L’utilisateur indique qu’il a publié le contenu pour la première fois il y a deux ans et a été invité à le publier de nouveau par la fonction « Souvenir » de Facebook. Il explique que la publication revête une certaine importance, car les États-Unis sont dirigés par un chef d’État dont la présidence suit un modèle fasciste. Il affirme en outre que sa capacité à utiliser Facebook a été limitée après la publication dudit contenu.
6. Explication de la décision de Facebook
Facebook déclare traiter les contenus qui citent ou attribuent des citations (peu importe leur exactitude) à une personne dite dangereuse comme une expression de soutien envers cette personne, à moins que l’utilisateur ne fournisse plus de contexte pour rendre son intention explicite. Elle indique qu’en l’espèce, l’utilisateur n’a pas fourni de contexte supplémentaire indiquant que la citation a été partagée pour condamner Goebbels, pour lutter contre l’extrémisme et les discours haineux, ou dans le cadre d’un discours académique ou pertinent. Facebook affirme qu’elle n’aurait pas supprimé ce contenu si la publication de l’utilisateur avait clairement indiqué qu’elle était partagée pour ces raisons. Bien que les commentaires laissés par d’autres utilisateurs sur la publication aient indiqué que l’utilisateur n’avait pas l’intention de soutenir Joseph Goebbels ou d’en faire l’éloge, Facebook explique qu’elle n’examine une publication elle-même que dans le cadre d’une décision de modération. Le contenu n’avait pas été supprimé lors de sa publication initiale, car il n’avait pas fait l’objet de signalements d’utilisateurs et n’avait pas été détecté automatiquement.
Le Conseil constate également que Facebook n’a pas indiqué à l’utilisateur le Standard de la communauté que sa publication enfreignait lorsqu’elle l’a informé de la suppression.
7. Soumissions de parties tierces
Le Conseil de surveillance a reçu 12 commentaires publics en rapport avec ce cas. Trois de ces commentaires proviennent d’Europe et neuf de la région des États-Unis et du Canada.
Ils abordent les thèmes suivants : le respect des Standards de la communauté visés ; le discours politique ; le rôle de la fonction « Souvenir » de Facebook ; les effets des sanctions sur les utilisateurs ; un avis sur l’amélioration du processus de commentaire public.
8. Analyse du Conseil de surveillance
8.1 Respect des Standards de la communauté
Le Conseil estime que la décision de supprimer la publication de l’utilisateur n’est pas conforme au Standard de la communauté relatif aux personnes et organisations dangereuses .
Facebook indique que pour prévenir et contrer les préjudices réels, elle interdit aux organisations et aux personnes (vivantes ou décédées) impliquées dans de la haine organisée d’être présentes sur Facebook. Elle interdit également tout contenu soutenant ou faisant l’éloge de ces groupes, de leurs dirigeants ou d’individus impliqués dans ces activités. Facebook ne publie pas la liste des personnes et des organisations qu’elle a désignées comme dangereuses.
Dans la justification de la décision qu’elle a transmise au Conseil, Facebook a clarifié certains aspects de la politique relative aux personnes et aux organisations dangereuses qui n’étaient pas décrits dans les Standards de la communauté. Tout d’abord, Facebook a confirmé que le parti nazi (le parti national-socialiste des travailleurs allemands actif entre 1920 et 1945) a été désigné en interne comme organisation haineuse depuis 2009 par Facebook. Joseph Goebbels a été désigné comme personne dangereuse, car il faisait partie des dirigeants du parti. En outre, Facebook traite tous les contenus citant prétendument une personne dite dangereuse comme une expression de soutien ou d’éloge envers cette personne, à moins que l’utilisateur ne fournisse plus de contexte pour rendre son intention explicite. Par ailleurs, Facebook évalue le respect de sa politique uniquement sur la base du texte et/ou des images contenu(es) dans la publication, sans prendre en considération les réactions ou les commentaires.
En l’espèce, le contenu concernait une seule citation attribuée à Joseph Goebbels. Le Conseil estime que la citation ne faisait pas l’apologie de l’idéologie du parti nazi et ne soutenait pas les actes de haine et de violence du régime. Il apparaît que les commentaires des amis de l’utilisateur étayent l’affirmation selon laquelle la publication cherchait à établir des comparaisons entre la présidence de Donald Trump et le régime nazi.
Le Conseil relève un décalage d’informations entre le texte publiquement disponible de la politique en matière de personnes et d’organisations dangereuses et les règles internes supplémentaires suivies par les modérateurs de contenu de Facebook. Le texte public n’est pas suffisamment clair sur le fait que, lors de la publication d’une citation attribuée à une personne dangereuse, l’utilisateur doit fournir plus de contexte dans sa publication pour préciser qu’il ne soutient pas une personne ou une organisation impliquée dans de la haine organisée ou qu’elle n’en fait pas l’éloge. Les Standards de la communauté prévoient une condition similaire pour les publications comportant des symboles d’organisations ou de personnes désignées, mais ne requièrent pas la même chose pour les contenus qui les soutiennent ou en font l’éloge. Comme l’illustre ce cas, ce contexte se traduit par la suppression d’un discours qui ne présentait aucun risque de préjudice. Bien que le Conseil reconnaît l’importance de la lutte contre la propagation de l’idéologie nazie et des discours haineux, ainsi que la difficulté de poursuivre de tels objectifs à grande échelle, dans le cas présent, la suppression de la publication ne relève manifestement pas de l’esprit de la politique.
8.2 Conformité avec les valeurs de Facebook
Le Conseil estime que la suppression n’est pas conforme aux valeurs de Facebook. Lors de l’examen du contenu supprimé en vertu de la politique relative aux personnes et aux organisations dangereuses, la valeur « sécurité » est équilibrée par la valeur « primordiale » « liberté d’expression ». Facebook explique que l’on peut accorder plus de poids à la « sécurité » lorsque le contenu faisant l’objet de l’examen peut entraîner un blessures physiques. Toutefois, en l’espèce, compte tenu de l’avantage minime de la valeur « sécurité » de la publication de l’utilisateur, le Conseil estime que la suppression a inutilement sapé la valeur « liberté d’expression ».
8.3 Conformité avec les normes relatives aux droits de l’homme
- Liberté d’expression (article 19 du PIDCP)
En appliquant le droit international des droits de l’homme au droit à la liberté d’expression, le Conseil estime que le contenu doit être restauré. La valeur accordée au droit à la liberté d’expression est particulièrement élevée dans le débat public sur les personnalités politiques ayant fait l’objet de cette publication (article 19 du PIDCP, paragraphe 2, Observation générale 34, paragraphe 34).
Le droit à la liberté d’expression n’est pas absolu. Toute restriction de ce droit doit toutefois remplir les critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité. La suppression du contenu par Facebook ne remplit ni la première ni la troisième parties de ce test.
a. Légalité
Toute règle restreignant la liberté d’expression doit être claire, précise et accessible par le public (observation générale 34, paragraphe 25) pour permettre aux personnes de modifier leur conduite en conséquence. La politique de Facebook en matière de personnes et d’organisations dangereuses ne répond pas au critère de légalité. Elle manque d’exemples clairs étayant l’application des termes « soutenir », « faire l’éloge » et « représentation », ce qui empêche les utilisateurs de comprendre pleinement le sens de ce Standard de la communauté. Ceci s’ajoute aux inquiétudes relatives à la légalité et peut créer une perception de mise en application arbitraire parmi les utilisateurs. Le Conseil est également préoccupé par le fait qu’en l’espèce, l’utilisateur ne semble pas avoir été informé du Standard de la communauté qu’il avait enfreint lorsque son contenu a été supprimé.
Facebook omet également de fournir une liste des personnes et des organisations désignées comme dangereuses ou, à tout le moins, des exemples de groupes ou de personnes dites dangereuses. Enfin, la politique n’explique pas comment elle évalue l’intention d’un utilisateur, ce qui empêche les utilisateurs de prévoir quand et comment la politique s’appliquera et de se comporter en conséquence.
b. Objectif légitime
L’article 19, paragraphe 3 du PIDCP précise que les objectifs légitimes comprennent le respect des droits ou de la réputation d’autrui, ainsi que la protection de la sécurité nationale, de l’ordre public, ou de la santé publique et des bonnes mœurs. Le raisonnement de Facebook indique que l’objectif de la politique relative aux personnes et aux organisations dangereuses quant aux organisations dites haineuses est de protéger les droits d’autrui. Le Conseil est convaincu que les dispositions spécifiques aux « organisations incitant à la haine » visent à protéger les personnes contre la discrimination, les atteintes à la vie ou les actes intentionnels prévisibles susceptibles d’entraîner un préjudice physique et mental.
c. Proportionnalité et nécessité
Toutes les restrictions « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale 34, paragraphe 34).
Le contexte joue un rôle essentiel dans l’évaluation de la nécessité et de la proportionnalité. Le Conseil constate que le monde connaît vraisemblablement une recrudescence du soutien et de l’acceptation de l’idéologie néonazie et souligne les défis que Facebook doit relever pour restreindre la présence des « organisations incitant à la haine » sur la plateforme (rapport A/HRC/38/53, 2018). Le Conseil estime que dans le cadre de la modération du contenu sur les organisations dangereuses à grande échelle, il peut être nécessaire de supprimer des publications si le contexte qui les entoure s’avère insuffisant. En l’espèce, le contenu de la citation, les réponses des autres utilisateurs, le lieu de l’utilisateur et le moment de la publication pendant une campagne électorale sont tous pertinents. L’approche de Facebook exigeant que les modérateurs examinent les contenus sans tenir compte de ces indices contextuels a entraîné une restriction inutile et disproportionnée de la liberté d’expression.
d. Égalité et non-discrimination
Toute restriction de la liberté d’expression doit respecter le principe d’égalité et de non-discrimination (observation générale 34, paragraphe 26 et 32). Le Conseil reconnaît l’importance de Facebook dans la lutte contre l’idéologie nazie sur la plateforme, en particulier dans ce contexte documenté de hausse du soutien envers ces idées et de l’antisémitisme dans le monde entier. Toutefois, supprimer un contenu cherchant à critiquer un homme politique en comparant son style de gouvernance aux architectes de l’idéologie nazie ne fait pas la promotion de l’égalité ni de la non-discrimination.
9. Décision du Conseil de surveillance
9.1 Décision concernant le contenu
Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée.
9.2 Avis consultatif sur la politique
Le Conseil recommande à Facebook de :
- Garantir que les raisons de la mise en application des Standards de la communauté à leur encontre soient toujours communiquées aux utilisateurs, y compris la règle spécifique que Facebook fait appliquer (p. ex. en cas de soutien à une organisation incitant à la haine).
- Expliquer et donner des exemples de l’application de termes clés utilisés dans la politique relative aux personnes et organisations dangereuses, en ce compris la signification des termes « faire l’éloge », « soutenir » et « représentation ». Ce point doit s’aligner sur les définitions utilisées dans les standards internes de mises en œuvre de Facebook. Le Standard de la communauté doit fournir des directives plus claires aux utilisateurs sur la manière dont ils peuvent préciser leur intention lorsqu’ils discutent de personnes ou d’organisations désignées comme dangereuses.
- Fournir une liste publique des organisations et des personnes dites « dangereuses » en vertu du Standard de la communauté sur les personnes et organisations dangereuses. Des exemples doivent à tout le moins être fournis. Ceci permettrait aux utilisateurs de mieux comprendre la politique et de se comporter en conséquence.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et doivent être acceptées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Retour aux décisions de cas et aux avis consultatifs politiques