Renversé
Manifestations pro-Navalny en Russie
Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer le commentaire d’un partisan du leader de l’opposition russe emprisonné Alexei Navalny qualifiant un autre utilisateur de « robot lâche ».
Résumé du cas
Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer le commentaire d’un partisan du leader de l’opposition russe emprisonné Alexei Navalny qualifiant un autre utilisateur de « robot lâche ». Facebook a supprimé le commentaire en raison de l’utilisation du terme « lâche », considéré comme une déclaration à caractère négatif. Le Conseil a estimé que si la suppression était conforme au Standard de la communauté sur le harcèlement et l’intimidation, le Standard actuel constituait une limitation inutile et disproportionnée de la liberté d’expression en vertu des normes internationales des droits de l’homme. Il n’était pas non plus en phase avec les valeurs de Facebook.
À propos du cas
Le 24 janvier, un utilisateur russe a publié un contenu composé de plusieurs images, d’une vidéo et d’un texte (publication d’origine) sur les manifestations de soutien au leader de l’opposition Alexeï Navalny qui ont eu lieu à Saint-Pétersbourg et dans toute la Russie le 23 janvier. Un autre utilisateur (le contre-manifestant) a répondu à la publication d’origine en écrivant qu’il ne savait pas ce qu’il s’était passé à Saint-Pétersbourg, mais que les manifestants moscovites étaient tous des écoliers « diminués » mentalement et avaient été « utilisés sans vergogne ».
D’autres utilisateurs ont alors attaqué le contre-manifestant dans des commentaires ultérieurs, toujours par rapport à la publication initiale. Un utilisateur qui était présent à la manifestation (le manifestant) semble être le dernier à avoir répondu au contre-manifestant. Il a indiqué être une personne âgée et avoir participé à la manifestation de Saint-Pétersbourg. Le manifestant a terminé son commentaire en qualifiant le contre-manifestant de « robot lâche ».
Ce dernier a alors signalé le commentaire du manifestant à Facebook pour harcèlement et intimidation. Facebook a estimé que le terme « lâche » constituait une déclaration à caractère négatif à l’encontre d’un « adulte particulier » et a supprimé le contenu puisque la « cible » de l’attaque l’avait signalé. Le manifestant a introduit une réclamation contre la décision de Facebook. Facebook a conclu que le commentaire enfreignait sa politique en matière de harcèlement et d’intimidation, en vertu de laquelle une personne privée peut demander à Facebook de supprimer des publications contenant un commentaire négatif sur leur personnalité.
Principales observations
Ce cas met en lumière les tensions qui opposent les politiques visant à protéger les personnes contre le harcèlement et l’intimidation et le besoin de préserver la liberté d’expression. Ce point est particulièrement pertinent dans un contexte de protestation politique dans un pays où il existe des plaintes crédibles quant à l’absence de mécanismes effectifs pour protéger les droits de l’homme.
Le Conseil a estimé que si la décision de Facebook visant à supprimer le contenu peut être réputée conforme à une application stricte des Standards de la communauté, ces derniers ne tiennent pas compte du contexte plus large et limitent de manière disproportionnée la liberté d’expression.
Le Standard de la communauté sur le harcèlement et l’intimidation indique que Facebook supprime les déclarations à caractère négatif sur des personnes privées lorsque la cible signale le contenu. Le Conseil ne remet pas en cause la conclusion de Facebook selon laquelle le contre-manifestant est une personne privée et le terme « lâche » constitue une déclaration à caractère négatif.
Le Standard de la communauté n’exigeait toutefois pas que Facebook prenne en considération le contexte politique, le caractère public ou le ton virulent de la conversation. Par conséquent, Facebook n’a pas tenu compte de l’intention du manifestant de réfuter les fausses allégations concernant les manifestations ou n’a pas tenté de mettre cette préoccupation en balance avec la déclaration à caractère négatif signalée.
La décision visant à supprimer ce contenu n’a pas permis de trouver un équilibre entre les valeurs Facebook de « dignité » et de « sécurité » d’une part, et la valeur de « liberté d’expression » d’autre part. Le discours politique se trouve au cœur de la valeur de « liberté d’expression » et ne doit être limité que lorsqu’il existe des préoccupations claires en matière de « sécurité » et de « dignité ».
La « liberté d’expression » revêt également une importance particulière dans les pays qui ont coutume de la restreindre, comme la Russie. En l’espèce, le Conseil a estimé que Facebook avait connaissance du contexte plus large des manifestations pro-Navalny en Russie et qu’une vigilance accrue aurait dû conduire à une évaluation plus minutieuse du contenu.
Le Conseil a conclu que le Standard de la communauté Facebook sur le harcèlement et l’intimidation poursuivait l’objectif légitime de protéger les droits d’autrui. Toutefois, en l’espèce, le regroupement de concepts distincts de harcèlement et d’intimidation en un seul ensemble de règles non clairement définies a débouché sur la suppression inutile d’un discours légitime.
Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Facebook visant à supprimer le contenu et demande à ce que la publication soit restaurée.
Dans un avis consultatif sur la politique, le Conseil recommande que, pour respecter les normes internationales des droits de l’homme, Facebook modifie et remanie son Standard de la communauté Facebook sur le harcèlement et l’intimidation afin de :
· Préciser la relation qui unit la justification de sa politique en matière de harcèlement et d’intimidation et la section « Ne pas » ainsi que les autres règles de limitation du contenu qui la suivent.
· Différencier le harcèlement de l’intimidation et donner des définitions qui distinguent ces deux actes. Le Standard de la communauté doit également expliquer clairement aux utilisateurs en quoi le harcèlement et l’intimidation diffèrent des discours uniquement offensants qui peuvent être protégés par la législation internationale des droits de l’homme.
· Définir clairement son approche des différentes catégories d’utilisateurs cibles et donner des exemples de chaque catégorie de cibles (p. ex. qui peut être considéré comme une personnalité publique). Présenter le Standard de la communauté sur le harcèlement et l’intimidation par catégories d’utilisateurs actuellement énumérées dans la politique.
· Inclure des exemples de contenus en infraction et autorisés dans le Standard de la communauté sur le harcèlement et l’intimidation en vue de clarifier les lignes d’action établies ainsi que la manière dont ces distinctions peuvent reposer sur le statut identitaire de la cible.
· Lors de l’examen d’un contenu composé d’une « déclaration à caractère négatif » à l’encontre d’un adulte particulier, Facebook doit modifier son Standard de la communauté pour exiger un examen du contexte sociopolitique du contenu. L’entreprise doit reconsidérer la mise en application de cette règle dans les débats politiques ou publics où la suppression du contenu étoufferait le débat.
· Chaque fois que Facebook supprime un contenu en raison d’une déclaration à caractère négatif qui ne représente qu’un seul mot ou une seule phrase dans une publication plus importante, elle doit en informer rapidement l’utilisateur afin que ce dernier ait la possibilité de publier à nouveau le contenu sans cette déclaration à caractère négatif.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance a annulé la décision de Facebook visant à supprimer le commentaire d’un partisan du leader de l’opposition russe emprisonné Alexei Navalny qualifiant un autre utilisateur de « robot lâche ». Facebook a précisé que le commentaire avait été supprimé en raison de l’utilisation du terme « lâche », considéré comme une déclaration à caractère négatif. Le Conseil a estimé que si la suppression était conforme au Standard de la communauté sur le harcèlement et l’intimidation, ce dernier constituait une limitation inutile et disproportionnée de la liberté d’expression en vertu des normes internationales des droits de l’homme. Il n’était pas non plus conforme aux valeurs de Facebook.
2. Description du cas
Le 24 janvier, un utilisateur russe a publié un contenu composé de plusieurs images, d’une vidéo et d’un texte (publication d’origine) sur les manifestations de soutien au leader de l’opposition Alexeï Navalny qui ont eu lieu à Saint-Pétersbourg et dans toute la Russie le 23 janvier. Un autre utilisateur (le contre-manifestant) a répondu à la publication d’origine en écrivant qu’il ne savait pas ce qu’il s’était passé à Saint-Pétersbourg, mais que les manifestants moscovites étaient tous des écoliers « diminués » mentalement et avaient été « utilisés sans vergogne ». Il a ajouté que les manifestants ne représentaient pas la voix du peuple, mais plutôt une « pièce de théâtre ».
D’autres utilisateurs ont alors attaqué le contre-manifestant dans des commentaires ultérieurs, toujours par rapport à la publication initiale. Ils ont défendu les manifestants et indiqué que le contre-manifestant proférait des inepties et comprenait mal le mouvement de M. Navalny. Le contre-manifestant a répondu dans plusieurs commentaires en rejetant à maintes reprises ces contestations, en qualifiant M. Navalny de « clown de poche » et de « pourri », et en affirmant que ses partisans n’avaient aucun respect d’eux-mêmes. Il a également qualifié de « crétins » les personnes qui ont amené leurs grands-parents aux manifestations.
Un utilisateur qui était présent à la manifestation (le manifestant) semble être le dernier à avoir répondu au contre-manifestant. Il s’est dit être une personne âgée et avoir participé à la manifestation de Saint-Pétersbourg. Il a souligné que les manifestations avaient rassemblé beaucoup de monde, y compris des personnes handicapées et des personnes âgées et qu’il était fier d’avoir vu des jeunes manifester. Le manifestant a déclaré que le contre-manifestant se fourvoyait profondément en pensant que les jeunes manifestants avaient été manipulés. Le manifestant a terminé son commentaire en qualifiant le contre-manifestant de « robot lâche ».
Ce dernier a alors signalé le commentaire du manifestant à Facebook pour harcèlement et intimidation. Facebook a estimé que le terme « lâche » constituait une déclaration à caractère négatif à l’encontre d’un « adulte particulier » (c.-à-d. pas une personnalité publique) et a supprimé le contenu puisque la « cible » de l’attaque l’avait signalé. Elle n’a pas considéré que le terme « robot » représentait une déclaration à caractère négatif. Le manifestant a introduit une réclamation contre la décision de Facebook. Après l’avoir examinée, Facebook a conclu que le commentaire enfreignait sa politique en matière de harcèlement et d’intimidation. Le contenu a été examiné dans les quatre minutes suivant la réclamation introduite par le manifestant, ce qui « correspond au délai ordinaire » d’examen des contenus faisant l’objet d’une réclamation, selon Facebook.
3. Autorité et champ d’application
Le Conseil dispose de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’une réclamation introduite par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut maintenir ou annuler cette décision (article 3, section 5 de la Charte).
Les décisions du Conseil sont contraignantes et peuvent inclure des avis consultatifs sur la politique ainsi que des recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte).
Le Conseil est un organe de réclamation indépendant qui traite les litiges de manière transparente et sur la base de principes.
4. Standards pertinents
Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :
I. Standards de la communauté Facebook
Le Standard de la communauté sur le harcèlement et l’intimidation est scindé en deux parties. Il comprend une justification de la politique suivie d’une liste des actions à « ne pas » faire, laquelle énumère des règles spécifiques sur les contenus à ne pas publier et les circonstances des suppressions.
La justification de la politique commence par préciser que le harcèlement et l’intimidation se produisent sous différentes formes, en ce compris des messages de menace et des contacts malveillants indésirés. Elle indique ensuite que Facebook ne tolère pas ce type de comportement, car il empêche les personnes de se sentir respectées et en sécurité. Il y est en outre expliqué que Facebook aborde différemment le harcèlement et l’intimidation des personnalités publiques et des personnes privées afin de permettre une discussion ouverte sur des évènements d’actualité. La justification de la politique mentionne également que pour protéger les personnes privées, Facebook supprime les contenus « visant à rabaisser une personne ou à la couvrir de honte ».
L’une des règles énumérées dans les « Ne pas » qui suivent la justification interdit de « cibler des adultes particuliers (qui doivent faire eux-mêmes le signalement) avec des déclarations d’incompétence ou à caractère négatif, sauf dans le contexte d’allégations criminelles contre des adultes ». Les Standards de la communauté ne définissent toutefois pas ce qu’il est entendu par une « déclaration à caractère négatif ». Par ailleurs, Facebook a déclaré au Conseil qu’elle « ne tient pas de liste exhaustive des termes pouvant être qualifiés de déclarations à caractère négatif », bien que « plusieurs équipes opérationnelles de Facebook à l’échelle régionale dressent des listes dynamiques et non exhaustives de termes dans la langue du marché concerné afin de donner des conseils sur les termes difficiles à classer, comme les mots nouveaux ou utilisés de différentes manières ».
L’entreprise possède également de longs documents détaillant les Standards d’implémentation interne sur le harcèlement et l’intimidation ainsi que la mise en application de la politique. Ces règles non publiques définissent des termes clés et offrent des conseils ainsi que des exemples aux modérateurs sur les contenus qui peuvent être supprimés conformément à la politique. Dans un extrait communiqué au Conseil, une « déclaration à caractère négatif » est définie comme tout « terme ou description qui attaque les qualités mentales ou morales d’une personne. Ceci comprend : l’humeur, le tempérament, la personnalité, la mentalité, etc. Les allégations effectuées uniquement envers les actions d’une personne sont exclues, tout comme les allégations criminelles. »
II. Valeurs de Facebook
Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté.
La liberté d’expression y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Facebook limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
III. Normes relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En mars 2021, Facebook a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle elle réaffirme son engagement à respecter les droits conformément aux UNGP. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :
- La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’Observation générale n° 34 du Comité des droits de l’homme (2011) ; le rapport du Rapporteur spécial sur la liberté d’opinion et d’expression, A/74/486 (2019) ; le rapport de la Rapporteuse spéciale sur la violence contre les femmes, A/HRC/38/47 (2018) ; la Déclaration conjointe sur la liberté d’expression et les fausses nouvelles (« fake news »), la désinformation et la propagande, FOM.GAL/3/17 (2017).
- Le droit de réunion pacifique : l’article 21 du PIDCP ; le rapport du Rapporteur spécial sur les droits à la liberté de réunion pacifique et à la liberté d’association, A/HRC/20/27 (2012).
- Le droit à la santé : l’article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC).
5. Déclaration de l’utilisateur
Dans sa réclamation au Conseil, le manifestant a expliqué que son commentaire n’avait pas vocation à être offensant, mais simplement à réfuter les fausses allégations du contre-manifestant. Il a affirmé que le contre-manifestant cherchait à empêcher les autres personnes de lire des opinions contradictoires et « imposait son avis sous de nombreuses publications », ce qui lui a donné l’impression d’être un robot payé sans réelle expérience directe des manifestations.
6. Explication de la décision de Facebook
Facebook a indiqué qu’elle avait supprimé le commentaire du manifestant pour avoir enfreint sa politique en matière de harcèlement et d’intimidation conformément à ses valeurs de « dignité » et de « sécurité ». Elle a souligné que ses Standards de la communauté exigent la suppression de contenus visant des adultes particuliers au moyen d’une déclaration à caractère négatif lorsqu’ils sont signalés par la personne ciblée. Un utilisateur est réputé être ciblé lorsque son nom est mentionné dans le contenu concerné. En l’espèce, Facebook a déclaré que le terme « lâche » est « une déclaration à caractère négatif facilement identifiable » ciblant le contre-manifestant.
L’entreprise a expliqué qu’elle supprimait tout contenu visant à rabaisser des personnes privées ou à les couvrir de honte si les cibles effectuent le signalement elles-mêmes. Le critère du contenu signalé par la cible a été établi pour aider Facebook à mieux comprendre les situations dans lesquelles les personnes se sentent harcelées ou intimidées.
Facebook a justifié son interdiction des attaques à l’encontre du caractère des utilisateurs par le fait qu’elles empêchent les personnes de se sentir en sécurité et respectées sur la plateforme, ce qui les rend moins enclines à engager le débat ou la discussion. En citant un article de l’association de lutte contre le harcèlement Ditch the Label, Facebook a rappelé que le harcèlement « sape le droit à la liberté d’expression (...) et crée un environnement restreignant l’expression des autres, souvent des groupes marginalisés ». Elle a également cité d’autres études suggérant que les utilisateurs qui ont été victimes de harcèlement sont susceptibles de s’autocensurer.
L’entreprise a indiqué qu’en limitant les suppressions de contenu aux cas où les cibles sont des adultes particuliers qui signalent que le contenu est nuisible selon eux, elle s’assure de respecter la « liberté d’expression » de tout le monde. Selon Facebook, ce principe est renforcé par un système de réclamation qui permet aux utilisateurs de demander l’examen du contenu supprimé pour avoir enfreint la politique en matière de harcèlement et d’intimidation afin d’éviter les erreurs de mise en application.
L’entreprise a également soutenu que sa décision était conforme aux normes internationales des droits de l’homme. Facebook a précisé que (a) sa politique était publiquement accessible, (b) la décision visant à supprimer le contenu était légitime pour protéger la liberté d’expression d’autrui et (c) la suppression du contenu était nécessaire pour mettre fin au harcèlement indésiré. L’entreprise est d’avis que sa décision était proportionnée, car des mesures moindres auraient exposé le contre-manifestant à du harcèlement et auraient potentiellement affecté d’autres personnes susceptibles d’en avoir été témoins.
7. Soumissions de tierces parties
Le Conseil a reçu 23 commentaires publics sur ce cas. Huit proviennent d’Europe, treize des États-Unis et du Canada, un d’Asie et un d’Amérique latine et des Caraïbes. Ces soumissions portaient notamment sur les questions suivantes : Facebook contribue-t-elle à réduire au silence les dissidents en Russie et soutient-elle ainsi le président russe Vladimir Poutine ? Quid du contexte de manipulation des médias sociaux étatiques en Russie ? Le contenu était-il suffisamment grave pour constituer un harcèlement ou une intimidation ?
Plusieurs organisations et personnes ont soumis des commentaires, en ce compris des militants, des journalistes, des groupes de lutte contre le harcèlement et des membres de l’opposition russe.
Pour lire les commentaires publics soumis pour ce cas, cliquez ici.
8. Analyse du Conseil de surveillance
Ce cas met en lumière les tensions qui opposent les politiques visant à protéger les personnes contre le harcèlement et l’intimidation et le besoin de préserver la liberté d’expression. Ce point est particulièrement pertinent dans un contexte d’une protestation politique dans un pays où il existe des plaintes crédibles quant à l’absence de mécanismes effectifs et indépendants destinés à la protection des droits de l’homme.
Le Conseil cherche à évaluer si le contenu doit être restauré par Facebook à travers trois prismes : les Standards de la communauté Facebook, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des Standards de la communauté
Le Conseil a estimé que la décision de Facebook visant à supprimer le contenu est conforme à la règle énumérée dans les « Ne pas » interdisant de cibler des personnes privées au moyen de déclarations à caractère négatif. Le Standard de la communauté sur le harcèlement et l’intimidation indique que Facebook supprime les déclarations à caractère négatif visant des personnes privées lorsque la cible signale le contenu. Si ce même contenu est signalé par une personne non ciblée, il ne sera pas supprimé.
Le Conseil est d’avis que le terme « lâche » ne semble pas être un terme grave ou nuisible dans le contexte entourant ce cas, en raison du ton de la discussion. Toutefois, il ne remet pas en cause la conclusion de Facebook selon laquelle le contre-manifestant est une personne privée et le terme « lâche » peut être interprété comme une déclaration à caractère négatif.
Le Conseil reconnaît l’importance de la politique en matière de harcèlement et d’intimidation. Selon le Centre national de recherche et de ressources de lutte contre l’intimidation, le harcèlement et l’intimidation sont deux concepts distincts. Bien qu’il n’existe pas de définition largement acceptée de l’intimidation ou du harcèlement, les points communs des définitions académiques incluent les attaques délibérées et répétées ainsi que les déséquilibres de pouvoir. Ces éléments ne sont pas repris dans les Standards de la communauté Facebook.
Kate Klonick a écrit que, compte tenu de l’absence de définition claire et de la nature hautement contextuelle et subjective du préjudice, Facebook prétendait avoir deux choix : maintenir un contenu potentiellement nuisible dans l’intérêt de la liberté d’expression ou commettre une erreur en supprimant tous les discours potentiellement nuisibles (même si certains contenus se révèlent être anodins). Encouragée par certains groupes de défense et le débat médiatique sur le cyberharcèlement, Facebook a opté pour la seconde possibilité. Le critère demandant aux personnes privées de signaler les contenus qui les ciblent semble tenter de limiter la quantité des contenus anodins supprimés.
Le Conseil est conscient des difficultés liées à l’élaboration d’une politique en la matière ainsi que de l’importance de protéger la sécurité des utilisateurs. Ceci s’applique en particulière aux femmes et aux groupes vulnérables qui sont davantage exposés au harcèlement et à l’intimidation en ligne. Toutefois, en l’espèce, le Conseil a estimé que la déclaration à caractère négatif a été employée dans le cadre d’un échange intense sur une question d’intérêt public et n’était pas pire que le langage utilisé par le contre-manifestant. Ce dernier s’est volontairement engagé dans un débat sur une question d’intérêt public. Ce cas montre que l’approche franche et décontextualisée de Facebook peut limiter la liberté d’expression de manière disproportionnée. La mise en application du Standard de la communauté semble se limiter à déterminer si un terme unique constitue une déclaration à caractère négatif et si le signalement a été effectué par l’utilisateur ciblé. Aucune évaluation de la conversation ou du contexte plus large n’est entreprise.
En l’espèce, Facebook n’a pas pris en considération le langage désobligeant du contre-manifestant au sujet des manifestants pro-Navalny. Elle n’a pas non plus tenu compte de l’intention du manifestant de réfuter les fausses allégations proférées par le contre-manifestant sur les manifestations et n’a pas tenté de mettre cette préoccupation en balance avec la déclaration à caractère négatif signalée. En revanche, l’entreprise a déclaré que cet exercice de pondération était entrepris lors de l’élaboration des Standards de la communauté afin que les décisions de modération soient prises uniquement en fonction du contenu individuel signalé. Enfin; les décisions de suppression de contenu semblent se fonder sur un seul mot si ce dernier est considéré comme une déclaration à caractère négatif, indépendamment du contexte ou de tout échange dans lequel le contenu peut s’inscrire.
8.2 Respect des valeurs de Facebook
Le Conseil a estimé que la décision de Facebook visant à supprimer ce contenu n’était pas conforme aux valeurs de l’entreprise. En outre, l’entreprise n’est pas parvenue à trouver un équilibre entre les valeurs de « dignité » et de « sécurité » d’une part, et la valeur de « liberté d’expression » d’autre part.
Le Conseil estime que le discours politique se trouve au cœur de la valeur de « liberté d’expression ». À cet égard, il ne doit être limité que lorsqu’il existe des préoccupations claires en matière de « sécurité » et de « dignité ». Dans le contexte d’une discussion politique en ligne, l’on peut s’attendre à un certain niveau de désaccord. Le contre-manifestant a exercé vigoureusement son droit à la liberté d’expression, mais a été contesté et qualifié de « robot lâche ». Bien que l’utilisation du manifestant des termes « robot » et « lâche » puisse être interprétée comme une déclaration à caractère négatif, elle s’inscrit dans un échange plus large sur une question d’intérêt public.
En matière de politique, la « liberté d’expression » revêt une importance particulière dans les pays qui ont coutume de la restreindre. Le Conseil a pris en considération des exemples détaillés d’acteurs progouvernementaux russes qui se livrent à une répression de l’opposition en ligne. Bien qu’il n’y ait aucune preuve de l4implication du gouvernement en l’espèce, les efforts généraux entrepris par les autorités russes pour manipuler les discours en ligne et étouffer les voix de l’opposition fournissent un contexte crucial pour évaluer la décision de Facebook visant à limiter la « liberté d’expression » dans ce cas.
Les valeurs de « sécurité » et de « dignité »empêchent les utilisateurs de se sentir menacés, réduits au silence ou exclus. Le harcèlement et l’intimidation sont toujours hautement contextuels et peuvent avoir des répercussions importantes sur la sécurité et la dignité des personnes ciblées. Le Conseil souligne que « les conséquences et les effets préjudiciables qu’ont les différentes manifestations de violence en ligne sont fonction du genre, étant donné que les femmes et les filles subissent une stigmatisation particulière dans le contexte d’une inégalité, d’une discrimination et d’un patriarcalisme à caractère structurel » (A/HRC/38/47, paragraphe 25).
Étant donné que le contre-manifestant n’a pas été invité à effectuer de déclaration, les répercussions de cette publication sur sa personne sont inconnues. Toutefois, l’analyse du fil de discussion des commentaires révèle que l’utilisateur s’est activement engagé dans une discussion politique litigieuse et s’est senti suffisamment en sécurité pour attaquer et insulter M. Navalny, ses partisans et les manifestants du 23 janvier. Le terme « robot lâche » peut certes être considéré comme insultant et offensant envers la « dignité » de l’utilisateur qui a signalé le contenu. Le Conseil estime toutefois que le risque de préjudice probable envers le contre-manifestait était mineur compte tenu du ton de l’intégralité de l’échange.
8.3 Respect des responsabilités de Facebook en matière des droits de l’homme
Le Conseil estime que la suppression du contenu du manifestant en vertu du Standard de la communauté sur le harcèlement et l’intimidation n’était pas conforme aux responsabilités de Facebook envers les droits de l’homme.
Liberté d’expression (article 19 du PIDCP)
L’article 19, paragraphe 2, fournit une large protection pour « toutes sortes » d’expression, en ce compris le discours politique et indique que « la communication libre des informations et des idées concernant des questions publiques et politiques entre les citoyens (...) est essentielle » (Observation générale n° 34, paragraphe 13). Le Comité des droits de l’homme des Nations unies a clairement indiqué que la protection de l’article 19 s’étend à l’expression pouvant être considérée comme « profondément offensante » (Observation générale n° 34, paragraphes 11 et 12).
Si le droit à la liberté d’expression est fondamental, il n’est pas absolu. Il peut être restreint, mais les restrictions doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Facebook doit chercher à aligner ses politiques en matière de harcèlement et d’intimidation sur ces principes (Rapporteur spécial des Nations unies sur la liberté d’expression, rapport A/74/486, paragraphe 58(b)).
I. Légalité
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles (Observation générale n° 34, paragraphe 25). Les personnes doivent comprendre ce qui est autorisé et ce qui ne l’est pas. En outre, la précision dans l’élaboration des règles garantit que la liberté d’expression n’est pas limitée de manière sélective. Le Conseil a toutefois estimé que le Standard de la communauté Facebook sur le harcèlement et l’intimidation était imprécis et excessivement compliqué.
Dans l’ensemble, le Standard de la communauté est organisé d’une manière qui le rend difficile à comprendre et à suivre. La justification de la politique offre une vaste compréhension des objectifs du Standard, lequel consiste notamment à s’assurer que les utilisateurs se sentent en sécurité et à empêcher les discours qui rabaissent les personnes ou les couvrent de honte. Cette justification est suivie par un certain nombre d’actions à « ne pas » faire ainsi que par d’autres règles dont la liste est dressée sous deux panneaux d’avertissement jaunes. Ces règles énumèrent les contenus interdits, les circonstances dans lesquelles Facebook est amenée à intervenir, la manière dont Facebook intervient et les degrés de protection dont bénéficient différents groupes d’utilisateurs. Les Standards de la communauté ne précisent pas si les objectifs décrits dans la justification servent simplement de guide pour les règles spécifiques qui suivent, ou s’ils doivent être interprétés conjointement avec les règles. En outre, les informations sont organisées dans un ordre apparemment aléatoire. Ainsi, les règles applicables aux personnes privées précèdent, suivent et se mêlent parfois aux règles relatives aux personnalités publiques.
Le Standard de la communauté ne distingue pas non plus le harcèlement et l’intimidation. Comme indiqué précédemment, les experts en la matière s’accordent à dire qu’il s’agit de deux comportements distincts. En outre, comme l’a souligné l’organisation de la société civile Article 19 , les normes internationales de liberté d’expression prévalent sur le Standard de la communauté en raison de l’absence d’indications sur la différence entre le harcèlement et l’intimidation d’une part, et les menaces et autres propos offensants d’autre part. Le Conseil estime que regrouper les concepts distincts d’intimidation et de harcèlement en une seule définition et un seul ensemble de règles correspondant a entraîné la suppression d’un discours légitime.
En outre, si la politique en matière de harcèlement et d’intimidation s’applique différemment à diverses catégories de personnes et de groupes, elle ne définit pas ces catégories. D’autres termes clés, tels que « déclaration a caractère négatif », ne sont pas non plus clairement définis. Par conséquent, le Conseil conclut que le Standard de la communauté a échoué au test de légalité.
II. Objectif légitime
En vertu de la législation internationale des droits de l’homme, toute mesure visant à limiter la liberté d’expression doit avoir un but repris dans la liste exhaustive dressée à l’article 19, paragraphe 3 du PIDCP). Les objectifs légitimes comprennent la protection des droits ou de la réputation d’autrui, ainsi que la protection de la sécurité nationale, de l’ordre public, ou de la santé publique et des bonnes mœurs (Observation générale n° 34, paragraphe 28).
Le Conseil accepte que le Standard de la communauté sur le harcèlement et l’intimidation vise à protéger les droits d’autrui. La liberté d’expression des utilisateurs peut être compromise s’ils sont contraints de quitter la plateforme pour cause de harcèlement ou d’intimidation. La politique vise également à dissuader les comportements susceptibles de provoquer une détresse émotionnelle importante et des dommages psychologiques, impliquant le droit à la santé des utilisateurs. Toutefois, le Conseil note que toute limitation de la liberté d’expression doit être établie avec soin et que l’existence d’un lien entre une règle et un objectif légitime ne suffit pas à satisfaire aux normes des droits de l’homme en matière de liberté d’expression. (Observation générale n° 34, paragraphes 28, 30, 31 et 32).
III.Proportionnalité et nécessité
Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale 34, paragraphe 34).
Facebook distingue dûment les personnalités publiques des personnes privées, mais elle ne reconnaît pas le contexte dans lequel les discussions s’inscrivent. Par exemple, dans certaines circonstances, les personnes privées engagées dans un débat public sur des questions d’intérêt public peuvent s’exposer à des critiques concernant leur déclaration. L’entreprise a réduit la portée potentielle de sa règle sur les déclarations à caractère négatif formulées à l’encontre d’adultes privés en exigeant que l’utilisateur visé signale le contenu. Le Conseil note également qu’en plus de signaler les contenus abusifs, Facebook permet aux utilisateurs de se bloquer ou de se mettre en sourdine. Il s’agit là d’un outil utile, bien que limité, contre les abus. Étant donné que ces options peuvent être considérées comme des mesures moins restrictives destinées à limiter la liberté d’expression par rapport à d’autres, la suppression du contenu en l’espèce était disproportionnée.
Le contexte joue un rôle essentiel dans l’évaluation de la nécessité et de la proportionnalité. Le Rapporteur spécial des Nations unies sur la liberté d’expression a déclaré, à propos des discours haineux, qu’une « exception est possible, dans certains cas après une évaluation plus approfondie du contexte, lorsque le contenu visé doit être protégé, par exemple dans le cas d’un discours politique » (A/74/486, paragraphe 47(d)). Cette approche peut être étendue aux évaluations des cas de harcèlement et d’intimidation. En l’espèce, Facebook aurait dû tenir compte de l’environnement entourant généralement la liberté d’expression en Russie, et plus particulièrement des campagnes gouvernementales de désinformation contre les opposants et leurs partisans, notamment dans le contexte des manifestations de janvier. Les propos tenus par le contre-manifestant dans son échange avec le manifestant réitéraient de fausses allégations selon lesquelles les manifestants pro-Navalny étaient des enfants manipulés. L’accusation de « robot lâche » dans le contexte d’une discussion animée sur ces questions n’était pas susceptible de causer un préjudice quelconque, en particulier étant donné les allégations et les accusations tout aussi hostiles du contre-manifestant.
Facebook a indiqué au Conseil qu’en janvier 2021, elle avait déterminé que les éventuelles manifestations nationales de masse en faveur de M. Navalny constituaient des évènements à haut risque et avait demandé à ses modérateurs de signaler les tendances et les contenus qui enfreignaient potentiellement les Standards de la communauté. En mars 2021, Facebook a déclaré avoir supprimé 530 comptes Instagram impliqués dans des activités inauthentiques coordonnées visant des utilisateurs russes pro-Navalny. Facebook avait donc connaissance du contexte plus large du contenu en l’espèce et qu’une vigilance accrue aurait dû conduire à une évaluation plus minutieuse du contenu relatif aux manifestations.
En outre, le contenu supprimé semble dépourvu d’éléments qui constituent souvent des actes de harcèlement et d’intimidation, tels que des attaques répétées ou l’indication d’un déséquilibre de pouvoir. Bien que traiter quelqu’un de lâche puisse constituer une déclaration à caractère négatif, le contenu représentait l’aboutissement d’un échange politique animé sur les évènements actuellement traversés par la Russie. Compte tenu de ce qui précède, le Conseil conclut que la décision de Facebook visant à supprimer le contenu conformément à son Standard de la communauté sur le harcèlement et l’intimidation était inutile et disproportionnée.
9.Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Facebook visant à supprimer le contenu et demande à ce que la publication soit restaurée.
10. Avis consultatif sur la politique
Pour respecter les normes internationales des droits de l’homme, Facebook doit modifier et remanier son Standard de la communauté sur le harcèlement et l’intimidation afin de :
1. Préciser la relation qui unit la justification de la politique et la section « Ne pas » ainsi que les autres règles de limitation du contenu qui la suivent.
2. Différencier le harcèlement de l’intimidation et donner des définitions qui distinguent ces deux actes. Par ailleurs, le Standard de la communauté doit expliquer clairement aux utilisateurs en quoi le harcèlement et l’intimidation diffèrent des discours uniquement offensants qui peuvent être protégés par la législation internationale des droits de l’homme.
3. Définir clairement son approche des différentes catégories d’utilisateurs cibles et donner des exemples de chaque catégorie de cibles (p. ex. qui peut être considéré comme une personnalité publique). Présenter le Standard de la communauté sur le harcèlement et l’intimidation par catégories d’utilisateurs actuellement énumérées dans la politique.
4. Inclure des exemples de contenus en infraction et autorisés dans le Standard de la communauté sur le harcèlement et l’intimidation en vue de clarifier les lignes d’action établies ainsi que la manière dont ces distinctions peuvent reposer sur le statut identitaire de la cible.
5. Lors de l’examen d’un contenu composé d’une « déclaration à caractère négatif » à l’encontre d’un adulte particulier, Facebook doit modifier son Standard de la communauté pour exiger un examen du contexte sociopolitique du contenu. L’entreprise doit reconsidérer la mise en application de cette règle dans les débats politiques ou publics où la suppression du contenu étoufferait le débat.
6. Chaque fois que Facebook supprime un contenu en raison d’une déclaration à caractère négatif qui ne représente qu’un seul mot ou une seule phrase dans une publication plus importante, elle doit en informer rapidement l’utilisateur afin que ce dernier ait la possibilité de publier à nouveau le contenu sans cette déclaration à caractère négatif.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel.
Retour aux décisions de cas et aux avis consultatifs politiques