Renversé

Manifestation en Inde contre la France

Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu de son Standard de la communauté relatif à la violence et à l’incitation.

Type de décision

Standard

Politiques et sujets

Sujet
Religion, Violence
Norme communautaire
Violence et incitation

Régions/Pays

Emplacement
France, Inde

Plate-forme

Plate-forme
Facebook

Pour lire cette décision en hindi, cliquez ici.

पूरे फैसले को हिन्दी में पढ़ने के लिए, कृपया यहां क्लिक करें।

Résumé du cas

Le Conseil de surveillance a annulé la décision de Facebook de supprimer une publication en vertu de son standard de la communauté relatif à la violence et à la provocation. Alors que l’entreprise considérait que la publication contenait une menace voilée, une majorité du Conseil a estimé que le contenu devait être restauré. Cette décision ne doit être appliquée qu’après en avoir informé l’utilisateur et après avoir obtenu son accord.

À propos du cas

À la fin du mois d’octobre 2020, un utilisateur de Facebook a publié du contenu dans un groupe public décrit comme un forum destiné aux musulmans indiens. La publication contenait un mème constitué d’une image issue de la série télévisée turque « Diriliş: Ertuğrul » et représentant l’un des personnages de la série, vêtu d’une armure en cuir et tenant une épée dans sa gaine. Une phrase en hindi était superposée à l’image du mème. Facebook traduit ce texte de la manière suivante : « Si la parole du kafir va à l’encontre de celle du Prophète, l’épée doit être dégainée ». La publication incluait également des hashtags qualifiant le président français Emmanuel Macron de « diable » et appelant au boycott des produits d’origine française.

Lors du renvoi du cas devant le Conseil, Facebook a noté que le contenu mettait en évidence la tension existant entre ce qu’elle a considéré comme un discours religieux et une potentielle menace de violence, même si celle-ci n’était pas explicite.

Principales observations

Facebook a supprimé la publication en vertu de son standard de la communauté relatif à la violence et à la provocation, qui stipule que les utilisateurs ne doivent pas publier de déclarations codées où « la menace est voilée ou implicite ». Facebook a identifié l’expression « l’épée doit être dégainée » comme une menace voilée à l’encontre des « kafirs », un terme qui, selon l’entreprise, a une connotation vindicative envers les non-musulmans.

Compte tenu des circonstances dans lesquelles le contenu a été publié, la majorité du Conseil n’a pas estimé que la publication était susceptible de représenter un danger. Les membres du Conseil ont remis en question la justification de Facebook, qui laisse penser que les menaces de violence à l’encontre des musulmans augmentaient non seulement la sensibilité de l’entreprise à ce genre de menaces, mais qu’elles augmentaient également sa sensibilité lorsqu’elle modérait du contenu issu de ce groupe.

Bien qu’une minorité du Conseil ait considéré la publication comme une incitation à des représailles violentes au blasphème, la majorité des membres a estimé que les références au Président Macron et au boycott des produits d’origine française étaient plutôt un appel à des actions dont la nature n’était pas nécessairement violente. Même si le personnage issu de la série télévisée porte l’épée, la majorité du Conseil a interprété la publication comme une critique à l’égard de la réaction de Macron aux violences à caractère religieux plutôt que comme une véritable menace de violence.

Le Conseil note que sa décision de restaurer cette publication ne constitue en rien une forme de soutien envers son contenu.

En vertu du droit international relatif aux droits de l’homme, les individus ont le droit de rechercher, de recevoir et de diffuser des idées et des opinions de toutes sortes, y compris celles qui peuvent être considérées comme controversées ou profondément offensantes. Par conséquent, une majorité des membres a considéré que, de la même manière que les individus ont le droit de critiquer les religions ou les figures religieuses, les personnes croyantes ont également le droit d’exprimer leur indignation face à de tels propos.

Les restrictions relatives à la liberté d’expression doivent être facilement comprises et accessibles. Dans ce cas-ci, le Conseil a noté que le processus et les critères appliqués par Facebook pour déterminer que la publication contenait des menaces voilées n’étaient pas expliqués aux utilisateurs dans les Standards de la communauté.

En conclusion, une majorité du Conseil a estimé que, pour cette publication spécifique, Facebook n’avait pas évalué toutes les informations contextuelles avec suffisamment de précision et que le droit international relatif aux droits de l’homme sur la liberté d’expression justifiaient la décision du Conseil de restaurer le contenu.

Décision du Conseil de surveillance

Le Conseil a annulé la décision de Facebook de supprimer le contenu et demande la restauration de la publication.

En guise d’avis consultatif en matière de politiques, le Conseil recommande à Facebook de :

  • Cette décision ne doit être appliquée qu’après en avoir informé l’utilisateur et après avoir obtenu son accord.
  • fournir aux utilisateurs des informations supplémentaires sur la portée des restrictions relatives aux menaces voilées et sur leur application. Cela permettrait aux utilisateurs de mieux comprendre les types de contenu autorisés à ce sujet. Facebook devrait rendre publics ses critères de modération de contenu. Ceux-ci doivent tenir compte de l’intention et de l’identité de l’utilisateur ainsi que de son audience et du contexte dans son ensemble.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu que l’entreprise considérait comme une menace voilée en vertu de son standard de la communauté relatif à la violence et à la provocation. Une majorité du Conseil a estimé que la restauration du contenu serait conforme aux Standards de la communauté Facebook, à ses valeurs et normes internationales relatives aux droits de l’homme.

2. Description du cas

À la fin du mois d’octobre 2020, un utilisateur de Facebook a publié du contenu dans un groupe public qui se décrit comme un forum d’information destiné aux musulmans indiens. La publication contenait un mème constitué d’une image issue de la série télévisée turque « Diriliş: Ertuğrul » et représentant un personnage de la série, vêtu d’une armure en cuir et tenant une épée dans sa gaine. Une phrase en hindi était superposée à l’image du mème. Facebook traduit ce texte de la manière suivante : « Si la parole du kafir va à l’encontre de celle du Prophète, l’épée doit être dégainée ». Également rédigée en anglais, la légende du mème associait le Prophète à l’identité, à la dignité, à l’honneur et à la vie de l’utilisateur et contenait l’acronyme PBUH (Peace be upon him), c’est-à-dire « Que la paix soit sur lui ». Cette formule était suivie de hashtags qualifiant le président français Emmanuel Macron de « diable » et appelant au boycott des produits d’origine française. La publication a été vue environ 30 000 fois, a reçu moins de 1000 commentaires et a été partagée moins de 1000 fois.

Tôt au mois de novembre 2020, Facebook a supprimé la publication pour non-respect de sa politique en matière de violence et de provocation. Dans ce contexte, Facebook a interprété le mot « kafir » comme un terme péjoratif faisant référence aux non-croyants. Après avoir analysé la photo et le texte, Facebook a conclu que la publication constituait une menace de violence voilée à l’encontre des « kafirs » et l’a supprimée.

Deux utilisateurs de Facebook avait précédemment signalé la publication (une fois pour « discours haineux » et la seconde pour « violence et provocation »), mais Facebook n’avait pas supprimé le contenu à ce moment-là. Facebook a ensuite été informée par un partenaire tiers que ce contenu était susceptible d’inciter à la violence. L’entreprise a confirmé que ce partenaire tiers était membre de son réseau de partenaires de confiance et qu’il n’était lié à aucun État. Facebook a décrit ce réseau comme un moyen d’obtenir plus de contexte au niveau local. Selon Facebook, le réseau est composé d’organisations non gouvernementales, d’associations humanitaires, d’organismes sans but lucratif et d’autres types d’organisations internationales. Une fois la publication signalée par le partenaire tiers, Facebook a cherché à obtenir plus d’informations contextuelles auprès de son équipe locale spécialisée en politique publique, qui partageait l’avis du partenaire tiers au sujet de la dangerosité potentielle du contenu. Facebook a renvoyé ce cas devant le Conseil de surveillance le 19 novembre 2020. Facebook s’est expliquée en notant que sa décision pouvait être contestée compte tenu du fait que le contenu mettait en évidence les tensions existant entre ce qu’elle considérait comme un discours religieux et une menace de violence potentielle, même si celle-ci n’était pas explicite.

3. Autorité et champ d’application

Le Conseil de surveillance dispose de l’autorité nécessaire pour examiner la décision de Facebook en vertu de l’article 2.1 de la charte du Conseil et peut confirmer ou annuler cette décision conformément à l’article 3.5. La publication relève du champ d’application d’un examen par le Conseil de surveillance : elle n’entre dans aucune catégorie de contenu exclue comme indiqué à l’article 2, section 1.2.1 des Statuts du Conseil et cela n’entre pas en conflit avec les obligations légales de Facebook en vertu de l’article 2, section 1.2.2 des Statuts.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook

Le standard de la communauté relatif à la violence et à la provocation stipule que Facebook « souhait[e] empêcher tout risque de danger hors ligne potentiellement lié à du contenu sur Facebook » et que l’entreprise restreint la liberté d’expression « lorsqu’[elle] pens[e] qu’un contenu représente un réel risque de blessures physiques ou une atteinte directe à la sécurité publique ». Plus précisément, le standard indique que les utilisateurs ne doivent pas publier de déclarations codées « lorsque la méthode de violence ou le préjudice n’est pas clairement défini, mais que la menace est voilée ou implicite ». Facebook note également qu’elle a besoin de plus de contexte pour pouvoir appliquer cette section du standard.

II. Valeurs de Facebook

Les valeurs de Facebook pertinentes dans ce cas sont détaillées dans l’introduction aux Standards de la communauté. La première est la « liberté d’expression », qui est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite « la liberté d’expression » au profit de quatre autres valeurs : « l’authenticité », « la sécurité », « la confidentialité » et « la dignité ». Le Conseil considère que la valeur de « sécurité » est pertinente pour cette décision :

Sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider, exclure ou réduire au silence et ne sont pas autorisées sur Facebook.

III. Normes relatives aux droits de l’homme prises en considération par le Conseil

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. Sur la base des UNGP, les normes internationales relatives aux droits de l’homme suivantes ont été prises en considération pour ce cas :

  • Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’observation générale n° 34, Comité des droits de l’Homme (2011) ( GC34) ; le Plan d’action de Rabat.
  • Le droit à la vie et à la sécurité de sa personne : les articles 6 et 9 du PIDCP, paragraphe 1

5. Déclaration de l’utilisateur

Facebook a notifié l’utilisateur qu’elle avait renvoyé le cas devant le Conseil de surveillance et lui a donné la possibilité de partager avec ce dernier plus de contexte autour de sa publication. L’utilisateur disposait d’un délai de 15 jours à compter du renvoi devant le Conseil pour envoyer sa déclaration. Le Conseil n’a reçu aucun commentaire de la part de l’utilisateur.

6. Explication de la décision de Facebook

Facebook a d’abord évalué la publication pour un éventuel non-respect de son standard relatif au discours haineux et n’a pas jugé nécessaire de supprimer le contenu. Facebook n’a pas indiqué si le terme « kafir » faisait partie de la liste des insultes interdites ou si la publication enfreignait d’une autre manière la politique relative au discours d’incitation à la haine.

Facebook a ensuite supprimé le contenu en vertu de son standard de la communauté relatif à la violence et à la provocation. Conformément à ce standard, Facebook interdit tout contenu créant un « réel risque de blessures physiques ou une atteinte directe à la sécurité publique », y compris toute déclaration codée « lorsque la méthode de violence ou le préjudice n’est pas clairement défini, mais que la menace est voilée ou implicite ». Facebook a expliqué que, selon elle, les menaces voilées « peuvent être aussi dangereuses pour les utilisateurs que les menaces de violence plus explicites ». Selon l’entreprise, les menaces voilées sont supprimés lorsque certains critères non publics sont remplis.

Sur la base de ces critères, Facebook a déterminé que l’expression « l’épée doit être dégainée » constituait une menace de violence à l’encontre des « kafirs » en général. Dans ce cas, Facebook a interprété le mot « kafir » comme un terme péjoratif à connotation vindicative contre les non-musulmans et la référence à l’épée comme un appel aux représailles ; l’entreprise a également estimé que l’expression constituait une « référence implicite aux violences exercées par le passé ».

Facebook a déclaré qu’il était crucial de prendre en considération le contexte entourant la publication du contenu. Selon l’entreprise, le contenu a été publié à un moment où les tensions religieuses en Inde étaient liées aux procès Charlie Hebdo en France et aux élections dans l’État indien de Bihar. Facebook a noté la montée de la violence à l’encontre des musulmans, notamment l’attaque de Christchurch (Nouvelle-Zélande) contre une mosquée. L’entreprise a également noté que la violence dont pourraient faire preuve des musulmans en guise de vengeance augmentait sa sensibilité dans la manière dont elle réagissait aux menaces potentielles, aussi bien de la part des musulmans qu’à leur encontre.

Facebook a ensuite déclaré que sa politique relative à la violence et à la provocation s’alignait sur le droit international relatif aux droits de l’homme. Selon l’entreprise, sa politique est « strictement définie pour faire respecter les droits d’autrui et pour préserver les éléments de nécessité et de proportionnalité requis pour restreindre la liberté d’expression dans le cadre autorisé ».

7. Soumissions de parties tierces

Le Conseil a reçu six commentaires publics en rapport avec ce cas. La répartition régionale des commentaires était la suivante : un provenait d’Asie-Pacifique et d’Océanie, un d’Amérique latine et des Caraïbes, et quatre des États-Unis et du Canada. Les commentaires abordaient différents thèmes, y compris : l’importance de connaître l’identité et l’influence de l’utilisateur, notamment la plateforme et le groupe où le contenu a été publié ; l’importance d’identifier la cible ; la question de savoir si la publication ciblait des personnalités publiques ou des individus privés ; celle de savoir si l’utilisateur visait à diffuser le stéréotype dangereux qui présente les musulmans indiens comme violents ; celle de savoir si le contenu répondait au standard relatif aux menaces voilées en vertu des Standards de la communauté Facebook ; celle de savoir si la politique relative à la violence et à la provocation était applicable dans ce cas-ci ; celle de savoir si la publication pouvait être considérée comme une incitation à la violence en vertu de la politique de Facebook sur le discours d’incitation à la haine ainsi qu’un feedback visant à améliorer le processus de commentaires publics du Conseil.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

8.1 Respect des Standards de la communauté

Une majorité du Conseil a estimé que la restauration de ce contenu serait conforme aux Standards de la communauté Facebook.

Facebook a indiqué que le contenu était une menace voilée, interdite par le standard de la communauté relatif à la violence et à la provocation. Le standard stipule que les utilisateurs ne doivent pas publier de déclarations codées « lorsque la méthode de violence ou le préjudice n’est pas clairement défini, mais que la menace est voilée ou implicite ». Dans sa justification à l’attention du Conseil, Facebook a déclaré que son interprétation de cette disposition du standard se concentrait sur les « dommages physiques imminents ».

Les membres du Conseil ont considéré à l’unanimité qu’il était important de réagir aux menaces de violence voilées et ont fait part de leur préoccupation, suscitée par les utilisateurs qui recourent aux menaces voilées pour échapper à la détection des cas de non-respect des Standards de la communauté. Les membres ont également reconnu que Facebook faisait face à un défi de taille en matière de suppression à grande échelle de ce type de menaces, compte tenu du fait qu’elles requièrent une analyse contextuelle.

Les opinions des membres du Conseil divergeaient quant à la précision avec laquelle la cible était définie, au ton de la publication et au risque de violence ou de dommages physiques posé par ce contenu, aussi bien en Inde que dans le reste du monde. Une majorité d’entre eux a estimé que l’utilisation du hashtag pour appeler au boycott des produits d’origine française était un appel aux protestations non violentes, ce qui fait partie intégrante du discours sur les événements politiques actuels. Dans ce contexte, l’utilisation d’un mème issu d’une série télévisée populaire, même s’il fait référence à la violence, n’a pas été considérée par la majorité comme un appel à la violence physique.

Le Conseil a noté que Facebook justifiait sa décision par les tensions qui règnent actuellement en Inde. Néanmoins, les exemples cités n’étaient pas liés à ce contexte. Par exemple, les protestations provoquées en Inde par la déclaration du Président Macron à la suite des meurtres qui ont eu lieu en France en réaction aux caricatures du Prophète Mahomet n’ont pas été violentes, d’après les rapports. Facebook a également cité les élections du 7 novembre 2020 dans l’État indien de Bihar ; pourtant, les recherches du Conseil indiquent que ces élections n’ont pas été marquées par les violences religieuses. Le Conseil a estimé à l’unanimité qu’une analyse du contexte était essentielle pour comprendre les menaces voilées, même si une majorité de ses membres n’a pas trouvé que la justification contextuelle de Facebook, liée aux éventuelles violences en Inde, était convaincante dans ce cas-ci.

Une minorité d’entre eux a trouvé que le processus interne de Facebook, qui s’appuyait sur l’évaluation d’un partenaire tiers, était louable et qu’elle s’en serait remise à la conclusion de l’entreprise selon laquelle la publication présentait le risque inacceptable d’inciter à la violence. Les membres minoritaires a salué le fait que Facebook avait consulté des experts linguistiques et régionaux et partage la conclusion de cette dernière quant à la connotation péjorative du terme « kafir ». La minorité estimait que le Conseil ne disposait pas d’éléments convaincants pour annuler la décision de Facebook.

Cela étant dit, une majorité a estimé que l’analyse indépendante du Conseil allait en faveur de la restauration de la publication en vertu du standard de la communauté relatif à la violence et à la provocation.

8.2 Conformité avec les valeurs de Facebook

Une majorité du Conseil a estimé que la restauration de ce contenu serait conforme aux valeurs de l’entreprise. Bien que la valeur de Facebook concernant la « sécurité » soit importante, surtout en période de tensions religieuses grandissantes en Inde, ce contenu ne posait pas de problème de « sécurité » qui puisse justifier la restriction de la « liberté d’expression ». Le Conseil a également reconnu les défis auxquels Facebook fait face pour trouver un équilibre entre ces valeurs lorsqu’il s’agit de gérer des menaces voilées. Une minorité de ses membres a considéré que ces circonstances justifiaient la restriction de la « liberté d’expression » au profit de la « sécurité ».

8.3 Conformité avec les normes relatives aux droits de l’homme

Une majorité du Conseil a estimé que la restauration de ce contenu serait conforme au droit international relatif aux droits de l’homme.

Conformément à l’article 19 du PIDCP, les individus ont le droit de rechercher, de recevoir et de diffuser des idées et des opinions de toutes sortes, y compris celles qui peuvent être considérées comme controversées ou profondément offensantes (Observation générale n°34, paragraphe 11). Le droit à la liberté d’expression comprend la diffusion d’idées qui peuvent être considérées comme blasphématoires ainsi que celle d’idées qui s’opposent à de tels propos. À cet égard, la liberté d’expression inclut la liberté de critiquer les religions, les doctrines religieuses et les figures religieuses (Observation générale n°34, paragraphe 48). L’expression d’opinions politiques est particulièrement importante : elle bénéficie d’une protection renforcée en vertu des standards internationaux relatifs aux droits de l’Homme (Observation générale n°34, paragraphes 34 et 38) et comprend les appels au boycott et la critique des personnalités publiques.

Dans le même temps, le Conseil reconnaît que le droit à la liberté d’expression n’est pas absolu et qu’il peut être soumis à des restrictions exceptionnelles en vertu du droit international relatif aux droits de l’homme. Dans ce cas-ci, après avoir discuté des facteurs du Plan d’action de Rabat, le Conseil a estimé que la publication ne défendait pas la haine religieuse et ne dépassait pas le seuil de l’incitation à la discrimination, à l’hostilité ou à la violence, indispensable pour justifier une interdiction en vertu de l’article 20, paragraphe 2 du PIDCP. L’article 19, paragraphe 3 du PIDCP exige que les restrictions de la liberté d’expression soient facilement comprises et accessibles (exigence de légalité), qu’elles aient pour but de promouvoir un ou plusieurs des objectifs répertoriés (exigence d’objectif légitime) et qu’elles soient nécessaires et taillées sur mesure pour l’objectif spécifique (exigence de nécessité et de proportionnalité). Le Conseil a discuté de la décision de Facebook de supprimer le contenu comme allant à l’encontre de ces critères.

I. Légalité

En matière de légalité, le Conseil a noté que le processus et les critères appliqués par Facebook pour déterminer que la publication contenait des menaces voilées n’étaient pas expliqués aux utilisateurs dans les Standards de la communauté ; le « contexte supplémentaire » nécessaire pour appliquer la politique n’était donc pas clair.

II. Objectif légitime

Le Conseil a ensuite estimé que la restriction de la liberté d’expression dans ce cas-ci servirait un objectif légitime : la protection des droits d’autrui (les droits à la vie et à l’intégrité des personnes ciblées par la publication).

III. Proportionnalité et nécessité

Une majorité des membres a estimé que la suppression de la publication n’était pas nécessaire, soulignant l’importance de son évaluation dans son contexte particulier.

Elle a considéré que, de la même manière que les individus ont le droit de critiquer les religions et les figures religieuses, les adhérents aux religions ont également le droit d’exprimer leur indignation face à de tels propos. Le Conseil a reconnu la nature sérieuse de la discrimination et de la violence subies par les musulmans en Inde. La majorité de ses membres a également considéré les références au Président Macron et le boycott des produits d’origine française comme des appels aux actions non violentes. À cet égard, même si la publication incluait une épée, la majorité du Conseil a interprété la publication comme une critique à l’égard de la réaction de Macron aux violences à caractère religieux plutôt que comme une menace crédible de violence.

Au moment de déterminer si des préjudices étaient possibles, le Conseil a pris en considération un certain nombre de facteurs. Le sens large du terme utilisé pour définir la cible (« kafirs ») et le manque de clarté quant à la violence ou aux dommages physiques potentiels, qui n’ont pas semblé imminents, ont contribué à la conclusion de la majorité. Selon toute vraisemblance, l’utilisateur n’était pas une personnalité politique ni publique et n’avait pas d’influence particulière sur le comportement d’autres personnes, ce qui était également significatif. En outre, la publication ne comportait aucune référence voilée à un moment ou un lieu prévu pour une action de menace ou d’incitation à la menace. Les recherches du Conseil ont indiqué que les protestations provoquées en Inde par les déclarations de Macron n’avaient pas été violentes, d’après les rapports qui en ont été faits. Dès lors, certains membres du Conseil ont noté que le groupe Facebook ciblait des individus en Inde, notamment par des propos tenus en hindi, ce qui laisse penser que la portée de son influence a peut-être été limitée à une zone qui n’a pas connu de réactions violentes. En outre, certains membres ont considéré que les exemples cités par Facebook étaient en grande partie liés à de la violence exercée envers la minorité musulmane d’Inde, ce qui est un problème urgent, selon le Conseil, mais qui ne constituaient pas des exemples de violence exercées par les musulmans en guise de vengeance. Ainsi, la majorité du Conseil a conclu que la violence physique, en plus de ne pas être imminente, était peu susceptible de découler de cette publication.

Une minorité des membres a interprété la publication comme étant menaçante ou comme légitimant des représailles violentes au blasphème. Bien que le mot « épée » fasse référence à une forme non spécifique de violence, la minorité a estimé que les meurtres chez Charlie Hebdo et les décapitations commises récemment en France, tous liés au blasphème, signifiaient que cette menace ne pouvait pas être considérée comme irréaliste et être écartée. Les hashtags, qui font référence aux événements en France, soutiennent cette interprétation. Dans ce cas-ci, la minorité estime que Facebook ne devrait pas attendre que les actes de violence soient imminents avant de supprimer le contenu qui menace ou intimide les personnes qui exercent leur droit à la liberté d’expression, c’est pourquoi elle a exprimé son soutien à la décision de Facebook.

La majorité, toutefois, a estimé que Facebook n’avait pas évalué correctement toutes les informations contextuelles. Le Conseil a souligné que la restauration de la publication n’impliquait pas qu’il était d’accord avec son contenu et a pris note des difficultés rencontrées lors de l’évaluation des menaces codées ou voilées. Néanmoins, pour cette publication spécifique, les normes internationales relatives aux droits de l’homme sur la liberté d’expression justifient la décision du Conseil de restaurer le contenu.

9. Décision du Conseil de surveillance

9.1 Décision concernant le contenu

Le Conseil de surveillance a annulé la décision de Facebook de supprimer le contenu et demande que la publication soit restaurée.

9.2 Avis consultatif sur la politique

Cette décision ne doit être appliquée qu’après en avoir informé l’utilisateur et après avoir obtenu son accord.

Pour s’assurer que les utilisateurs différencient bien les contenus autorisés de ceux qui ne le sont pas, le Conseil conseille à Facebook de leur fournir davantage d’informations sur la portée de ce standard de la communauté ainsi que sur sa mise en application. Les critères de modération de contenu devraient être publics et s’aligner sur les standards de mise en application internes de Facebook. Spécifiquement, les critères de Facebook doivent répondre au contexte, à l’audience, à l’intention et à l’identité de l’utilisateur.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et doivent être acceptées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.

Retour aux décisions de cas et aux avis consultatifs politiques