Renversé

Isolement d’Öcalan

Le Conseil de surveillance a annulé la décision initiale de Facebook visant à supprimer une publication Instagram encourageant les utilisateurs et utilisatrices à débattre sur l’isolement cellulaire d’Abdullah Öcalan, membre fondateur du Parti des travailleurs du Kurdistan (PKK).

Type de décision

Standard

Politiques et sujets

Sujet
Communautés marginalisées, Fausses informations, Liberté d’expression
Norme communautaire
Personnes et organisations dangereuses

Régions/Pays

Emplacement
États-Unis, Turquie

Plate-forme

Plate-forme
Instagram

Pour lire l’intégralité de la décision en kurde du nord, clique ici.

Ji bo hûn ev biryar bi Kurdiya Bakur bixwînin, li vir bitikînin.

Résumé du cas

Le Conseil de surveillance a annulé la décision initiale de Facebook visant à supprimer une publication Instagram encourageant les utilisateurs à débattre sur l’isolement cellulaire d’Abdullah Öcalan, membre fondateur du Parti des travailleurs du Kurdistan (PKK). Par suite de l’appel de l’utilisateur et de l’examen du cas par le Conseil, Facebook a conclu que le contenu avait été supprimé par erreur et l’a restauré. Le Conseil note avec préoccupation que Facebook a égaré une exception de politique interne pendant trois ans et que ce faisant, de nombreuses autres publications ont pu être supprimées.

À propos du cas

Le présent cas se rapporte à Abdullah Öcalan, un membre fondateur du PKK. Ce groupe a eu recours à la violence pour tenter d’atteindre son objectif, c.-à-d. établir un État kurde indépendant. Le PKK et Öcalan sont tous deux désignés comme entités dangereuses en vertu de la politique de Facebook sur les individus et organismes dangereux.

Le 25 janvier 2021, un utilisateur américain d’Instagram a publié une image de M. Öcalan qui comprenait les mots anglais « y’all ready for this conversation » (« vous êtes tous prêts à avoir cette discussion »). Dans la légende, l’auteur de la publication a écrit qu’il était temps de parler de l’isolement de M. Öcalan en prison sur l’île d’Imrali en Turquie et d’y mettre fin. Cette personne encourageait les lecteurs à parler de l’emprisonnement de M. Öcalan et de la nature inhumaine de son isolement cellulaire.

Après avoir été évaluée par un modérateur, la publication a été supprimée le 12 février, conformément aux règles de Facebook relatives aux individus et aux organismes dangereux, pour être un appel à l’action visant à soutenir M. Öcalan et le PKK. Lorsque l’utilisateur a fait appel de cette décision, il lui a été répondu que son appel ne pouvait être examiné en raison d’une réduction temporaire de la capacité d’examen de Facebook due au COVID-19. Toutefois, un second modérateur a évalué le contenu et estimé qu’il enfreignait ladite politique. L’utilisateur a alors introduit un appel auprès du Conseil de surveillance.

Le cas a été sélectionné par le Conseil et assigné à un panel, après quoi Facebook a découvert qu’une instruction interne relative à la politique sur les individus et les organismes dangereux « n’avait pas été transférée par inadvertance » au nouveau système d’examen en 2018. Cette instruction, mise au point en 2017 pour répondre en partie à l’inquiétude suscitée par les conditions d’emprisonnement de M. Öcalan, autorise les discussions relatives aux conditions de détention des individus désignés comme dangereux.

Facebook a restauré le contenu sur Instagram le 23 avril, conformément à ladite instruction. Facebook a indiqué au Conseil qu’elle travaille actuellement à une mise à jour de ses politiques pour autoriser les utilisateurs à discuter des droits de l’homme des individus désignés comme dangereux. L’entreprise a demandé au Conseil de lui donner un avis ainsi que des recommandations pour améliorer ces politiques. Bien que Facebook a mis à jour son Standard de la communauté sur les individus et les organismes dangereux le 23 juin 2021, ces modifications n’ont pas d’incidence directe sur les recommandations que l’entreprise a demandées au Conseil.

Principales observations

Le Conseil a estimé que la décision initiale de Facebook visant à supprimer le contenu n’était pas conforme à ses Standards de la communauté. Étant donné que l’instruction interne égarée précise que les utilisateurs peuvent discuter des conditions de détentions d’individus ayant été désignés comme dangereux, la publication était autorisée par les règles de Facebook.

Le Conseil note avec préoccupation que Facebook a égaré une instruction spécifique sur une exception de politique importante pendant trois ans. La politique de Facebook consistant à supprimer par défaut le contenu témoignant du « soutien » à des individus désignés, tout en cachant au public des exceptions clés, a permis à cette erreur de passer inaperçue pendant une longue période. Facebook a uniquement découvert que cette politique n’était pas appliquée parce que l’utilisateur a décidé de faire appel de la décision de la société auprès du Conseil.

Bien que Facebook ait affirmé au Conseil qu’elle procédait à un examen des raisons pour lesquelles l’instruction n’a pas été transférée à son nouveau système d’examen, elle a également indiqué qu’il n’était « techniquement pas possible de déterminer combien de contenus ont été supprimés durant la période où l’instruction n’était pas mise à la disposition des examinateurs ». Le Conseil estime que l’erreur de Facebook peut avoir entraîné la suppression à tort de nombreuses autres publications et que les rapports de transparence de Facebook ne sont pas suffisants pour déterminer si ce type d’erreur reflète un problème systématique. Les actions de Facebook en l’espèce indiquent que l’entreprise ne respecte pas le droit de recours, ce qui enfreint sa politique d’entreprise en matière des droits de l’homme (section 3).

Même sans la découverte de l’instruction égarée, le contenu n’aurait jamais dû être supprimé. L’utilisateur n’a pas témoigné de la violence dans sa publication et n’a pas exprimé son soutien envers l’idéologie de M. Öcalan ou du PKK. Il a plutôt cherché à mettre en lumière les préoccupations relatives aux droits de l’homme que soulevait l’isolement cellulaire prolongé de M. Öcalan, lesquelles avaient également été exprimées par des organismes internationaux. Dans la mesure où il était peu probable que la publication cause des préjudices sa suppression n’était ni nécessaire ni proportionnée en vertu des normes internationales des droits de l’homme.

Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Facebook visait à supprimer le contenu. Le Conseil note que Facebook a déjà restauré le contenu.

Dans un avis consultatif sur la politique, le Conseil recommande à Facebook de :

  • Rétablir immédiatement l’instruction égarée en 2017 dans les Standards d’implémentation internes et les Questions fréquemment posées (les instructions internes pour les modérateurs de contenu).
  • Évaluer les procédés de modération automatisés destinés à la mise en application de la politique sur les individus et les organismes dangereux. Le cas échéant, Facebook est tenue de mettre à jour les classificateurs afin d’exclure les données d’entraînement provenant d’erreurs de mise en application antérieures résultant de l’incapacité à appliquer l’instruction de 2017.
  • Publier les résultats de la procédure d’examen continu pour déterminer si d’autres politiques ont été égarées, en ce compris la description de toute politique perdue, la période durant laquelle elle a été égarée et les mesures prises pour la restaurer.
  • Veiller à ce que la « justification de la politique » sur les individus et les organismes dangereux reflète le fait que le respect des droits de l’homme et de la liberté d’expression peut faire progresser la valeur « sécurité ». La justification de la politique doit préciser plus en détail les « dangers réels » que la politique cherche à éviter et empêcher en supprimant la valeur « liberté d’expression ».
  • Ajouter à la politique une explication claire des considérations exclues par le terme « soutien ». Les utilisateurs doivent être libres de discuter des abus présumés des droits de l’homme des membres d’organismes désignés.
  • Expliquer dans les Standards de la communauté comment les utilisateurs peuvent faire comprendre à Facebook l’intention sous-entendue par leurs publications.
  • Assurer un engagement significatif des parties prenantes envers les modifications proposées à sa politique sur les individus et les organismes dangereux par le biais du Forum de politique des produits de Facebook, notamment par un appel public à contributions.
  • Veiller à ce que des formations et des instructions internes soient fournies aux modérateurs de contenu concernant toute modification de politique proposée.
  • Veiller à ce que les utilisateurs soient prévenus de la suppression de leur contenu. La notification doit indiquer si la suppression est due à une demande gouvernementale ou à une infraction aux Standards de la communauté, ou encore à un gouvernement affirmant que sa législation nationale a été enfreinte (et la portée juridictionnelle de toute suppression).
  • Préciser aux utilisateurs d’Instagram que les Standards de la communauté Facebook s’appliquent à Instagram de la même manière qu’ils s’appliquent à Facebook.
  • Inclure, dans ses rapports de transparence, des informations sur le nombre de demandes de suppression de contenu reçues de la part des gouvernements sur la base d’infractions des Standards de la communauté (par opposition aux infractions de la législation nationale), ainsi que les résultats de ces demandes.
  • Inclure, dans ses rapports de transparence, des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers les individus et les organismes dangereux, réparties par région et par langue.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a annulé la décision initiale de Facebook visant à supprimer une publication Instagram encourageant les utilisateurs à débattre sur l’isolement cellulaire d’Abdullah Öcalan, personne désignée comme individu dangereux par Facebook. Par suite de l’appel de l’utilisateur et de l’examen du cas par le Conseil, Facebook a conclu que le contenu avait été supprimé par erreur et a restauré la publication sur Instagram.

Facebook a expliqué avoir « omis par inadvertance de transférer » vers un nouveau système d’examen une instruction de politique interne en 2018, laquelle autorisait les utilisateurs à discuter des conditions de détention des individus désignés comme dangereux. Le Conseil estime que si Facebook était plus transparente sur ses politiques, le préjudice causé par cette erreur aurait pu être limité, voire évité. Même sans l’égarement de l’instruction de politique, le Conseil estime que le contenu n’aurait jamais dû être retiré. Il s’agissait simplement d’un appel à débattre de la nécessité de la détention de M. Öcalan en isolement cellulaire et la suppression ne servait pas l’objectif de la politique sur les individus et les organismes dangereux , c.-à-d. « éviter et empêcher tout danger réel ». La suppression a plutôt entraîné une limitation de la liberté d’expression concernant une question de droits de l’homme.

2. Description du cas

Le cas porte sur un contenu lié à Abdullah Öcalan, membre fondateur du Parti des travailleurs du Kurdistan (PKK). Le PKK a été fondé dans les années 1970 dans le but d’établir un État kurde indépendant dans le sud-est de la Turquie, en Syrie et en Irak. Le groupe a recours à la violence pour atteindre cet objectif. Le PKK est considéré comme organisation terroriste par les États-Unis, l’Union européenne, le Royaume-Uni et la Turquie, entre autres. M. Öcalan est emprisonné sur l’île d’Imrali, en Turquie, depuis son arrestation et sa condamnation en 1999 pour avoir mené des actions violentes visant à la sécession d’une partie du territoire turc (Cas Öcalan c. Turquie, Cour européenne des droits de l’Homme).

Le 25 janvier 2021, un utilisateur américain d’Instagram a publié une image de M. Öcalan qui comprenait les mots anglais « y’all ready for this conversation » (« vous êtes tous prêts à avoir cette discussion »). Dans la légende, l’auteur de la publication a écrit qu’il était temps de parler de l’isolement de M. Öcalan en prison sur l’île d’Imrali et d’y mettre fin. L’utilisateur a encouragé les lecteurs à parler de l’emprisonnement de M. Öcalan et de la nature inhumaine de son isolement cellulaire, notamment par le biais de grèves de la faim, de protestations, d’actions en justice, d’articles d’opinion, de groupes de lecture et de mèmes. Le contenu n’appelait pas à la libération de M. Öcalan et ne mentionnait aucunement le PKK ni ne soutenait des actes de violence.

La publication a été automatiquement signalée par Facebook et, après avoir été évaluée par un modérateur, a été supprimée le 12 février pour avoir enfreint la politique sur les individus et les organismes dangereux. L’utilisateur a fait appel de cette décision auprès de Facebook et a appris que la décision était définitive et ne pouvait être examinée en raison d’une réduction temporaire de la capacité d’examen de Facebook due au COVID-19. Toutefois, un second modérateur a tout de même procédé à un examen du contenu et a également constaté une infraction à la politique sur les individus et les organismes dangereux. L’utilisateur a reçu une notification expliquant que la décision initiale avait été confirmée par un second examen. L’utilisateur a alors introduit un appel auprès du Conseil de surveillance.

Le Conseil a sélectionné le cas pour examen et l’a assigné à un panel. En préparant la justification de sa décision pour le Conseil, Facebook a retrouvé une instruction relative à la politique sur les individus et les organismes dangereux qui autorise les discussions ou les débats concernant les conditions de détention des individus désignés comme dangereux. Cette instruction a été mise au point en 2017 pour répondre en partie à l’inquiétude internationale suscitée par les conditions d’emprisonnement de M. Öcalan. Facebook a expliqué qu’en 2018, l’instruction « n’avait pas été transférée par inadvertance » vers un nouveau système d’examen. Elle n’a pas non plus été partagée au sein de l’équipe chargée des politiques de Facebook, laquelle fixe les règles de ce qui est autorisé sur la plateforme. Bien que l’instruction soit techniquement accessible aux modérateurs de contenu dans une annexe de formation, l’entreprise reconnaît qu’elle était difficile à trouver lors des procédures d’examen standard et qu’en l’espèce, l’examinateur n’y a pas eu accès. Cette instruction est reprise dans un document strictement interne visant à aider les modérateurs de Facebook et n’est pas reflétée dans les Standards de la communauté Facebook destinés au public ou dans les Règles de la communauté Instagram.

Facebook a uniquement découvert que cette politique n’était pas appliquée parce que l’utilisateur a décidé de faire appel auprès du Conseil de la décision de Facebook visant à supprimer son contenu. Sans les actions de cet utilisateur, il est possible que cette erreur n’ait jamais été découverte. Au 29 juin, Facebook n’a toujours pas réintégré cette politique interne égarée dans ses instructions destinées aux modérateurs de contenu. L’entreprise a expliqué au Conseil qu’elle « s’assurera que les instructions qu’elle fournit à ses examinateurs de contenu à cet égard soient claires et plus facilement accessibles afin d’éviter de futures erreurs d’application ».

Facebook a restauré le contenu sur Instagram le 23 avril et a informé le Conseil qu’elle « travaille actuellement à une mise à jour de ses politiques pour préciser que les utilisateurs peuvent débattre ou discuter des conditions de détention d’individus désignés comme terroristes ou d’autres infractions de leurs droits fondamentaux, tout en continuant à interdire les contenus faisant l’éloge ou soutenant les actes de violence de ces individus ». L’entreprise a apprécié « l’avis et les recommandations du Conseil de surveillance sur la manière de trouver un équilibre approprié entre favoriser la liberté d’expression sur des sujets liés aux droits de l’homme et garantir dans le même temps que sa plateforme n’est pas utilisée pour diffuser des contenus faisant l’éloge ou soutenant des terroristes ou des acteurs violents. »

3. Autorité et champ d’application

Le Conseil dispose de l’autorité nécessaire pour examiner la décision de Facebook à la suite d’une réclamation introduite par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte ; article 2, section 2.1 des Statuts). Le Conseil peut maintenir ou annuler cette décision (article 3, section 5 de la Charte). Conformément à la décision sur le cas 2020-004-IG-UA, le fait que Facebook revienne sur une décision contre laquelle un utilisateur a fait appel n’empêche pas le Conseil d’examiner le cas.

Les décisions du Conseil sont contraignantes et peuvent inclure des avis consultatifs sur la politique ainsi que des recommandations. Ces recommandations ne sont pas contraignantes, mais Facebook est tenue d’y répondre (article 3, section 4 de la Charte).

Le Conseil est un organe de réclamation indépendant qui traite les litiges de manière transparente et sur la base de principes.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Règles de Facebook relatives au contenu :

Les Règles de la communauté Instagram indiquent qu’Instagram n’est pas un espace où soutenir ou faire l’éloge du terrorisme, du crime organisé ou de groupes haineux. Cette section des Règles inclut un lien vers le Standard de la communauté Facebook sur les individus et les organismes dangereux (pour accéder au journal des modifications reflétant la mise à jour des Standards de la communauté du 23 juin, cliquez ici). En réponse à une question du Conseil, Facebook a confirmé que les Standards de la communauté s’appliquent à Instagram de la même manière qu’elles s’appliquent à Facebook.

Le Standard de la communauté sur les individus et les organismes dangereux établit ce qui suit : « afin d’éviter et d’empêcher tout danger réel, les organisations ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Facebook ». Il stipulait en outre, à l’époque où il était mis en application, que Facebook supprime « tout contenu soutenant ou faisant l’éloge de groupes, dirigeants ou individus impliqués dans ces activités ».

II. Valeurs de Facebook :

Les valeurs de Facebook sont détaillées dans l’introduction des Standards de la communauté.

La liberté d’expression y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Facebook limite la liberté d’expression au profit de quatre valeurs, dont une est pertinente en l’espèce :

La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.

III. Normes relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En mars 2021, Facebook a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle elle réaffirme son engagement à respecter les droits de l’homme conformément aux UNGP. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :

  • La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP) ; l’article 6 de la Déclaration sur les défenseurs des droits de l’homme, A/RES/53/144 (1998) ; l’Observation générale n° 34 du Comité des droits de l’homme (2011) ; le rapport du Rapporteur spécial sur la liberté d’opinion et d’expression, A/HRC/38/35 (2018), A/74/486 (2019) ; le rapport de la Rapporteuse spéciale sur les droits de l’homme et la lutte antiterroriste, A/HRC/40/52 (2019).
  • Droit au recours : l’article 2 du PIDCP ; l’Observation générale n° 31 du Comité des droits de l’homme (2004).
  • Interdiction de la torture et des traitements cruels, inhumains ou dégradants : la règle 53 de l’Ensemble de règles minima des Nations unies pour le traitement des détenus (Règles Nelson Mandela), A/Res/70/175 (2016).

5. Déclaration de l’utilisateur

Dans son appel introduit auprès du Conseil, l’utilisateur a expliqué qu’il avait publié le contenu pour alimenter le débat concernant la philosophie de M. Öcalan et mettre fin à son isolement. Il a indiqué qu’il estimait que l’interdiction de communiquer sur M. Öcalan et sa philosophie empêche toute discussion qui pourrait conduire à un règlement pacifique pour le peuple kurde au Moyen-Orient. L’utilisateur a également affirmé qu’il ne souhaitait pas faire la promotion de la violence, mais est d’avis qu’il ne fallait pas interdire la publication d’images de M. Öcalan sur Instagram. Il a déclaré que l’association du visage de M. Öcalan à des organisations violentes ne se fondait pas sur des faits, mais qu’il était plutôt question de calomnies et d’un effort continu pour étouffer une conversation importante. Il a comparé l’emprisonnement de M. Öcalan à celui de l’ancien président sud-africain Nelson Mandela, notant que la communauté internationale a un rôle à jouer pour mettre en lumière l’emprisonnement de M. Öcalan comme elle l’a fait pour M. Mandela.

6. Explication de la décision de Facebook

Facebook a d’abord conclu que le contenu constituait un appel à l’action pour soutenir M. Öcalan et le PKK, ce qui enfreignait la politique sur les individus et les organismes dangereux. M. Öcalan a cofondé le PKK. Facebook souligne que ce groupe a été désigné comme organisation terroriste par les États-Unis. Sur cette base, Facebook a ajouté M. Öcalan à sa liste d’individus désignés comme dangereux. En vertu de sa politique sur les individus et les organismes dangereux, Facebook supprime tous les contenus réputés soutenir ces individus.

Après que le Conseil a sélectionné le cas pour examen, Facebook a réévalué le contenu enfreignant ses politiques et a constaté qu’elle avait mis au point une instruction interne à cet égard en 2017. En expliquant la situation, Facebook a déclaré avoir omis, par inadvertance, de transférer cette instruction lorsqu’elle est passée à un nouveau système d’examen en 2018 et qu’elle ne l’a pas partagée au sein de son équipe chargée des politiques.

Cette instruction autorise les contenus dans lesquels l’utilisateur appelle à la liberté d’un terroriste lorsque le contexte indique qu’il est partagé de manière à prôner la paix ou à débattre de l’incarcération d’un terroriste. Conformément à l’application de cette instruction, Facebook a estimé qu’en l’espèce, le contenu relevait résolument du champ d’application et a restauré le contenu.

7. Soumissions de tierces parties

Le Conseil a reçu 12 commentaires publics en rapport avec ce cas. Six provenaient des États-Unis et du Canada, quatre d’Europe, et deux du Moyen-Orient et d’Afrique du Nord.

Les soumissions portaient sur des thèmes tels que le manque de transparence de la politique sur les individus et les organismes dangereux, sur son incohérence avec la législation internationale sur les droits de l’homme, ainsi que sur le fait que les appels à la discussion sur l’isolement cellulaire ne constituent pas une forme quelconque d’éloge ou de soutien.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

8.1 Le respect des règles relatives au contenu de Facebook

Le Conseil a estimé que la décision de Facebook visant à supprimer le contenu n’était pas conforme à ses Standards de la communauté. Le Standard de la communauté sur les individus et les organismes dangereux ne définissait pas les éléments constitutifs d’un « soutien » envers un individu ou un organisme désigné comme dangereux jusqu’à sa mise à jour le 23 juin 2021.

En janvier 2021, le Conseil a recommandé à Facebook de définir publiquement les termes « éloge », « soutien » et « représentation » ainsi que de fournir plus d’exemples illustratifs de l’application de ladite politique (cas 2020-005-FB-UA). En février, Facebook s’est engagée à « ajouter un texte à notre Standard de la communauté sur les individus et les organismes dangereux en quelques semaines pour expliquer que nous sommes susceptibles de supprimer du contenu si l’intention n’est pas claire [ainsi qu’à] ajouter les définitions des termes “éloge”, “soutien” et “représentation” en quelques mois ». Le 23 juin 2021, Facebook a mis à jour ce Standard pour y inclure les définitions. Le Conseil a également recommandé à Facebook de préciser la relation entre les Règles de la communauté Instagram et les Standards de la communauté Facebook (cas 2020-004-IG-UA). Au 29 juin, Facebook n’a toujours pas informé le Conseil des mesures prises pour mettre en œuvre cet engagement.

En l’espèce, à la suite d’une demande du Conseil, Facebook a partagé l’instruction interne aux modérateurs de contenu sur la signification du terme « soutien » envers des individus et des organismes désignés. Celle-ci définit un « appel à l’action » comme un appel visant à inciter une audience à accomplir des actions pour faire la promotion d’un organisme désigné comme dangereux, ou sa cause. Ces précisions ne figuraient pas dans les Standards de la communauté accessibles au public au moment où le contenu a été publié et n’étaient pas incluses dans la mise à jour publiée le 23 juin 2021.

En outre, l’instruction égarée et non publique mise en place en 2017 pour répondre à l’isolement de M. Öcalan indique clairement que les discussions sur les conditions d’isolement cellulaire d’un individu désigné comme dangereux sont autorisées et ne constituent pas une quelconque forme de « soutien ». En l’absence de tout autre contexte, Facebook considère les déclarations appelant à la liberté d’un terroriste comme du soutien et ce type de contenu est supprimé. Encore une fois, ces précisions ne figurent pas dans les Standards de la communauté accessibles au public.

Le Conseil note avec préoccupation qu’une instruction spécifique pour les modérateurs sur une exception de politique importante a été égarée pendant trois ans. Cette instruction indique clairement qu’en l’espèce, le contenu ne constituait pas une infraction. Si le Conseil n’avait pas sélectionné ce cas pour examen, l’instruction serait restée inconnue des modérateurs de contenu et une quantité importante d’expressions d’intérêt public auraient été supprimées.

Ce cas démontre les raisons pour lesquelles les règles accessibles au public sont importantes pour les utilisateurs : elles les informent non seulement de ce que l’on attend d’eux, mais leur permettent aussi de soulever les erreurs commises par Facebook. Le Conseil comprend l’appréhension de Facebook quant à la pleine divulgation de ses règles internes de modération du contenu en raison de sa crainte que certains utilisateurs n’en profitent pour diffuser des contenus nuisibles. Toutefois, la politique de Facebook consistant à supprimer par défaut le contenu témoignant du « soutien » à des individus désignés tout en cachant au public des exceptions clés, a permis à cette erreur de passer inaperçue dans l’entreprise durant environ trois ans sans responsabilité. La mise à jour du Standard de la communauté sur les individus et les organismes dangereux de juin 2021 fournit plus d’informations sur ce que Facebook considère être un « soutien », mais n’explique pas aux utilisateurs les exceptions qui pourraient être appliquées à ces règles.

Même sans la découverte de l’instruction égarée, le contenu n’aurait pas dû être supprimé pour un motif de « soutien ». Ce type d’appel à l’action ne doit pas être interprété comme du soutien envers les objectifs dangereux visés par le PKK. L’utilisateur a uniquement encouragé les personnes à discuter de l’isolement cellulaire de M. Öcalan, notamment par le biais de grèves de la faim, de protestations, d’actions en justice, d’articles d’opinion, de groupes de lecture et de mèmes. Par conséquent, la suppression du contenu en l’espèce n’a pas servi l’objectif déclaré de la politique, à savoir éviter et empêcher tout danger réel.

8.2 Respect des valeurs de Facebook

Le Conseil a estimé que la décision de Facebook visant à supprimer ce contenu n’était pas conforme aux valeurs de l’entreprise de liberté d’expression et de sécurité.

L’utilisateur a soigneusement rédigé son message appelant à une discussion sur la fin de l’isolement de M. Öcalan en prison sur l’île d’Imrali. Il a encouragé les lecteurs à discuter de l’inhumanité de l’isolement cellulaire et des raisons lesquelles il serait nécessaire de maintenir M. Öcalan emprisonné de cette manière. L’utilisateur a préconisé des actions pacifiques pour engager cette discussion et n’a pas préconisé ni incité à la violence dans sa publication. Il n’a pas non plus exprimé de soutien envers l’idéologie de M. Öcalan ou le PKK.

Le Conseil a estimé que les déclarations contestant les infractions aux droits de l’homme sont essentielles à la valeur de liberté d’expression. Il s’agit d’un élément particulièrement important quant aux droits des personnes détenues, qui peuvent ne pas être en mesure de défendre efficacement leurs propres droits, notamment dans des pays où les prisonniers seraient maltraités et où la défense des droits de l’homme peut être opprimée.

La valeur de sécurité a été théoriquement engagée parce que le contenu concernait un individu désigné comme dangereux. Toutefois, la suppression du contenu n’a pas répondu à un problème de sécurité patent. Le contenu n’incluait aucune formulation incitant ou préconisant le recours à la violence. Il ne risquait pas « d’intimider, d’exclure ou de faire taire d’autres utilisateurs ». La décision de Facebook a plutôt illégitimement étouffé la liberté d’expression d’une personne soulevant une question de droits de l’homme.

8.3 Respect des responsabilités de Facebook en matière des droits de l’homme

La suppression de ce contenu n’était pas conforme à l’engagement pris par l’entreprise en matière de droits de l’homme tel qu’énoncé dans sa Politique d’entreprise en matière des droits de l’homme. En ce qui concerne les contenus terroristes, Facebook est signataire de l’appel de Christchurch, qui vise à « éliminer » la diffusion de « contenus terroristes et extrémistes violents » en ligne. Bien que le Conseil soit conscient des problèmes de droits de l’homme soulevés par la société civile concernant l’appel de Christchurch, il exige néanmoins que les entreprises de médias sociaux appliquent leurs Standards de la communauté « conformément aux droits de l’homme et aux libertés fondamentales ».

I. Liberté d’expression (article 19 du PIDCP)

L’article 19 prévoit que toute personne a droit à la liberté d’expression, ce qui implique la liberté de rechercher, de recevoir et de répandre des informations. Le droit à la liberté d’expression inclut le débat sur les droits de l’homme (Observation générale nº 34, paragraphe 11) et est une « condition nécessaire à la réalisation des principes de transparence et de responsabilité » (Observation générale 34, paragraphe 3). En outre, la Déclaration des Nations unies sur les défenseurs des droits de l’homme précise que tout le monde a le droit « d’étudier, discuter, apprécier et évaluer le respect, tant en droit qu’en pratique, de tous les droits de l’homme et de toutes les libertés fondamentales et, par ces moyens et autres moyens appropriés, d’appeler l’attention du public sur la question » ((A/RES/53/144, article 6(c)).

L’utilisateur a cherché à mettre en lumière les préoccupations que suscitaient l’isolement et la détention prolongée d’un individu. Le Conseil souligne que des organismes internationaux ont soulevé des préoccupations en matière de droits de l’homme concernant ces pratiques. Les Règles Nelson Mandela prévoient que les États doivent interdire l’isolement cellulaire prolongé ou à durée indéterminée, car il constitue une forme de torture ou autre peine ou traitement cruel, inhumain ou dégradant (A/Res/70/175, règle 43). Discuter des conditions de détention d’un individu et des infractions présumées à ses droits de l’homme en détention relève des types d’expression protégés par l’article 19 du PIDCP, comme le souligne la Déclaration des Nations unies sur les défenseurs des droits de l’homme, qui vise à protéger les droits de l’homme.

Si le droit à la liberté d’expression est fondamental, il n’est pas absolu. Il peut être restreint, mais les restrictions doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Le Comité des droits de l’homme a déclaré que les limitations de la liberté d’expression « ne peuvent pas compromettre le droit lui-même » et a souligné que « le rapport entre le droit et la restriction et entre la règle et l’exception ne doit pas être inversé » (Observation générale n° 34, paragraphe 21). Le Rapporteur spécial des Nations unies pour la liberté d’expression a fait observer que les entreprises de médias sociaux sont tenues de faire cadrer leurs politiques de modération de contenu sur les individus et les organismes dangereux avec ces principes (A/74/486, paragraphe 58(b)).

a.Légalité (clarté et accessibilité des règles)

Les limitations de la liberté d’expression doivent être libellées avec suffisamment de précision pour permettre à un individu de comprendre ce qui est interdit et d’agir en conséquence (Observation générale n° 34, paragraphe 25). Ces règles doivent également être rendues accessibles au public. Les règles précises sont indispensables aux personnes chargées de les appliquer : elles limitent le pouvoir discrétionnaire, empêchent la prise de décisions arbitraires et protègent également contre les préjugés.

Dans le cas 2020-005-FB-UA, le Conseil a recommandé que le Standard de la communauté sur les individus et les organismes dangereux soit rectifié pour inclure une définition des termes « représentation », « éloge » et « soutien », et a réitéré ces problèmes dans le cas case 2021-003-FB-UA. Le Conseil note que Facebook a maintenant défini publiquement ces termes Le Rapport spécial des Nations unies pour la liberté d’expression a indiqué que les interdictions des plateformes de médias sociaux concernant les « soutiens » et les « éloges » étaient « formulées de manière excessivement vague » (A/HRC/38/35, paragraphe 26, voir également : Observation générale n° 34, paragraphe 46). Dans un commentaire public soumis au Conseil (PC-10055), la Rapporteuse spéciale des Nations unies sur les droits de l’homme et la lutte antiterroriste a noté que, bien que Facebook ait accompli quelques progrès pour clarifier ses règles à cet égard, « les instructions et les standards ne sont [toujours] pas suffisamment conformes à la législation internationale et peuvent, dans la pratique, servir à porter atteinte à certains droits fondamentaux, en ce compris, sans toutefois s’y limiter, la liberté d’expression, d’association, de participation aux affaires publiques et de non-discrimination ». Plusieurs commentaires publics ont fait des observations similaires.

Le Conseil a constaté que Facebook fournit des instructions internes et confidentielles détaillées aux examinateurs pour interpréter les politiques de contenu de l’entreprise destinées au public afin de garantir une modération cohérente et non arbitraire. Il est toutefois inacceptable que les règles clés sur les exclusions que comporte la définition du « soutien » mise au point par Facebook ne figurent pas dans les Standards de la communauté accessibles au public.

b. Objectif légitime

Les restrictions de la liberté d’expression doivent poursuivre un objectif légitime. Le PIDCP dresse la liste des objectifs légitimes dans l’article 19, paragraphe 3, laquelle inclut la protection des droits des autres. Le Conseil constate qu’étant donné que Facebook a annulé la décision contre laquelle l’utilisateur a fait appel après que le Conseil a sélectionné ce cas, l’entreprise n’a pas cherché à justifier la suppression en déclarant qu’elle poursuivait un objectif légitime, mais l’a plutôt présentée comme une erreur.

Les Standards de la communauté expliquent que la politique sur les individus et les organismes dangereux vise à éviter et à empêcher tout danger réel. Facebook a préalablement informé le Conseil que la politique limitait la liberté d’expression pour « protéger les droits d’autrui », ce que le Conseil a accepté (cas 2020-005-FB-UA).

c. Nécessité et proportionnalité

Les restrictions de la liberté d’expression doivent être nécessaires et proportionnelles pour atteindre un objectif légitime. Cela exige qu’il y ait un lien direct entre l’expression et une menace clairement identifiée (Observation générale 34, paragraphe 35), et les restrictions « doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre de remplir leur fonction de protection et elles doivent être proportionnées à l’intérêt à protéger » (Observation générale 34, paragraphe 34).

Puisque Facebook l’a implicitement reconnu en revenant sur sa décision à la suite de la sélection de ce cas par le Conseil, la suppression du contenu n’était ni nécessaire ni proportionnée. De l’avis du Conseil, l’ampleur du terme « soutien » dans les Standards de la communauté, combinée à l’égarement de l’instruction interne sur les exclusions, a entraîné une suppression inutile et disproportionnée. En l’espèce, le contenu appelait à une discussion sur la fin de l’isolement prolongé de M. Öcalan. Il parlait de M. Öcalan en tant que personne et ne témoignait aucun soutien aux actes violents commis par lui ou le PKK. Le contenu ne comprenait pas d’intention manifeste d’inciter à la violence. Il ne risquait pas non plus de provoquer un quelconque danger en étant maintenu.

Le Conseil note avec une préoccupation particulière que Facebook a supprimé un contenu relatif à des questions d’intérêt public dans des pays où les protections juridiques et institutionnelles des droits de l’homme, en particulier la liberté d’expression, sont insuffisantes (cas 2021-005-FB-UA et 2021-004-FB-UA). Le Conseil partage l’inquiétude exprimée par la Rapporteuse spéciale sur les droits de l’homme et la lutte antiterroriste dans ses observations, estimant qu’une « protection sous-optimale des droits de l’homme sur la plateforme [...] peut avoir une incidence considérable en termes de protection globale de certains droits, de restriction de l’espace civique et de consolidation négative des tendances en matière de gouvernance, de responsabilité et d’État de droit dans de nombreux contextes nationaux ». Le Conseil note que le Rapporteur spécial des Nations unies pour la liberté d’expression a exprimé des préoccupations spécifiques à cet égard concernant la Turquie (A/HRC/41/35/ADD.2).

II.Droit au recours (article 2 du PIDCP)

Le droit au recours est un élément clé de la législation nationale des droits de l’homme (Observation générale n° 31) et constitue le troisième pilier des principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme. Le Rapporteur spécial des Nations unies pour la liberté d’expression a indiqué, au sujet du processus de réparation, que « les mécanismes de contestation des décisions des plateformes doivent être transparents et faciles d’utilisation et les entreprises doivent publier une réponse détaillant les raisons ayant motivé leur intervention » (A/74/486, paragraphe 53).

En l’espèce, il a été informé du fait qu’il n’était pas possible de faire appel en raison du COVID-19. Un appel a toutefois été introduit. Le Conseil souligne une nouvelle fois la nécessité pour Facebook d’aligner sa procédure d’appel sur les recommandations des cas 2020-004-IG-UA et 2021-003-FB-UA.

Bien qu’en l’espèce, le contenu de l’utilisateur ait été restauré, le Conseil note avec préoccupation le nombre potentiellement important de suppressions qui n’auraient pas dû se produire, car Facebook a égaré une instruction interne autorisant les débats sur les conditions de détention d’individus désignés. Facebook a indiqué au Conseil qu’elle procède à un examen des raisons pour lesquelles l’instruction n’a pas été transférée à son nouveau système d’examen et de l’éventualité de la perte d’autres politiques. Toutefois, en réponse à une question du Conseil, l’entreprise a déclaré qu’il n’est « techniquement pas possible de déterminer combien de contenus ont été supprimés durant la période où l’instruction n’était pas mise à la disposition des examinateurs ».

Le Conseil est préoccupé par le fait que les rapports de transparence de Facebook ne sont pas suffisants pour évaluer de manière significative si le type d’erreur identifié en l’espèce reflète un problème systémique. Dans des questions posées à Facebook, le Conseil a demandé de plus amples informations sur ses taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers les individus et les organismes dangereux. Facebook a expliqué qu’elle ne recueillait pas de taux d’erreur au niveau des règles individuelles de la politique sur les individus et les organismes dangereux, ni en ce qui concerne la mise en application des exceptions spécifiques contenues uniquement dans ses instructions internes. Facebook a renvoyé le Conseil aux informations publiques sur la quantité de contenus restaurés après avoir été supprimés à tort pour avoir enfreint sa politique sur les individus et les organismes dangereux. Le Conseil note qu’elles ne fournissent pas le même type de détails figurant dans les audits internes et le contrôle qualité pour évaluer la justesse de la mise en application. Bien que Facebook ait reconnu répartir en interne les taux d’erreur des décisions de mise en application des modérateurs et de l’automatisation, elle a refusé de fournir ces informations au Conseil au motif qu’elles « ne sont raisonnablement pas requises pour la prise de décision conformément à l’intention de la Charte ».

En outre, le Conseil a demandé à l’entreprise si le contenu peut faire l’objet d’un appel auprès du Conseil s’il a été supprimé pour avoir enfreint les Standards de la communauté à la suite d’un signalement effectué par un gouvernement. Facebook a confirmé que ces cas pouvaient faire l’objet d’un appel auprès du Conseil. Ils diffèrent cependant des contenus supprimés sur la base d’une demande gouvernementale afin de respecter la législation locale, lesquels sont exclus de tout examen conformément à l’article 2, section 1.2 des statuts. Bien que le Conseil n’ait pas de raison de croire que ce contenu a fait l’objet d’une saisine gouvernementale, il note avec préoccupation que ni lui ni les utilisateurs dont le contenu est supprimé en vertu des Standards de la communauté ne sont informés en cas d’implication d’un gouvernement dans la suppression d’un contenu. Ce point peut s’avérer particulièrement pertinent pour les décisions de mise en application signalées par la suite comme étant des erreurs, ainsi pour les cas où les utilisateurs soupçonnent une implication d’un gouvernement alors qu’il n’y en a pas eu. Les rapports de transparence de Facebook sont également limités à cet égard. Bien qu’ils comprennent des statistiques sur les demandes légales des gouvernements visant à supprimer des contenus sur la base de la législation locale, ils ne comprennent pas de données sur les contenus supprimés pour avoir enfreint les Standards de la communauté après qu’un gouvernement les a signalés.

Cet ensemble de préoccupations indique que Facebook ne respecte pas le droit de recours, ce qui enfreint sa politique d’entreprise en matière des droits de l’homme (section 3).

9. Décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Facebook visant à supprimer le contenu et demande que la publication soit restaurée. Le Conseil constate que Facebook a reconnu que sa décision initiale était incorrecte et a déjà restauré le contenu.

10. Avis consultatif sur la politique

Comme indiqué précédemment, Facebook a modifié son Standard de la communauté sur les individus et les organismes dangereux après avoir demandé au Conseil de lui donner des recommandations sur le fonctionnement de ce Standard. Ces recommandations tiennent compte des mises à jour de Facebook.

L’instruction interne égarée

En attendant que d’autres modifications soient apportées à la politique sur les individus et les organismes dangereux, le Conseil recommande à Facebook de prendre les mesures provisoires suivantes afin de réduire l’application erronée de la politique existante :

1. Rétablir immédiatement l’instruction égarée en 2017 dans les Standards d’implémentation internes et les Questions fréquemment posées (les instructions internes pour les modérateurs de contenu), informer l’ensemble des modérateurs de contenu de son existence et organiser une formation immédiate à cet égard.

2. Évaluer les procédures de modération automatisées pour la mise en application de la politique sur les individus et les organismes dangereux et, le cas échéant, mettre à jour les classificateurs afin d’exclure les données d’entraînement provenant d’erreurs de mise en application antérieures résultant de l’incapacité à appliquer l’instruction de 2017. De nouvelles données d’entraînement reflétant le rétablissement de cette instruction doivent être ajoutées.

3. Publier les résultats de la procédure d’examen continu pour déterminer si d’autres politiques ont été égarées, en ce compris la description de toute politique perdue, la période durant laquelle la politique a été égarée et les mesures prises pour la restaurer.

Les mises à jour de la politique sur les individus et les organismes dangereux

Facebook a indiqué au Conseil qu’elle travaille actuellement à une mise à jour de ses politiques pour préciser que ses règles relatives aux « éloges » et aux « soutiens » n’interdisent pas les discussions sur les conditions de détention d’individus désignés ou d’autres infractions de leurs droits de l’homme.

En guise de contribution initiale à cette élaboration de politique, le Conseil recommande que Facebook prenne les mesures suivantes :

4. Indiquer, dans la « justification de sa politique » sur les individus et les organismes dangereux, que le respect des droits de l’homme et de la liberté d’expression, en particulier des discussions ouvertes sur les infractions des droits de l’homme et les abus liés au terrorisme ainsi qu’aux efforts de lutte antiterroriste, peut faire progresser la valeur de sécurité, et qu’il est essentiel que la plateforme fournisse un espace dédié à ces discussions. Bien que les valeurs de sécurité et de liberté d’expression peuvent parfois entrer en conflit, la justification de la politique doit préciser plus en détail les « dangers réels » que la politique cherche à éviter et empêcher en supprimant la valeur « liberté d’expression ».

5. Ajouter à la politique sur les individus et les organismes dangereux une explication claire des exclusions que comporte la notion de « soutien ». Les utilisateurs doivent être libres de discuter des infractions et des abus présumés des droits de l’homme des membres d’organismes désignés. Ce point ne doit pas se limiter aux individus placés en détention. Facebook doit inclure les discussions sur les droits protégés par les conventions des Nations unies sur les droits de l’homme, tels que cités dans sa politique d’entreprise en matière des droits de l’homme. Les utilisateurs pourraient ainsi débattre, par exemple, des allégations de torture ou autre peine ou traitement cruel, inhumain ou dégradant, des infractions au droit à un procès équitable, des exécutions extrajudiciaires, sommaires ou arbitraires, des disparitions forcées, des restitutions extraordinaires et des révocations de citoyenneté rendant une personne apatride. Les appels à la responsabilisation pour les infractions et les abus des droits de l’homme doivent également être protégés. Les contenus qui incitent à des actes de violence ou recrutent des personnes pour qu’elles rejoignent ou apportent un soutien matériel à des organismes désignés par Facebook doivent être exclus de cette protection, même s’ils traitent également de préoccupations relatives aux droits de l’homme. L’intention de l’utilisateur, le contexte plus large dans lequel la publication s’inscrit et la manière dont les autres utilisateurs comprennent le message s’avèrent essentiels afin de déterminer la probabilité qu’un danger réel résulte de la publication.

6. Expliquer dans les Standards de la communauté comment les utilisateurs peuvent faire comprendre à Facebook l’intention sous-entendue par leurs publications. Pour ce faire, il convient de mettre en œuvre la recommandation du Conseil visant à rendre publique la liste des individus et des organismes désignés par l’entreprise (voir : cas 2020-005-FB-UA). Facebook doit également fournir des exemples illustratifs pour définir la limite entre les contenus autorisés et interdits, notamment quant à l’application de la règle précisant les exclusions que comporte la notion de « soutien ».

7. Assurer un engagement significatif des parties prenantes envers les modifications de politique proposées par le biais du Forum de politique des produits de Facebook, notamment par un appel public à contributions. Facebook doit mener cet engagement en plusieurs langues dans toutes les régions, afin de garantir la participation effective des personnes les plus touchées par les dangers que cette politique cherche à éviter. Cet engagement devrait également inclure des organisations de défense des droits de l’homme, de la société civile et du monde académique possédant des connaissances spécialisées sur ces dangers, ainsi que sur les dangers pouvant résulter d’une mise en application excessive de la politique existante.

8. Veiller à ce que des formations et des instructions internes soient fournies aux modérateurs de contenu concernant toute nouvelle politique. Les modérateurs de contenu doivent disposer de ressources adéquates pour pouvoir comprendre la nouvelle politique et de suffisamment de temps pour prendre des décisions lors de sa mise en application.

La procédure régulière

En vue d’améliorer la procédure régulière pour les utilisateurs dont le contenu est supprimé, Facebook doit prendre les mesures suivantes :

9. Veiller à ce que les utilisateurs soient prévenus de la suppression de leur contenu. La notification doit indiquer si la suppression est due à une demande gouvernementale ou à une infraction aux Standards de la communauté, ou encore à un gouvernement affirmant que sa législation nationale est enfreinte (et la portée juridictionnelle de toute suppression).

10. Préciser aux utilisateurs d’Instagram que les Standards de la communauté Facebook s’appliquent à Instagram de la même manière qu’ils s’appliquent à Facebook, conformément à la recommandation du cas 2020-004-IG-UA.

Rapports de transparence

Facebook doit prendre les mesures suivantes pour que le public comprenne mieux l’efficacité de la mise en œuvre de la politique examinée :

11. Inclure des informations sur le nombre de demandes de suppression de contenu reçues par Facebook de la part des gouvernements sur la base d’infractions des Standards de la communauté (par opposition aux infractions de la législation nationale), ainsi que le résultat de ces demandes.

12. Inclure des informations plus complètes sur les taux d’erreur dans l’application des règles relatives aux « éloges » et au « soutien » envers les individus et les organismes dangereux, réparties par région et par langue.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en science sociale sur six continents ainsi que 3200 experts nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel.

Retour aux décisions de cas et aux avis consultatifs politiques