Confirmé

Crimes présumés à Raya Kobo

Le Conseil de surveillance a confirmé la décision originale de Meta de supprimer une publication prétendant que des personnes civiles d’origine tigréenne étaient impliquées dans des atrocités survenues dans la région d’Amhara en Éthiopie.

Type de décision

Standard

Politiques et sujets

Sujet
Guerre et conflits, Liberté d’expression
Norme communautaire
Discours incitant à la haine

Régions/Pays

Emplacement
Éthiopie

Plate-forme

Plate-forme
Facebook

Cette décision est également disponible en amharique et en tigrigna.

ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ

ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ

Résumé du cas

Remarque : Le 28 octobre 2021, il a été annoncé que le groupe Facebook s’appellerait désormais Meta. Dans ce texte, Meta fait référence au groupe, et Facebook continue de faire référence au produit et aux politiques liées à l’application spécifique.

Le Conseil de surveillance a confirmé la décision originale de Meta de supprimer une publication prétendant que des civils d’origine tigréenne étaient impliqués dans des atrocités survenues dans la région Amhara en Éthiopie. Cependant, puisque Meta avait restauré la publication après l’appel de l’utilisateur auprès du Conseil, l’entreprise doit une nouvelle fois supprimer le contenu de la plateforme.

À propos du cas

Fin juillet 2021, un utilisateur de Facebook en Éthiopie a publié ce contenu en amharique. La publication contenait des allégations selon lesquelles le Front de libération du peuple du Tigré (FLPT) avait tué et violé des femmes et des enfants, et pillé des propriétés de civils dans le district de Raya Kobo et dans d’autres villes de la région d’Amhara en Éthiopie. L’utilisateur affirmait également que les civils tigréens avaient aidé le FLPT à perpétrer ces atrocités. Dans sa publication, l’utilisateur affirme qu’il a reçu cette information de résidents du district de Raya Kobo. La publication de l’utilisateur se terminait par les mots suivants : « nous assurerons notre liberté en nous battant ».

Après que les systèmes automatiques de langue amharique ont signalé la publication, un modérateur de contenu a déterminé que celle-ci enfreignait le Standard de la communauté Facebook relatif au discours haineux. Lorsque l’utilisateur a fait appel de cette décision de Meta, un second modérateur de contenu a confirmé que la publication enfreignait les Standards de la communauté Facebook. Les deux modérateurs font partie de l’équipe d’examinateurs de contenu en amharique de Meta.

L’utilisateur a alors fait appel auprès du Conseil de surveillance. Après que le Conseil a décidé d’examiner ce cas, Meta a considéré sa décision originale de supprimer la publication comme incorrecte et l’a restaurée le 27 août. Meta a déclaré au Conseil que le groupe indique généralement aux utilisateurs que leur contenu a été restauré le jour où il le restaure. Cependant, en raison d’une erreur humaine, Meta a informé cet utilisateur de la restauration de sa publication le 30 septembre – plus d’un mois plus tard. Cette notification a été envoyée après que le Conseil a demandé à Meta s’il avait informé l’utilisateur de la restauration de son contenu.

Principales observations

Le Conseil estime que le contenu enfreignait les Standards de la communauté Facebook en matière de violence et d’incitation.

Alors que Meta avait initialement supprimé la publication, car elle enfreint le Standard de la communauté relatif au discours haineux, l’entreprise a restauré le contenu après que le Conseil a décidé d’examiner le cas, car elle affirmait que la publication ne ciblait pas l’origine tigréenne et que les allégations de l’utilisateur ne constituaient pas un discours haineux. Le Conseil estime que cette explication de la restauration du contenu est incorrecte et insuffisamment détaillée.

Au lieu de cela, le Conseil a appliqué le Standard de la communauté Facebook en matière de violence et d’incitation à cette publication. Ce standard proscrit également les « fausses informations et rumeurs invérifiables présentant un risque d’actes de violence ou de dommages physiques imminents ». Le Conseil estime que, dans ce cas, le contenu inclut une rumeur invérifiable conformément à la définition de Meta de ce terme. Alors que l’utilisateur affirme que ses sources sont d’anciens signalements anonymes et des personnes de terrain, il ne fournit aucune preuve circonstancielle afin d’étayer ses allégations. Les rumeurs prétendant qu’un groupe ethnique est complice d’atrocités de masses, telles qu’elles apparaissent dans cette publication, sont dangereuses et augmentent significativement le risque de violence imminente.

Le Conseil estime également que la suppression de la publication est conforme aux responsabilités d’entreprise de Meta en matière de droits de l’homme. Des rumeurs invérifiables dans un contexte de conflit passionné et en cours peuvent entraîner de terribles atrocités, comme ce fut le cas en Birmanie. Dans la décision 2020-003-FB-USA, le Conseil a déclaré que « le risque d’expressions haineuses et déshumanisantes qui s’accumule et se diffuse sur une plateforme et entraîne des actions hors ligne ayant un impact sur le droit à la sécurité de la personne et potentiellement à la vie est particulièrement prononcé dans des situations de conflits armés ». L’impact cumulé peut constituer un lien de causalité par le biais d’une « accumulation progressive d’effets », comme ce fut le cas lors du génocide rwandais.

Le Conseil est parvenu à cette décision en ayant conscience des tensions entre la protection de la liberté d’expression et la réduction de la menace de conflit sectaire. Le Conseil est conscient de l’implication de civils dans les atrocités qui surviennent dans différentes parties de l’Éthiopie, même si ce n’est pas dans le district de Raya Kobo, et du fait que Meta ne pouvait pas vérifier les allégations de la publication au moment où elles ont été publiées. Le Conseil est également conscient du fait que des signalements authentiques sur les atrocités en cours peuvent sauver des vies dans des régions en conflit, bien que des affirmations non fondées concernant l’implication de civils aient de fortes chances d’amplifier le risque de violence à court terme.

Décision du Conseil de surveillance

Le Conseil de surveillance a confirmé la décision originale de Meta visant à supprimer la publication. Puisque Meta avait restauré le contenu après l’appel de l’utilisateur auprès du Conseil, l’entreprise doit une nouvelle fois supprimer le contenu de la plateforme.

En guise d’avis consultatif en matière de politiques, le Conseil recommande à Meta de :

  • reformuler sa valeur de « Sécurité » afin de refléter que les discours en ligne peuvent créer un risque pour la sécurité physique des personnes et le droit à la vie, en plus des risques d’intimidation, d’exclusion et de réduction au silence.
  • refléter dans les Standards de la communauté Facebook que des rumeurs non vérifiées peuvent représenter un risque plus accru pour le droit à la vie et la sécurité des personnes dans des contextes de guerre ou de conflit violent. Cela doit se refléter à tous les niveaux du processus de modération.
  • commander une évaluation indépendante de la diligence raisonnable en matière de droits de l’homme sur la manière dont Facebook et Instagram ont été utilisés pour diffuser un discours haineux et des rumeurs non vérifiées qui accroissent le risque de violence en Éthiopie. L’évaluation doit examiner l’efficacité des mesures prises par Meta pour empêcher l’utilisation de manière détournée de ses produits et services en Éthiopie. L’évaluation doit également examiner l’efficacité des mesures prises par Meta pour autoriser les signalements corroborés et d’intérêt public sur les atrocités en matière de droits de l’homme en Éthiopie. L’évaluation doit examiner les capacités linguistiques de Meta en Éthiopie et évaluer si elles sont appropriées en vue de protéger les droits de ses utilisateurs. L’évaluation doit porter sur une période allant du 1er juin 2020 à aujourd’hui. L’entreprise doit procéder à l’évaluation dans les six mois à compter du moment où elle répond à ces recommandations. L’intégralité de l’évaluation devra être publiée.

*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.

Décision complète sur le cas

1. Résumé de la décision

Le Conseil de surveillance a confirmé la décision originale de Meta visant à supprimer le contenu. La publication prétend que des civils d’origine tigréenne sont impliqués dans les atrocités commises contre les peuples de la région d’Amhara en Éthiopie. Au départ, Meta a appliqué le Standard de la communauté relatif au discours haineux pour supprimer la publication de Facebook, mais l’a restaurée après que le Conseil ait décidé d’examiner ce cas. Le Conseil estime que l’explication de Meta concernant la restauration est incorrecte et insuffisamment détaillée. Le Conseil estime que le contenu enfreignait l’interdiction de publier des rumeurs non vérifiées en vertu du Standard de la communauté en matière de violence et d’incitation.

2. Description du cas

À la fin du mois de juillet 2021, la publication en amharique d’un utilisateur Facebook prétendait que le Front de libération du peuple du Tigré (FLPT) avait tué et violé des femmes et des enfants, et pillé des propriétés de civils dans le district de Raya Kobo et dans d’autres villes de la région d’Amhara en Éthiopie. L’utilisateur affirmait également que des civils d’origine tigréenne avaient aidé le FLPT à perpétrer ces atrocités (pour la traduction spécifique et la signification de la publication en amharique, voir Section 6 ci-dessous). La publication de l’utilisateur se terminait par les mots suivants : « nous assurerons notre liberté en nous battant ». Dans sa publication, l’utilisateur affirme qu’il a reçu cette information de résidents du district de Raya Kobo.

La publication a été vue près de 5 000 fois, et a reçu moins de 35 commentaires et plus de 140 réactions. Elle a été partagée plus de 30 fois. La publication est restée sur Facebook pendant environ un jour. Certains des commentaires en amharique, tels que traduits par les spécialistes linguistiques du Conseil, disaient : « notre seule option est de nous unir pour nous venger » et « êtes-vous prêt(e)s, frères et soeurs, à régler ce problème ? ». Selon Meta, le compte de l’utilisateur qui a publié le contenu est situé en Éthiopie, mais pas dans la région du Tigré ou d’Amhara. La photo de profil de l’utilisateur contient un hashtag exprimant sa désapprobation envers le FLPT. Sur la base des informations à disposition du Conseil, l’utilisateur se décrit comme un homme éthiopien venant du district de Raya.

La publication a été identifiée comme pouvant enfreindre les politiques de Meta par les systèmes automatiques de langue amharique (classificateur) du groupe. Meta utilise des classificateurs de machine learning formés pour détecter automatiquement des infractions potentielles aux Standards de la communauté Facebook. Meta a annoncé que le groupe « utilise cette technologique afin d’identifier de manière proactive les discours haineux en amharique et en oromo, ainsi que dans plus de 40 autres langues à travers le monde ». Le Conseil comprend que l’Éthiopie est un pays multilingue, où les quatre langues les plus parlées du pays sont l’oromo, l’amharique, le somali et le tigrigna. Meta a également signalé que le groupe engageait des modérateurs en mesure d’examiner le contenu en amharique, en oromo, en tigrigna et en somali.

Meta utilise une méthode d’« échantillon biaisé »qui sélectionne du contenu afin d’améliorer la qualité du classificateur en amharique. Cela implique que du contenu en amharique présentant des scores de correspondance potentiels aussi bien faibles qu’élevés est continuellement sélectionné et soumis à un examen manuel pour améliorer les performances du classificateur. Ce contenu a été sélectionné pour un examen manuel dans le cadre de ce processus d’amélioration. Meta a également expliqué que son système automatique a déterminé que ce contenu représentait « un nombre élevé de vues potentielles » et que cela entraînait « un faible score d’infraction » pour la publication. Un faible score d’infraction signifie que le contenu n’atteint pas le seuil d’autosuppression par le système automatique de Meta.

Un modérateur de contenu de l’équipe d’examinateurs de contenu en amharique a déterminé que la publication enfreignait le Standard de la communauté Facebook relatif au discours haineux et l’a supprimée. Ce Standard interdit les contenus qui ciblent une personne ou un groupe de personnes sur la base de leur origine ethnique ou nationale en utilisant « des discours violents ». Meta a déclaré avoir notifié l’utilisateur du fait que sa publication enfreignait le Standard de la communauté Facebook relatif au discours haineux, mais pas la règle spécifique qui était enfreinte. L’utilisateur a ensuite fait appel de la décision de Meta, et, à la suite d’un second examen par un autre modérateur de l’équipe d’examinateurs de contenu en amharique, Meta a confirmé que la publication enfreignait les politiques de Facebook.

L’utilisateur a alors fait appel auprès du Conseil de surveillance. À la suite de la décision du Conseil d’examiner ce cas, Meta a reconnu que la suppression de ce contenu constituait une « erreur de mise en application » et l’a restauré le 27 août. Meta a déclaré que le groupe envoie généralement le jour même une notification aux utilisateurs concernant la restauration de leur contenu. Néanmoins, en raison d’une erreur humaine, Meta a informé cet utilisateur de la restauration le 30 septembre. Cette notification a été envoyée après que le Conseil a demandé à Meta si le groupe avait informé l’utilisateur de la restauration de son contenu.

Le cas concerne des allégations non vérifiées selon lesquelles des Tigréens vivant dans le district de Raya Kobo se sont associés au FLPT pour commettre des atrocités dont des viols contre des Amharas. Ces allégations ont été publiées sur Facebook au milieu d’une guerre civile en Éthiopie ayant éclaté en 2020 et opposant les forces de la région du Tigré à celles du gouvernement fédéral éthiopien et leurs alliés (International Crisis Group, Ethiopia’s Civil War: Cutting a Deal to Stop the Bloodshed 26 octobre 2021).

Selon les briefings des spécialistes reçu·es par le Conseil, Facebook représente un média en ligne important, influant et populaire pour la communication en Éthiopie. Les briefings des spécialistes indiquaient également que les médias éthiopiens ne couvrent pas ou peu les zones affectées par le conflit et que les Éthiopiens utilisent Facebook pour recevoir et partager des informations à propos du conflit.

L’histoire récente de l’Éthiopie est marquée par des conflits ethniques récurrents impliquant notamment des groupes tigréens (ACCORD, Ethnic federalism and conflict in Ethiopia, 2017). Le Conseil a conscience des allégations de sérieuses infractions aux droits de l’homme et au droit humanitaire survenues dans la région du Tigré et d’autres parties du pays, notamment dans les régions Afar, Amhara, Oromia et Somali et commises par les parties impliquées dans le conflit actuel ( Conseillère spéciale des Nations unies pour la prévention du génocide, déclaration sur la poursuite de la détérioration de la situation en Éthiopie, 30 juillet 2021 ; Haut-Commissariat des Nations unies aux droits de l’homme (HCDH NU), É thiopie : Bachelet urges end to ‘reckless’ war as Tigray conflict escalates, 3 novembre 2021). De plus, selon une enquête menée conjointement par la Commission éthiopienne des droits de l’homme (CEDH) et le HCDH des NU récemment publiée, des civils tigréens et amharas étaient impliqués dans des infractions aux droits de l’homme fin 2020. Cependant, le champ d’application de l’enquête ne couvrait pas les infractions survenues au mois de juillet 2021 dans les régions mentionnées dans la publication de l’utilisateur (Rapport de la Commission éthiopienne des droits de l’homme et du HCDH des NU, Enquête menée conjointement sur les violations présumées des droits de l’homme, du droit humanitaire et du droit des réfugiés commises par l’ensemble des parties impliquées dans le conflit de la région du Tigré en République fédérale démocratique d’Éthiopie, 3 novembre 2021).

Selon un rapport de Reuters, des représentants locaux de la région Amhara ont affirmé que les forces tigréennes ont tué 120 civils dans un village de cette région les 1er et 2 septembre ( Reuters, 8 septembre). Les forces tigréennes ont ensuite publié une déclaration rejetant ce qu’elles qualifiaient d’« allégations fabriquées » par le gouvernement de la région Amhara. Ces allégations n’ont pas pu être confirmées par une source indépendante. Le Conseil a également conscience des allégations selon lesquelles les Tigréens font l’objet d’un profilage ethnique, sont harcelés et sont de plus en plus exposés à des discours haineux ( Remarques de la Haute-Commissaire des Nations Unies aux droits de l’homme, Michelle Bachelet, en réponse aux questions sur l’Éthiopie, 9 décembre 2020 ; NGOs Call for UN Human Rights Council Resolution on Tigray, 11 juin 2021).

3. Autorité et champ d’application

Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont la publication a été supprimée (article 2, section 1 de la Charte). Le Conseil peut confirmer ou annuler cette décision, et ce de manière contraignante pour Meta (article 3, section 5 et article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs en matière de politiques avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte). Selon sa charte, le Conseil de surveillance est un organe indépendant conçu pour protéger la liberté d’expression en prenant des décisions indépendantes et fondées sur des principes concernant des éléments de contenu importants. Elle fonctionne de manière transparente, en exerçant un jugement neutre et indépendant et en rendant des décisions de manière impartiale.

4. Standards pertinents

Le Conseil de surveillance a pris les éléments suivants en considération dans sa décision :

I. Standards de la communauté Facebook

Dans la justification de la politique du Standard de la communauté Facebook sur les discours haineux, Meta indique que les discours haineux ne sont pas autorisés sur la plateforme parce qu’ils « créent un environnement intimidant et excluant, et peuvent, dans certains cas, faire l’apologie de la violence hors ligne ». Le Standard de la communauté définit les discours haineux comme une « attaque directe contre des personnes, plutôt que contre des concepts ou des institutions, fondée sur ce que nous appelons des caractéristiques protégées : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre, et les maladies graves ». La justification définit en outre une attaque comme « un discours violent ou déshumanisant, des stéréotypes offensants, une affirmation d’infériorité, une expression de mépris, de dégoût ou de renvoi, une insulte ou un appel à l’exclusion ou à la ségrégation ». Le Standard de la communauté Facebook relatif au discours haineux détermine trois niveaux d’attaque. Sous le Niveau 1, les Standards de la communauté Facebook interdisent « le contenu ciblant une personne ou un groupe de personnes (y compris toutes les sous-catégories, sauf celles ayant commis des crimes violents ou de nature sexuelle) partageant (l’)une (des) caractéristique(s) protégée(s) susmentionnée(s) par un “discours déshumanisant” ». Un tel discours peut prendre la forme de généralisations ou de déclarations sur le comportement selon laquelle des personnes partageant une caractéristique protégée sont des « criminels sexuels et violents » ou « d’autres types de criminels ».

La justification du Standard de la communauté Facebook en matière de violence et d’incitation stipule que Meta « a pour but de prévenir le préjudice hors ligne potentiel qui peut être lié au contenu » sur la plateforme. Plus particulièrement, Meta proscrit également le contenant incluant de « fausses informations et rumeurs invérifiables présentant un risque d’actes de violence ou de dommages physiques imminents ». Dans le cadre de ses standards de mise en application internes, Meta considère qu’une rumeur invérifiable est une information dont la source est extrêmement difficile ou impossible à vérifier, ou qui ne peut pas être confirmée ou démentie dans un délai raisonnable, car la source de l’information est extrêmement difficile ou impossible à vérifier. Meta considère également que les informations n’étant pas suffisamment précises pour être démenties sont des rumeurs invérifiables. Meta fait remarquer qu’un contexte supplémentaire est nécessaire pour faire appliquer cette politique indiquée dans le Standard de la communauté Facebook en matière de violence et d’incitation.

II. Valeurs de Meta

Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook. La liberté d’expression y est décrite comme « primordiale » :

L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.

Meta limite la liberté d’expression au profit de quatre autres valeurs, dont deux sont en l’espèce pertinentes :

La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.

La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.

III. Normes relatives aux droits de l’homme :

Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique en matière des droits de l’homme, dans laquelle elle réaffirme son engagement à respecter les droits de l’homme conformément aux PNDU. L’analyse du Conseil sur ce cas s’est appuyée sur les normes de droits de l’homme suivantes :

  • La liberté d’expression : l’article 4 et 19 du Pacte international relatif aux droits civils et politiques ( PIDCP) ; Comité des droits de l’homme, Observation générale n° 34, 2011, ( Observation générale 34) ; Rapporteuse spéciale sur la promotion et la protection du droit à la liberté d’opinion et d’expression des Nations unies, Régulation du contenu en ligne, A/HRC/38/35.
  • Droit à la vie : l’article 6 du PIDCP, tel qu’interprété par l’Observation générale n° 36, Comité des droits de l’homme (2018) ( Observation générale 36) ; Groupe de travail des Nations unies sur la question des droits de l’homme et des sociétés transnationales et autres entreprises, Entreprises, droits humains et régions touchées par des conflits : vers une action renforcée ( A/75/212).

5. Déclaration de l’utilisateur

Dans son appel au Conseil, l’utilisateur a indiqué qu’il avait publié ce contenu pour protéger sa communauté, qui est exposée à un danger, et que Meta doit aider les communautés dans les régions en guerre. Il a affirmé que sa publication n’est pas un discours haineux, « mais la vérité ». Il a également déclaré que le FLPT ciblait sa communauté, qui se compose d’un million de personnes, et la privait de nourriture, d’eau et autres besoins de première nécessité. L’utilisateur a émis l’hypothèse que sa publication avait été signalée « par des membres et des soutiens de ce groupe terroriste » et affirmait « bien connaître les règles » et n’avoir « jamais enfreint aucune règle Facebook ».

6. Explication de la décision de Meta

Meta a expliqué dans sa justification que le contenu avait été supprimé au départ, car il avait été considéré comme une attaque en vertu du Standard de la communauté Facebook, en particulier parce qu’il enfreignait sa politique interdisant « le discours violent » à l’égard du peuple tigréen sur la base de leur ethnie. Meta a informé le Conseil du fait que ses modérateurs n’enregistrent pas les raisons de suppression du contenu, ils indiquent simplement le Standard de la communauté enfreint. Par conséquent, Meta n’a pas confirmé si les modérateurs ayant examiné la publication au départ et ceux l’ayant fait après l’appel avaient appliqué la même règle de la politique relative au discours haineux de Facebook.

Meta a déclaré dans sa justification que, à la suite de la décision du Conseil d’examiner le cas, le groupe a déterminé que sa « décision était une erreur » et a restauré la publication. Meta a également déclaré que le contenu n’enfreignait pas ses règles, car il ne ciblait pas l’ethnie tigréenne et les allégations de l’utilisateur sur le FLPT ou les Tigréens ne s’élevaient pas au niveau d’un discours haineux.

Dans sa réponse à la question du Conseil, Meta a confirmé que ses systèmes automatiques de langue amharique étaient en place et qu’ils faisaient l’objet d’un audit et d’une actualisation tous les six mois. Meta a également expliqué que le texte original en amharique était l’élément qui avait conduit le système automatique à identifier le contenu comme une infraction potentielle. De la même manière, Meta a confirmé que les deux modérateurs de contenu étaient des locuteurs de l’amharique et que leurs examens se basaient sur le texte original en amharique.

Dans ses soumissions, Meta a expliqué que son équipe régionale fournissait le contexte culturel et linguistique lors de l’élaboration du dossier pour cet appel. La justification de la décision de Meta présentée au Conseil se base par exemple sur la traduction du contenu faite par l’équipe régionale. L’équipe régionale de Meta a traduit la partie supposée en infraction de la publication de l’utilisateur comme indiquant que des professeurs, des professionnels de la santé et des commerçants « tigréens » « ouvrent la voie aux forces rebelles du FLPT pour qu’ils violent des femmes et pillent des propriétés ».

Le Conseil a demandé et reçu une traduction en anglais supplémentaire du texte de ses propres spécialistes linguistiques et Meta a fourni une traduction supplémentaire du texte réalisée par son fournisseur linguistique externe. Les deux versions ont confirmé que la signification dominante du texte indiquait que des civils tigréens avaient aidé le FLPT à perpétrer ces atrocités. Aux fins de la présente décision, le Conseil prend note de la version du fournisseur externe de Meta. Cette version utilise les termes suivants : « Comme signalé précédemment et conformément aux informations obtenues des personnes vivant dans la région qui exercent des fonctions allant de professeurs ou professionnels de la santé à commerçants en passant par des ouvriers et des travailleurs percevant un faible salaire, nous recevons des signalements directs indiquant que les Tigréens, qui connaissent très bien la région, guident le groupe rebelle de porte en porte, ce qui expose des femmes au viol et des propriétés au pillage. » De plus, les commentaires en amharique sur la publication indiquaient « notre seule option est de nous unir pour nous venger » et « êtes-vous prêt(e)s, frères et sœurs, à régler ce problème ? ».

Dans sa réponse à la question du Conseil, Meta a confirmé que l’Éthiopie est « désignée comme un pays à risque de niveau 1 ». Selon Meta, il s’agit du niveau de risque le plus élevé. Meta a fait remarquer qu’il a désigné l’Éthiopie comme « un lieu en crise » dans sa politique de contenu et son travail sur l’intégrité. En soi, le groupe a mis sur pied un Integrity Product Operations Center (IPOC) « de niveau supérieur » pour les élections de juin 2021 en Éthiopie et un autre IPOC pour surveiller les évolutions post-élections en septembre. Les deux IPOC ont pris fin durant le mois même où ils avaient été lancés. Meta a également déclaré que le groupe traitait l’Éthiopie comme une « crise de niveau supérieur » au sein de ses équipes Opérations, Politique et Produit. Meta a déclaré que son « équipe transversale Services de crise » qui se concentre sur l’Éthiopie se réunit chaque semaine pour comprendre et atténuer les risques. Meta a ajouté que ce travail ne modifiait en rien la façon dont le groupe examine le contenu qui ne présente pas un tel risque et que ce travail n’affectait pas sa détermination du cas.

En réponse à la question du Conseil, Meta a expliqué que son (ses) Partenaire(s) de confiance n’avait pas signalé la publication pour un examen supplémentaire en raison d’infractions aux politiques de désinformation et de préjudices. Meta fait également remarquer que, puisqu’il n’y avait pas de vérification des informations par des tiers, il n’y « avait aucune preuve suggérant que les affirmations de la publication étaient fausses ou constituaient une (des) rumeur(s) invérifiable(s) ».

7. Soumissions de tierces parties

Le Conseil de surveillance a reçu 23 commentaires publics en rapport avec ce cas. Six de ces commentaires ont été envoyés d’Afrique subsaharienne, en particulier d’Éthiopie, un du Moyen-Orient et d’Afrique du Nord, un d’Asie-Pacifique et d’Océanie, cinq d’Europe et 10 des États-Unis et du Canada. Le Conseil a reçu des commentaires de parties prenantes, notamment d’universitaires, de particuliers et d’organisations de la société civile, portant sur la liberté d’expression et les discours haineux en Éthiopie. Les soumissions couvraient notamment les thèmes suivants : le contenu doit-il rester sur la plateforme, difficultés à distinguer la critique du FLPT d’un discours haineux à l’encontre du peuple tigréen, et le manque de modérateurs de contenu parlant les langues éthiopiennes chez Meta.

Pour lire les commentaires publics soumis pour ce cas, veuillez cliquer ici.

8. Analyse du Conseil de surveillance

Le cas concerne des allégations formulées durant une guerre civile et ethnique en cours dans une région historiquement marquée par un conflit ethnique létal. Une tension apparaît entre la protection de la liberté d’expression et la réduction de la menace de conflit sectaire. Cette tension peut uniquement être résolue en portant attention aux éléments spécifiques d’un conflit donné. Le Conseil a conscience de l’implication de civils dans les atrocités perpétrées dans différentes régions d’Éthiopie, mais pas dans le district de Raya Kobo (voir contexte pertinent du conflit en Éthiopie dans la section 2 ci-dessus). Meta a déclaré que le groupe ne disposait d’aucune preuve indiquant que le contenu était faux ou constituait une rumeur invérifiable. Le Conseil remarque qu’au moment de la publication, Meta n’a pas vérifié de manière proactive les allégations et n’était pas en mesure de le faire. Il n’était pas possible de vérifier les allégations étant donné la censure de la communication dans la région Amhara. La situation dans la région Amhara était inaccessible aux observateurs et journalistes internationaux. Le Conseil a également conscience du fait que de véritables signalements des atrocités peuvent sauver des vies dans les régions en conflit en mettant en garde des victimes potentielles contre les auteurs de ces atrocités. Cependant, dans le contexte d’un conflit passionné et en cours, des affirmations non fondées concernant des auteurs civils ont de fortes chances d’amplifier le risque de violence à court terme.

8.1. Respect des Standards de la communauté

Meta a restauré le contenu, car le groupe estimait qu’il ne s’agissait pas de discours haineux (voir section 6 ci-dessus). Le Conseil estime que cette explication est incorrecte et manque de détail. Le Conseil estime que le Standard de la communauté en matière de violence et d’incitation est pertinent pour ce cas. Le Conseil en conclut que la publication enfreint l’interdiction de publier de la « désinformation et des rumeurs invérifiables qui contribuent au risque de violence imminente ou de blessures physiques » de la politique en matière de violence et d’incitation (voir section 4, pour une définition de « rumeur invérifiable »).

Le contenu correspond à la définition d’une rumeur invérifiable selon les standards de mise en application internes de Meta (voir section 4, pour une définition d’une « rumeur invérifiable »). Le Conseil estime que les rumeurs prétendant qu’un groupe ethnique est complice d’atrocités de masse sont dangereuses et augmentent significativement le risque de violence imminente durant un conflit violent en cours, comme c’est le cas en Éthiopie. Le Conseil comprend qu’à l’instar des autres groupes ethniques en Éthiopie, les Tigréens sont déjà exposés à des violences et blessures physiques imminentes, qui sont même dans certains cas, réelles.

8.2. Respect des valeurs de Meta

Le Conseil estime que la décision de Meta de restaurer et autoriser le contenu n’est pas cohérente avec ses valeurs de dignité et de sécurité. Le Conseil reconnaît que la liberté d’expression est la valeur primordiale de Meta, mais le groupe autorise la limitation de la liberté d’expression pour empêcher la maltraitance et les autres formes de violence hors ligne et en ligne.

Dans le contexte de ce cas, la liberté d’expression qui dénonce les infractions aux droits de l’homme est de la plus haute importance. Cependant, la forme que prend la liberté d’expression au milieu d’un conflit violent est également importante. Le discours, qui semble chercher à attirer l’attention sur de prétendues infractions aux droits de l’homme en formulant des affirmations non vérifiées durant un conflit violent en cours selon lesquelles un groupe ethnique se rend complice d’atrocité, risque de justifier ou de générer des représailles violentes. Cela est particulièrement pertinent pour la crise actuelle en Éthiopie.

8.3. Respect des responsabilités de Meta en matière des droits de l’homme

Le Conseil estime que, dans ce cas, la suppression du contenu était cohérente avec les responsabilités de Meta en matière de droits de l’homme en tant qu’entreprise en vertu du principe 13 des PDNU, lequel demande aux entreprises d’« éviter d’avoir des incidences négatives sur les droits de l’homme ou d’y contribuer par leurs propres activités, et qu’elles remédient à ces incidences lorsqu’elles se produisent ». Des rumeurs invérifiables dans un contexte de conflit passionné et en cours peuvent entraîner de terribles atrocités, comme l’a montré l’exemple de la Birmanie. Afin d’atténuer un tel risque, il est nécessaire de disposer d’un système transparent de modération du contenu dans les régions en conflit, notamment d’une politique relative aux rumeurs invérifiables.

Liberté d’expression et article 19 du PIDCP

L’article 19 du PIDCP fournit une large protection à la liberté d’expression par n’importe quel moyen et sans considération de frontières. Cependant, l’article autorise la restriction de ce droit dans certaines conditions spécifiques et limitées, connues sous le nom de test tripartite de la légalité (clarté), de la légitimité et de la nécessité, lequel inclut également une évaluation de la proportionnalité. Bien qu’au contraire de ce qu’il fait pour les états, le PIDCP ne crée pas d’obligations pour Meta, le groupe s’est engagé à respecter les droits de l’homme comme indiqué dans les PDNU. Cet engagement englobe les droits de l’homme reconnus à l’échelle internationale, tels que définis par le PIDCP, entre autres. La Rapporteuse spéciale sur la promotion et la protection du droit à la liberté d’opinion et d’expression des Nations unies a suggéré que l’article 19, paragraphe 3 du PIDCP fournit un cadre utile afin d’orienter les pratiques de modération de contenu des plateformes ( A/HRC/38/35, para. 6)

I. Légalité (clarté et accessibilité des règles)

Le critère de la légalité demande que toute restriction de la liberté d’expression soit : (a) suffisamment accessible pour que les individus aient une indication suffisante de la manière dont la loi limite leurs droits ; et (b) que la loi soit formulée avec suffisamment de précision pour que les individus puissent réguler leur conduite. En outre, une loi ne peut pas conférer aux personnes chargées de son application un pouvoir illimité de décider de la restriction de la liberté d’expression ( Observation générale n° 34, paragraphe 25).

Le terme « rumeur invérifiable » n’est pas défini dans les Standards de la communauté accessibles au public. Lorsque Meta ne parvient pas à expliquer des termes clés ni la façon dont ses politiques sont appliquées, les utilisateurs peuvent estimer qu’il est difficile de comprendre si leur contenu enfreint les Standards de la communauté Facebook. Néanmoins, le Conseil estime que le terme « rumeur invérifiable » est suffisamment clair lorsqu’il est appliqué au présent cas dans lequel une allégation non vérifiée a été formulée au milieu d’un conflit violent en cours. Ni Meta, ni l’utilisateur, qui n’était pas présent dans le district de Raya Kobo, ne pouvaient vérifier la rumeur. Les observateurs et journalistes internationaux n’étaient pas non plus en mesure de vérifier la rumeur étant donné le conflit en cours et la censure de la communication. Dans de telles circonstances, les utilisateurs sont en mesure de prévoir qu’une telle publication tombera sous le coup d’une interdiction.

II. Objectif légitime

Les restrictions de la liberté d’expression doivent poursuivre un objectif légitime, qui comprend la protection des droits d’autrui, parmi d’autres objectifs. Le Comité des droits de l’homme a interprété le terme « droits » de façon à inclure les droits de l’homme tels qu’ils sont reconnus dans le PIDCP et, plus généralement, dans le droit international des droits de l’homme ( Observation générale n° 34, paragraphe 28). Le Standard de la communauté Facebook en matière de violence et d’incitation est en partie prévu pour empêcher des violences hors ligne qui pourraient être liées au contenu sur Facebook. Les restrictions basées sur cette politique servent donc l’objectif légitime de protection du droit à la vie.

III. Nécessité et proportionnalité

Le principe de nécessité et de proportionnalité de la législation internationale des droits de l’homme requiert que les restrictions de la liberté d’expression soient «  appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34). Le principe de proportionnalité doit également tenir compte de la forme d’expression en cause ( Observation générale n° 34, paragraphe 34).

Lorsqu’il évaluait si la restriction du discours de l’utilisateur servait son but comme l’exigent les responsabilités en matière de droits de l’homme de Meta, le Conseil a pris en considération les mesures prises par Meta pour empêcher et atténuer le risque pour la vie qu’engendre la diffusion de rumeurs invérifiables à propos des parties impliquées dans le conflit éthiopien (voir section 6 ci-dessus, pour une description du travail de Meta en Éthiopie).

L’utilisateur prétendait que des civils tigréens se rendaient complices d’horribles atrocités commises par les forces tigréennes. Les sources sur lesquelles l’utilisateur se basait pour formuler de telles affirmations étaient des signalements anonymes et des sources de terrain. Il n’a toutefois pas fourni de preuve circonstancielle étayant les allégations qu’il aurait pu ajouter sans mettre ses sources en danger.

Le Conseil a conscience de l’importance de la mise en avant des infractions aux droits de l’homme dans le cadre d’une situation de conflit. Signaler des atrocités est une activité important qui sert le droit aux autres d’être informés. « Le journalisme est une fonction exercée par des personnes de tous horizons... [y compris] des blogueurs et d’autres particuliers qui publient eux-mêmes... sur l’Internet... ») ( Observation générale n° 34, paragraphe 44). Ceux qui publient eux-mêmes le produit de leur travail partagent les responsabilités liées à la fonction d’observateur et lorsqu’ils effectuent un signalement relatif aux droits de l’homme, ils doivent se conformer aux standards de précision. De plus, les informations sur les atrocités peuvent sauver des vies, en particulier dans des situations où les médias sociaux constituent la dernière source par excellence. Cependant, les qualités ci-dessus ne se retrouvent pas dans la publication de l’utilisateur, car elle ne contient pas d’informations sur la menace réelle pour la vie ni d’informations spécifiques qui peuvent être utilisées dans la documentation des infractions aux droits de l’homme. Formulé tel quel, le contenu peut contribuer à la haine raciale. Les situations de conflit ethnique exigent un examen approfondi de la manière dont les gens doivent signaler les infractions aux droits de l’homme commises par les parties impliquées dans le conflit et en discuter. Ces considérations s’appliquent aux publications Facebook, qui peuvent être utilisées pour diffuser très rapidement des rumeurs invérifiables.

Le Conseil fait remarquer que certain(e)s représentant(e) du gouvernement éthiopien ont incité à un discours haineux ciblant les Tigréens ou l’ont diffusé (voir, par exemple, Amnesty International, Éthiopie : Pouvoirs d’urgence étendus et multiplication des propos haineux en ligne alors que le conflit s’aggrave dans le Tigré, Rapport DW 2020). Rien ne prouve que cette publication s’inscrivait dans ces efforts délibérés visant à semer la discorde, mais son contenu doit être considéré à la lumière des signalements indiquant que certain(e)s représentant(e)s du gouvernement et personnalités publiques éthiopiennes ont incité à un discours haineux ou l’ont diffusé. Les publications ou informations de bonne foi sur des sujets d’intérêt public peuvent permettre aux populations vulnérables de mieux se protéger. En outre, une meilleure compréhension des évènements importants peut nous aider dans notre quête de responsabilité. Les rumeurs non vérifiées peuvent toutefois alimenter des récits haineux et contribuer à leur acceptation, plus particulièrement en l’absence d’efforts de contre-discours.

Le Conseil estime que, dans un pays où un conflit armé est en cours et qui se caractérise par une incapacité avérée des institutions gouvernementales à respecter les obligations en matière de droits de l’homme en vertu du droit international, Meta peut limiter la liberté d’expression alors qu’elle ne le ferait pas dans d’autres cas (voir Article 4 du PIDCP sur les dérogations en cas de danger public exceptionnel). « Le principe de proportionnalité doit également tenir compte de la forme d’expression en cause ainsi que des moyens de diffusion utilisés » ( Observation générale n° 34, paragraphe 34). En soi, une rumeur invérifiable ne peut pas être une source directe et immédiate de préjudice. Cependant, lorsqu’un tel contenu apparaît sur une importante plateforme de médias sociaux, à la fois influente et populaire, durant un conflit en cours, le risque et la probabilité de préjudice sont plus prononcés. Le Conseil a abouti à une conclusion similaire dans le cadre de la décision 2020-003-FB-UA. Dans ce cas, le Conseil a estimé que « le risque d’expressions haineuses et déshumanisantes qui s’accumule et se diffuse sur une plateforme et entraîne des actions hors ligne ayant un impact sur le droit à la sécurité de la personne et potentiellement à la vie est particulièrement prononcé dans des situations de conflits armés ». De plus, l’impact cumulé peut constituer un lien de causalité par le biais d’une « accumulation progressive d’effets », comme cela s’est produit au Rwanda où les appels au génocide s’étaient répétés (voir le cas Nahimana, Cas n° ICTR-99-52-T, paragraphes 436, 478 et 484-485). Dans ce cas, la publication ne contient pas d’appel direct à la violence, bien qu’il y ait une référence à « notre combat ». De plus, le contenu a été vu par des milliers de locuteurs de l’amharique durant les 24 heures où la publication est restée en ligne. Certains d’entre eux ont publié des commentaires qui incluent des appels à la vengeance (voir section 2 ci-dessus).

Le droit à la vie implique une responsabilité de diligence raisonnable pour prendre des mesures positives raisonnables, qui n’impose pas de charges disproportionnées pour la liberté d’expression, en réponse à des menaces prévisibles pour la vie émanant de particuliers et d’entités privées, dont le comportement n’est pas imputable à l’état. Des mesures spécifiques de protection devront être prises pour les personnes en situation de vulnérabilité (membres issus de minorités ethniques ou religieuses) dont les vies sont exposées à des risques spécifiques ou à des séquences de violence préexistantes ( Observation générale 36, paragraphes 21 et 23). Les différences respectives ayant été prises en compte, ces considérations sont pertinentes pour les responsabilités de Meta en matière de protection des droits de l’homme, car il est demandé aux entreprises de « s’efforcer de prévenir ou d’atténuer les incidences négatives sur les droits de l’homme qui sont directement liées à leurs activités, produits ou services » (principe 13 des PDNU).

Le Groupe de travail des Nations unies sur le thème des droits de l’homme et des sociétés transnationales et autres entreprises déclare que les PDNU imposent aux entreprises une responsabilité accrue en matière de diligence raisonnable dans un contexte de conflit (« Business, human rights and conflict-affected regions: towards heightened action,” A/75/212, paragraphes 41 à 54). Par conséquent, le but légitime de protection du droit de la vie des autres implique que Meta a une responsabilité accrue dans le cadre du conflit actuel. Le Conseil prendra cela en compte dans son analyse de la proportionnalité.

Le Conseil prend note des mesures prises par Meta en Éthiopie jusqu’à présent. Au départ, le contenu avait été supprimé. Néanmoins, le système automatique de Meta a déterminé que ce contenu présentait « un faible score d’infraction ». Le groupe n’a donc pas automatiquement supprimé la publication. Même si le contenu spécifique avait été supprimé au départ, Meta a finalement déterminé que la suppression était une erreur de mise en application. Meta a également déclaré au Conseil que le traitement de l’Éthiopie comme pays à risque de niveau 1 n’avait aucun impact sur la performance du classificateur ni sur sa capacité à identifier un contenu potentiellement en infraction. Par conséquent, le Conseil conclut que sans mesures supplémentaires, Meta ne peut pas assumer correctement ses responsabilités en matière de droits de l’homme. Le fait que Meta a restauré le contenu corrobore cette inquiétude.

Dans le cas présent, le contenu avait été publié durant un conflit armé. Dans de telles situations, Meta doit exercer une diligence raisonnable accrue afin de protéger le droit à la vie. Les rumeurs non vérifiées sont directement liées à une menace imminente pour la vie et Meta doit prouver que ses politiques et les mesures spécifiques aux conflits que le groupe a prises en Éthiopie ont de fortes chances de protéger la vie et d’empêcher des atrocités (voir section 6 de la réponse de Meta au conflit éthiopien). En l’absence de telles mesures, le Conseil en conclut que le contenu doit être supprimé. Pour éviter que d’innombrables publications ne viennent alimenter ce récit par des rumeurs non vérifiées, la suppression est la mesure requise dans ce cas, dans le cadre d’un conflit ethnique violent et en cours.

Une minorité du Conseil a mis en avant sa compréhension de la nature limitée de cette décision. Dans ce contexte de conflit violent en cours, une publication constituant une rumeur non vérifiée de violence motivée par des raisons ethniques et perpétrée par des civils contre d’autres civils entraîne de sérieux risques d’intensification d’une situation déjà empreinte de violence, en particulier lorsque Meta n’est pas en mesure de vérifier la rumeur en temps réel. Ces risques accrus ont incité la responsabilité de Meta en matière de droits de l’homme à s’engager dans une diligence raisonnable accrue concernant la modération de contenu impliquant le conflit. Bien que Meta ait mis différents types d’alertes en place, le groupe a confirmé que ces systèmes n’affectaient pas sa détermination dans ce cas, ce qui est difficile à comprendre étant donné les risques de violence à court terme. Comme indiqué dans une précédente décision du Conseil ( 2021-001-FB-FBR), il est difficile d’évaluer si les mesures autres qu’une suppression de contenu constitueraient la charge la moins importante pour le discours d’un utilisateur en vue d’atteindre le but légitime lorsque Meta ne fournit pas d’informations pertinentes sur la question de savoir si les propres décisions et politiques de conception du groupe ont potentiellement amplifié le discours nuisible.

9. Décision du Conseil de surveillance

Le Conseil de surveillance a confirmé la décision originale de Meta visant à supprimer le contenu. Étant donné que Meta avait ensuite restauré le contenu après l’appel de l’utilisateur auprès du Conseil, le groupe doit désormais supprimer une nouvelle fois le contenu de la plateforme.

10. Avis consultatif sur la politique

Politique de contenu

1. Meta doit reformuler sa valeur de « Sécurité » afin de refléter que les discours en ligne peuvent créer un risque pour la sécurité physique des personnes et le droit à la vie, en plus des risques d’intimidation, d’exclusion et de réduction au silence.

2. Les Standards de la communauté Facebook doivent refléter que des rumeurs non vérifiées peuvent représenter un risque plus accru pour le droit à la vie et la sécurité des personnes dans des contextes de guerre ou de conflit violent. Cela doit se refléter à tous les niveaux du processus de modération.

Transparence

3. Meta doit commander une évaluation indépendante de la diligence raisonnable en matière de droits de l’homme sur la manière dont Facebook et Instagram ont été utilisés pour diffuser un discours haineux et des rumeurs non vérifiées qui accroissent le risque de violence en Éthiopie. L’évaluation doit examiner l’efficacité des mesures prises par Meta pour empêcher l’utilisation de manière détournée de ses produits et services en Éthiopie. L’évaluation doit également examiner l’efficacité des mesures prises par Meta pour autoriser les signalements corroborés et d’intérêt public sur les atrocités en matière de droits de l’homme en Éthiopie. L’évaluation doit examiner les capacités linguistiques de Meta en Éthiopie et évaluer si elles sont appropriées en vue de protéger les droits de ses utilisateurs. L’évaluation doit porter sur une période allant du 1er juin 2020 à aujourd’hui. L’entreprise doit procéder à l’évaluation dans les six mois à compter du moment où elle répond à ces recommandations. L’intégralité de l’évaluation devra être publiée.

*Note de procédure :

Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.

Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en science sociale sur six continents ainsi que 3 200 spécialistes nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique. Duco Advisers, une société de conseil qui se concentre sur l’intersection entre la géopolitique, la confiance et la sécurité, et la technologie, a également fourni des recherches.

Retour aux décisions de cas et aux avis consultatifs politiques