Confirmé
Bureau des affaires de communication du Tigré
Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication proférant des menaces dans le cadre du conflit en Éthiopie
Cette décision est également disponible en amharique, en oromo et en tigrigna.
ሙሉ ውሳኔውን በአማርኛ ለማንበብ፣ እዚህ ይጫኑ።
Murtii guutuu kan Afaan Oromoo dubbisuuf as tuqi
ብትግርኛ እተገብረ ውሳነ ምሉእ ከተንብቦ እንተ ደሊኻ ኣብዚ ጠውቕ።
Résumé du cas
Le Conseil de surveillance a confirmé la décision de Meta de supprimer une publication proférant des menaces dans le cadre du conflit en Éthiopie. Le contenu violait le Standard de communauté de Meta relatif à la violence et à l’incitation et sa suppression est conforme aux responsabilités de l’entreprise en matière de droits de l’homme. Dans l’ensemble, le Conseil a estimé que Meta doit redoubler d’efforts pour assumer ses responsabilités en matière de droits de l’homme dans les situations de conflit et formule des recommandations de politique générale pour prendre des mesures appropriées.
À propos du cas
Le 4 février 2022, Meta a saisi le Conseil d’un cas concernant un contenu publié sur Facebook pendant une période d’escalade de la violence dans le conflit en Éthiopie, où les forces tigréennes et du gouvernement se battent depuis novembre 2020.
La publication est apparue sur la page officielle du Bureau des affaires de communication de l’État régional du Tigré et a été vue plus de 300 000 fois. Elle évoque les pertes subies par les forces fédérales et encourage l’armée nationale à « retourner ses armes » contre le groupe d’Abiy Ahmed. Abiy Ahmed est le Premier ministre éthiopien. La publication exhorte également les forces gouvernementales à se rendre et indique qu’elles mourront si elles refusent.
Après avoir été signalé par des utilisateurs et identifié par les systèmes automatisés de Meta, le contenu a été évalué par deux examinateurs parlant amharique. Ils ont déterminé que la publication ne violait pas les politiques de Meta et l’ont laissée sur la plateforme.
À l’époque, Meta exploitait un Centre pour l’intégrité des opérations produits (IPOC) pour l’Éthiopie. Les IPOC sont utilisés par Meta pour améliorer la modération dans les situations à haut risque. Ils fonctionnent pendant une courte période (jours ou semaines) et rassemblent des spécialistes pour surveiller les plateformes de Meta et combattre tout abus. Par l’intermédiaire de l’IPOC, la publication a été envoyée à l’examen des spécialistes, jugée contraire à la politique de Meta en matière de violence et d’incitation, et supprimée 2 jours plus tard.
Principales observations
Le Conseil approuve la décision de Meta de supprimer la publication de Facebook.
Le conflit en Éthiopie a été marqué par la violence sectaire, et des violations du droit international. Dans ce contexte, et compte tenu du profil et de la couverture de la page, il existe un risque élevé que la publication ait pu conduire à de nouvelles violences.
Par conséquent, le Conseil convient que la suppression de la publication est requise en vertu du Standard de communauté de Meta sur la violence et l’incitation, qui interdit les « déclarations d’intention de commettre des actes de violence de haute gravité ». La suppression est également conforme aux valeurs de Meta ; compte tenu des circonstances, les valeurs de « sécurité » et de « dignité » l’emportent sur celle de la « liberté d’expression ». Le Conseil estime également que la suppression de la publication est conforme aux responsabilités de Meta en matière de droits de l’homme et constitue une restriction justifiable de la liberté d’expression.
Meta est depuis longtemps consciente que ses plateformes ont été utilisées pour diffuser des discours haineux et alimenter la violence dans les conflits. L’entreprise a pris des mesures positives pour améliorer la modération du contenu dans certaines zones de conflit. Cependant, dans l’ensemble, le Conseil estime que Meta a la responsabilité, en matière de droits de l’homme, d’établir un système de modération du contenu dans les zones de conflit, fondé sur des principes et transparent, afin de réduire le risque que ses plateformes soient utilisées pour inciter à la violence ou à des violations du droit international. Elle doit redoubler d’efforts pour assumer cette responsabilité.
Par exemple, Meta ne fournit pas suffisamment d’informations sur la manière dont elle met en œuvre sa politique en matière de violence et d’incitation dans les situations de conflit armé, sur les exceptions à cette politique qui sont disponibles ou sur la manière dont elles sont utilisées. Son approche actuelle de la modération du contenu dans les zones de conflit suggère une certaine incohérence ; des observateurs ont accusé l’entreprise de traiter le conflit Russie-Ukraine différemment des autres.
Bien que Meta affirme dresser un registre des pays « à risque », qui guide l’attribution de ses ressources, elle ne fournit pas suffisamment d’informations pour que le Conseil puisse évaluer l’équité ou l’efficacité de ce processus. Dans ce cas, l’IPOC a entraîné la suppression du contenu. Cependant, il est resté sur la plateforme pendant 2 jours. Cela suggère que le système « à risque » et les IPOC ne sont pas adaptés pour traiter les situations conflictuelles. Selon Meta, les IPOC ne sont « pas destinés à être une solution durable et à long terme pour traiter un conflit qui dure depuis des années. » Le Conseil de surveillance estime que Meta pourrait avoir besoin d’investir dans un mécanisme plus durable.
Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de supprimer la publication.
Le Conseil fait également les recommandations suivantes :
- Meta devrait publier des informations sur son protocole de politique de crise dans l’Espace modération.
- Meta devrait évaluer la faisabilité de la mise en place d’un mécanisme interne durable lui offrant l’expertise, la capacité et la coordination nécessaires pour examiner et répondre efficacement au contenu pendant la durée d’un conflit.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance confirme la décision de supprimer le contenu de Meta pour violation du Standard de la communauté sur la violence et l’incitation. Le Conseil estime que la suppression du contenu en l’espèce est conforme aux responsabilités de Meta en matière de droits de l’homme dans un conflit armé. Le Conseil estime également que Meta a la responsabilité d’établir un système de modération de contenu fondé sur des principes et transparent dans les zones de conflit afin d’atténuer les risques d’utilisation de ses plateformes pour inciter à la violence ou commettre des violations des droits de l’homme et du droit humanitaire international. Le Conseil réitère le besoin pour Meta de prendre toutes les mesures visant à se conformer à sa responsabilité d’exercer une diligence raisonnable renforcée en matière de droits de l’homme dans ce contexte.
2. Description du cas et contexte
Le 4 février 2022, Meta a saisi le Conseil d’un cas concernant un contenu publié sur Facebook le 5 novembre 2021. Le contenu a été publié par la Page du Bureau des affaires de communication du Tigré, qui précise qu’il s’agit de la page officielle du Bureau des affaires de communication de l’État régional du Tigré (TCAB). Le contenu a été publié en amharique, la langue de travail officielle du gouvernement fédéral. Le TCAB est un ministère au sein du gouvernement régional du Tigré. Depuis novembre 2020, le Front de libération du peuple du Tigré (TPLF) et la République fédérale démocratique d’Éthiopie (« gouvernement fédéral ») sont engagés dans un conflit armé. Le TPLF est le parti au pouvoir dans le Tigré, tandis que les Forces de défense du Tigré sont la branche armée du TPLF.
La publication traite des pertes subies par les Forces de défense nationale fédérales sous la direction du Premier ministre, Abiy Ahmed, dans le conflit armé avec le TPLF. La publication encourage l’armée nationale à « retourner les armes contre le groupe fasciste d’Abiy Ahmed » pour faire amende honorable auprès des personnes qu’elle a lésées. Elle poursuit en exhortant les forces armées à se rendre au TPLF si elles espèrent sauver leur vie, ajoutant : “If it refuses, everyone should know that, eventually, the fate of the armed forces will be death.” (Si elle refuse, tout le monde doit savoir qu’à terme, le sort des forces armées sera la mort.)
Les tensions entre le gouvernement fédéral et le TPLF ont atteint leur apogée lorsque le gouvernement fédéral a reporté les élections de 2020, invoquant la pandémie de coronavirus comme raison de ce retard. Les dirigeants de l’opposition ont accusé le Premier ministre de se servir de la pandémie comme d’une excuse pour prolonger son mandat. Malgré l’annonce du gouvernement fédéral, le gouvernement régional du Tigré a procédé à des élections dans la région, où le TPLF a remporté une victoire écrasante.
Le Premier ministre, Abiy Ahmed, a annoncé une opération militaire contre les forces du Tigré en novembre 2020, en réponse à une attaque contre une base militaire fédérale au Tigré. Les forces fédérales ont poussé pour prendre la capitale du Tigré, Mekelle. Après 8 mois de combats, les forces fédérales et leurs alliés se sont retirés de Mekelle et le TPLF a repris le contrôle. En mai 2021, le gouvernement fédéral a désigné le TPLF comme une organisation terroriste.
Le 2 novembre 2021, quelques jours avant la publication de ce contenu, le Premier ministre a imposé l’état d’urgence dans tout le pays après que le TPLF a repris certaines parties des régions Amhara et Afar, au-delà du Tigré. Le gouvernement fédéral a également appelé les citoyens à prendre les armes alors que le TPLF se dirigeait vers la capitale, Addis-Abeba. Le jour où le contenu a été publié, le 5 novembre, 9 groupes d’opposition, dont le TPLF, ont créé une alliance pour faire pression sur le gouvernement fédéral et évincer le Premier ministre.
La page TCAB compte environ 260 000 abonnés et est définie comme publique, ce qui signifie qu’elle peut être consultée par tout utilisateur de Facebook. Elle est vérifiée par un badge bleu contenant une coche, qui confirme que la page ou le profil est la présence authentique d’une personne ou d’une entité. Le contenu a été vu plus de 300 000 fois et partagé moins de 1 000 fois.
Depuis le 5 novembre, le contenu a été signalé par 10 utilisateurs pour violation des politiques violence et incitation, personnes et organisations dangereuses, discours haineux. De plus, les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction et l’ont envoyé pour examen. Après examen par deux examinateurs, tous deux de langue amharique, Meta a déterminé que le contenu ne violait pas ses politiques et ne l’a pas supprimé de la plateforme.
Le 4 novembre, un jour avant que le contenu ne soit publié, Meta a convoqué un Centre pour l’intégrité des opérations produits (IPOC) pour surveiller et répondre en temps réel à l’évolution rapide de la situation en Éthiopie. Selon Meta, un IPOC est un groupe de spécialistes en la matière au sein de l’entreprise, réunis pour une courte période afin d’assurer une surveillance en temps réel et de combattre les abus potentiels circulant sur les plateformes de Meta. Par l’intermédiaire de l’IPOC, le contenu a été transmis à des spécialistes en la matière pour un examen complémentaire. Suite à cet examen, Meta a déterminé que le contenu violait la politique de violence et d’incitation, qui interdit les « déclarations d’intention de commettre des actes de violence de haute gravité ». Le contenu est resté sur la plateforme pendant environ 2 jours avant d’être supprimé.
Depuis le début du conflit en novembre 2020, il existe des rapports crédibles de violations des droits de l’homme internationaux et du droit humanitaire par toutes les parties au conflit. Le rapport de l’enquête conjointe de la Commission éthiopienne des droits de l’homme et du Haut-Commissariat des Nations Unies aux droits de l’homme a trouvé des cas documentés de torture et d’autres formes de traitements cruels, inhumains ou dégradants, d’exécutions extrajudiciaires de civils et de combattants capturés, d’enlèvements, de disparitions forcées et de violences sexuelles et sexistes, entre autres crimes internationaux (voir également Observatoire éthiopien de la paix). L’équipe d’enquête conjointe a constaté que des personnes ne prenant pas directement part aux hostilités ont été tuées par les deux parties au conflit. Il s’agissait notamment de meurtres à caractère ethnique et de représailles. Les forces fédérales et les forces tigréennes « ont commis des actes de torture et des mauvais traitements à l’encontre de civils et de combattants capturés dans divers endroits du Tigré, notamment dans des camps militaires, des centres de détention, au domicile des victimes, ainsi que dans des lieux secrets et non identifiés). » Les personnes perçues comme étant affiliées au TPLF ont été victimes de disparitions forcées ou de détentions arbitraires, et les épouses des hommes disparus ou détenus ont subi des violences sexuelles de la part des forces armées fédérales. De même, les épouses des membres des forces armées fédérales ont été agressées sexuellement ou violées par des combattants tigréens. De nombreuses personnes ont été victimes de viols collectifs. Les forces armées fédérales ont également refusé de faciliter l’accès à l’aide humanitaire dans les zones touchées par le conflit. D’autres groupes armés et milices ont également été impliqués, et l’Érythrée a soutenu l’armée nationale éthiopienne dans le conflit. Bien que l’enquête conjointe ait couvert les événements survenus entre le 3 novembre 2020 et le 28 juin 2021, les conclusions fournissent un contexte important pour ce cas et l’escalade ultérieure des hostilités en novembre 2021, lorsque le TPLF a saisi des territoires en dehors du Tigré.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil est compétent pour examiner les décisions que Meta transmet pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
4. Sources d’autorité
Le Conseil de surveillance a pris les sources d’autorité suivantes en considération :
I.Décisions du Conseil de surveillance :
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent :
- « Crimes présumés à Raya Kobo » [ Décision de cas 2021-014-FB-UA] : Le Conseil a recommandé que les Standards de la communauté Facebook doivent refléter que des rumeurs non vérifiées peuvent représenter un risque plus accru pour le droit à la vie et la sécurité des personnes dans des contextes de guerre ou de conflit violent. Le Conseil a également recommandé que Meta commande une évaluation indépendante de diligence raisonnable en matière de droits de l’homme sur la façon dont l’utilisation de ses plateformes a augmenté le risque de violence en Éthiopie.
- « Suspension de l’ancien président américain Trump » [ Décision de cas 2021-001-FB-FBR] : Le Conseil a recommandé à Meta d’élaborer et de publier une politique pour les situations de crise. Le Conseil a également formulé une recommandation sur le besoin de recueillir, de protéger et, le cas échéant, de partager les informations afin de faciliter les enquêtes et les poursuites éventuelles des autorités compétentes et des mécanismes de responsabilisation en cas de violations graves du droit pénal international, des droits de l’homme et du droit humanitaire.
- « Cas de vidéo graphique au Soudan » [ Décision de cas 2022-002-FB-MR] : Le Conseil a réitéré sa recommandation dans le cas « Suspension de l’ancien président américain Trump » pour que Meta élabore et publie une politique en réponse aux situations de crise « lorsque ses processus habituels ne permettent pas de prévenir ou d’empêcher un préjudice imminent. »
II.Règles de Meta relatives au contenu :
Standards de la communauté Facebook :
Conformément à sa règle relative à la violence et à l’incitation, Meta déclare supprimer tout contenu qui « incite à la violence grave ou la facilite ». La politique interdit « les menaces pouvant entraîner la mort en ciblant des personnes ou des lieux (et toute autre forme de violence très grave) ». Elle interdit également les « déclarations d’intention de commettre des actes de violence de haute gravité. »
III.Les valeurs de Meta :
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook. La liberté d’expression y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Meta limite la liberté d’expression au profit de quatre autres valeurs, dont deux sont en l’espèce pertinentes :
La « sécurité » : Nous supprimons les contenus susceptibles de menacer la sécurité physique.
La « dignité » : Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
IV.Normes internationales relatives aux droits de l’homme
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. De manière significative, les PDNU imposent une responsabilité accrue aux entreprises opérant dans un contexte de conflit (« Entreprises, droits de l’homme et régions touchées par des conflits : vers une action renforcée », A/75/212). L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme en l’espèce s’est appuyée sur les normes des droits de l’homme suivantes :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/73/348 (2018).
- Le droit à la vie : Article 6, PIDCP, Observation générale n°36, Comité des droits de l’homme (2018).
- Le droit de ne pas être soumis à la torture ou à des peines cruelles, inhumaines ou dégradantes : Article 7 du PIDCP.
- Le droit à la sécurité de sa personne : Article 9, para. 1, PIDCP.
5. Soumissions de l’utilisateur
À la suite du renvoi de Meta et de la décision du Conseil d’accepter le cas, l’utilisateur a reçu un message l’informant de l’examen du Conseil et lui donnant la possibilité de faire une déclaration au Conseil. L’utilisateur n’a pas émis de déclaration.
6. Soumissions de Meta
Dans son renvoi du cas au Conseil, Meta a déclaré que prendre une décision au sujet du contenu était difficile, car il s’agit de supprimer « le discours officiel du gouvernement qui pourrait être considéré comme digne d’intérêt », mais qui peut présenter un risque d’incitation à la violence pendant un conflit en cours. Meta a déclaré qu’elle n’a pas envisagé d’accorder l’intérêt médiatique parce que cet intérêt ne s’applique pas au contenu qui présente un risque de contribuer à des blessures physiques.
Depuis fin 2020, Meta a déclaré qu’elle traitait l’Éthiopie comme un pays à risque de niveau 1, soit le niveau de risque le plus élevé. Selon Meta, le classement des pays en tant que pays à risque fait partie de son processus de priorisation des investissements dans les ressources de produits sur le long terme. Par exemple, en réponse au risque élevé en Éthiopie, Meta a développé des classificateurs linguistiques (outils de machine learning formés pour détecter automatiquement les violations éventuelles des Standards de la communauté) en amharique et en oromo, deux des langues les plus utilisées en Éthiopie. Selon l’entreprise, les classificateurs initiaux en amharique et en oromo ont été lancés en octobre 2020. En juin 2021, Meta a lancé ce qu’elle appelle les classificateurs de « discours hostile » en amharique et en oromo (outils de machine learning formés pour identifier le contenu soumis aux politiques de discours haineux, de violence et d’incitation, et d’intimidation et de harcèlement). L’entreprise a également créé un IPOC pour l’Éthiopie le 4 novembre 2021 en réponse à l’escalade du conflit. Les IPOC fonctionnent généralement pendant plusieurs jours ou semaines. Un IPOC est convoqué soit pour des événements planifiés, comme certaines élections, soit en réponse à des événements risqués non planifiés. Un IPOC peut être demandé par tout employé de Meta. La demande est examinée par un groupe multi-niveaux et multi-parties prenantes au sein de l’entreprise qui comprend des représentants de ses équipes Opérations, Politique et Produits. Il existe différents niveaux d’IPOC, offrant des niveaux de coordination et de communication croissants dans la surveillance du contenu de la plateforme. L’IPOC convoqué en novembre 2021 pour l’Éthiopie était de niveau 3, ce qui « implique le plus grand niveau de coordination et de communication au sein de Meta. » Comme l’explique Meta, les IPOC sont une « solution à court terme » destinée à « comprendre un large ensemble de questions et la façon de les combattre à travers une crise ou une situation à haut risque. Il ne s’agit pas d’une solution durable et à long terme pour traiter un conflit qui dure depuis des années. »
Meta a fait référence à l’analyse du Conseil dans le cas des « crimes présumés de Raya Kobo » pour soutenir la proposition selon laquelle la résolution de la tension entre la protection de la liberté d’expression et la réduction de la menace d’un conflit sectaire nécessite un examen minutieux des spécificités du conflit. Meta a également noté les crimes atroces documentés commis par toutes les parties du conflit. Meta a déclaré au Conseil qu’en raison de la nature de la menace, le statut influent de l’intervenant et l’escalade rapide de la situation en Éthiopie au moment où le contenu a été publié, la valeur de la « sécurité » l’emportait sur d’autres considérations et qu’il serait préférable de supprimer la publication plutôt que de la laisser sur la plateforme, malgré la valeur éventuelle du contenu pour avertir les personnes en Éthiopie de futures violences.
Le Conseil a posé 20 questions à Meta. Meta a répondu à 14 questions de manière complète et à 6 questions de manière partielle. Les réponses partielles concernaient l’approche de l’entreprise en matière de modération de contenu dans les situations de conflit armé, l’imposition de restrictions de compte en cas de violation des politiques de contenu et le processus de vérification croisée.
7. Commentaires publics
Le Conseil de surveillance a reçu et examiné 7 commentaires publics liés à ce cas. Un des commentaires a été transmis par l’Asie-Pacifique et l’Océanie, trois par l’Europe, un par l’Afrique sub-saharienne et deux par les Etats-Unis et le Canada.
Les soumissions couvraient les thèmes suivants : l’incohérence de l’approche de Meta dans le contexte de différents conflits armés ; le risque accru accompagnant les menaces crédibles de violence entre les parties pendant un conflit armé ; les problèmes liés à la modération du contenu de Meta en Éthiopie et le rôle des médias sociaux dans les environnements d’information fermés ; le contexte factuel du conflit en Éthiopie, y compris le préjudice subi par les Tigréens et le rôle des discours de haine contre les Tigréens sur Facebook dans la propagation de la violence ; et le besoin de tenir compte des lois sur les conflits armés dans l’élaboration de politiques de modération des discours pendant un conflit armé.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
En avril 2022, dans le cadre de l’engagement continu des parties prenantes, le Conseil a consulté des représentants d’organisations de défense des droits, des universitaires, des organisations intergouvernementales et d’autres spécialistes sur la question de la modération de contenu dans le contexte des conflits armés. Les discussions ont notamment porté sur le traitement des discours des parties à un conflit et sur l’application de la politique sur la violence et l’incitation dans les situations de conflit.
8. Analyse du Conseil de surveillance
Le Conseil a examiné la question de savoir si ce contenu devait être restauré, et les implications plus larges pour l’approche de Meta en matière de gouvernance du contenu, à travers trois volets : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des politiques relatives au contenu de Meta
Le Conseil estime que la suppression du contenu de la plateforme est conforme au Standard de la communauté Violence et incitation. Cette politique interdit les « menaces pouvant entraîner la mort (et autres formes de violence de haute gravité) ... ciblant des personnes ou des lieux », y compris les « déclarations d’intention de commettre des actes de violence de haute gravité. » Le Conseil estime que le contenu peut être raisonnablement interprété par d’autres comme un appel qui pourrait inciter ou encourager des actes de violence réelle dans le contexte déjà violent d’un conflit armé. De ce fait, le contenu viole l’interdiction de Meta concernant les « déclarations d’intention de commettre des actes de violence de haute gravité ».
8.2 Respect des valeurs de Meta
Le Conseil conclut que la suppression de ce contenu de la plateforme est conforme aux valeurs de « sécurité » et de « dignité » de Meta.
Le Conseil reconnaît l’importance de la liberté d’expression, en particulier dans un pays où les libertés civiques et de la presse sont peu respectées et où les plateformes de médias sociaux constituent un moyen essentiel de transmettre des informations sur le conflit armé en cours. Cependant, dans le contexte d’un conflit armé, marqué par une histoire de violence sectaire et de violations du droit international, les valeurs de « sécurité » et de « dignité » prévalent dans ce cas pour protéger les utilisateurs de contenus qui présentent un risque accru de violence. Le contenu dans ce cas peut être interprété comme un appel à tuer « le groupe d’Abiy Ahmed ». Il peut également être interprété comme un avertissement de punition pour ceux qui ne se rendront pas au TPLF, et à ce titre, il représente un risque pour la vie et l’intégrité physique des forces fédérales et des dirigeants politiques éthiopiens. Bien que le contenu ait été partagé par l’organe régional dirigeant, la publication elle-même ne contient pas d’informations ayant une valeur d’intérêt public suffisamment forte pour contrebalancer le risque de préjudice.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil estime que la suppression du contenu en l’espèce est conforme aux responsabilités de Meta en matière de droits de l’homme. Pendant un conflit armé, l’entreprise a également la responsabilité d’établir un système de modération du contenu fondé sur des principes et transparent lorsqu’il existe une probabilité raisonnable que le contenu parvienne à inciter à la violence. Le Conseil note le risque accru de contenu contribuant directement à la violence pendant un conflit armé. Le Conseil estime que Meta ne dispose pas actuellement d’un cadre de principes et transparent pour la modération des contenus dans les zones de conflit.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP fournit une large protection à la liberté d’expression, y compris le droit de rechercher et de recevoir des informations sur d’éventuelles violences. Toutefois, ce droit peut être restreint dans certaines conditions spécifiques, qui répondent au test tripartite de la légalité (clarté), de la légitimité, de la nécessité et de la proportionnalité. Meta s’est engagée à respecter les droits de l’homme en vertu des PDNU et à se tourner vers des autorités telles que le PIDCP lorsqu’elle prend des décisions relatives au contenu, y compris dans des situations de conflit armé. Le Plan d’action de Rabat fournit également des orientations utiles à ce sujet. Comme l’a déclaré le Rapporteur spécial des Nations unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Toute restriction à la liberté d’expression doit être accessible et suffisamment claire pour fournir des indications aux utilisateurs et aux examinateurs de contenu quant au contenu autorisé sur la plateforme et à celui qui ne l’est pas. Le manque de clarté ou de précision peut conduire à une application incohérente et arbitraire des règles.
La politique sur la violence et l’incitation interdit les « menaces pouvant entraîner la mort » et, en particulier, les « déclarations d’intention de commettre des actes de violence de haute gravité. » Le Conseil estime que la politique applicable en l’espèce est claire. Toutefois, en statuant sur ce cas, le Conseil constate que Meta ne fournit pas suffisamment d’informations sur la manière dont elle met en œuvre la politique sur la violence et l’incitation dans les situations de conflit armé, sur les exceptions à la politique disponibles et la manière dont elles sont utilisées, ou sur les processus d’application spécialisés que l’entreprise utilise pour ce type de situation.
II.Objectif légitime
Les restrictions à la liberté d’expression doivent poursuivre un objectif légitime, qui comprend le respect des droits d’autrui et la protection de la sécurité nationale ou de l’ordre public. Le Standard de la communauté Facebook en matière de violence et d’incitation est prévu pour empêcher des violences hors ligne qui pourraient être liées au contenu sur Facebook. Comme l’a déjà conclu le Conseil dans la décision sur le cas relatif aux « crimes présumés de Raya Kobo », les restrictions fondées sur cette politique servent l’objectif légitime de protéger les droits à la vie et à l’intégrité corporelle.
III.Proportionnalité et nécessité
La nécessité et la proportionnalité exigent que Meta démontre que sa restriction du discours était nécessaire pour combattre la menace, en l’occurrence la menace pour les droits d’autrui, et qu’elle n’était pas trop large (Observation générale 34, paragraphe 34). Pour procéder à cette évaluation, le Conseil a également pris en compte les facteurs du Plan d’action de Rabat, sur ce qui constitue une incitation à la violence ( Le Plan d’action de Rabat, HCDH, A/HRC/22/17/Ann.4,2013), tout en tenant compte des différences entre les obligations des États en matière de droit international et les responsabilités des entreprises en matière de droits de l’homme.
Dans le cas présent, le Conseil estime que la suppression de ce contenu de la plateforme était une restriction nécessaire et proportionnée à la liberté d’expression en vertu du droit international sur les droits de l’homme. En utilisant le test tripartite du Plan d’action de Rabat pour éclairer son analyse, le Conseil trouve un soutien pour la suppression de cette publication.
Le contexte en Éthiopie, le statut et l’intention de l’intervenant, le contenu du discours ainsi que sa couverture, et la probabilité d’un préjudice hors ligne contribuent tous à un risque accru de violence hors ligne. (1) Contexte : le contenu a été publié dans le contexte d’une guerre civile en cours et en escalade. Depuis son début, le conflit a été marqué par des violations des droits de l’homme et du droit humanitaire international commises par toutes les parties au conflit. (2) Intervenant : l’intervenant est un ministère du gouvernement régional affilié à l’une des parties au conflit, avec une couverture et une influence significatives, y compris l’autorité de diriger les forces armées tigréennes. (3) Intention : compte tenu du langage et du contexte, il y a au moins un appel explicite à tuer les soldats qui ne se rendent pas ; et on peut raisonnablement en déduire qu’il y a une autre intention de faire du mal. (4) Contenu : la publication peut être lue comme préconisant de cibler les combattants et les dirigeants politiques, indépendamment de leur participation aux hostilités. (5) Étendue de la diffusion : le contenu a été publié sur la page publique d’un organisme lié à l’une des parties au conflit avec environ 260 000 abonnés et est resté sur la plateforme pendant deux jours avant d’être supprimé. (6) Probabilité et imminence : le contenu a été publié à peu près au moment où les forces du TPLF avançaient vers d’autres parties de l’Éthiopie que le Tigré, ainsi qu’au moment où le Premier ministre déclarait l’état d’urgence dans tout le pays et appelait les civils à prendre les armes et à combattre.
Si le Conseil a estimé que la suppression du contenu dans ce cas était nécessaire et proportionnée, il est également apparu clairement au Conseil, lors de l’examen du cas, qu’une plus grande transparence est nécessaire pour évaluer si les mesures de Meta sont systématiquement proportionnées tout au long d’un conflit et dans tous les contextes de conflits armés. L’entreprise est depuis longtemps consciente de la manière dont ses plateformes ont été utilisées pour diffuser des discours haineux et alimenter la violence ethnique. Bien que Meta ait pris des mesures positives pour améliorer son système de modération dans certains conflits (par exemple, en commandant une évaluation indépendante de la partialité de la modération de contenu dans le conflit israélo-palestinien en réponse à la recommandation du Conseil), elle n’a pas fait assez pour évaluer ses politiques et processus existants et pour développer un cadre de principes et transparent pour la modération de contenu dans les zones de conflit. Certains membres du Conseil ont indiqué que la modération de contenu de Meta dans les zones de conflit devrait également s’appuyer sur le droit humanitaire international.
En Éthiopie, Meta a souligné les mesures qu’elle a prises pour supprimer les contenus incitant à la violence. L’entreprise fait référence à deux processus généraux pour les pays à risque ou connaissant un conflit violent, qui ont été utilisés en Éthiopie : le système d’échelonnement des « pays à risque » et les IPOC. L’Éthiopie est désignée comme un pays à risque de niveau 1 (risque le plus élevé) depuis fin 2020 et avait un IPOC de niveau 3 (le niveau le plus élevé) au moment où le contenu a été publié. Malgré cela, ce n’est que deux jours plus tard que le contenu a été supprimé, en dépit de la ligne politique claire qu’il violait. Le Conseil fait remarquer que deux jours, dans le contexte d’un conflit armé, est un laps de temps considérable compte tenu de l’évaluation de Rabat décrite ci-dessus. Cela suggère également l’inadéquation du système de classement par niveau de risque et des IPOC comme solution pour traiter les événements présentant des risques accrus pour les droits de l’homme.
Meta ne fournit pas suffisamment d’informations publiques sur la méthode ou les critères généraux utilisés pour l’évaluation des « pays à risque » et les investissements en produits que l’entreprise a réalisés en conséquence, en Éthiopie et dans d’autres situations de conflit. Sans ces informations, ni le Conseil ni le public ne peuvent évaluer l’efficacité et l’équité de ces processus, ni savoir si les investissements en produits de l’entreprise sont équitables ni s’ils sont mis en œuvre avec la même rapidité et la même diligence dans toutes les régions et situations de conflit.
Les IPOC sont, selon les mots de Meta, des « solutions à court terme » et sont convoqués sur une base ad hoc. Cela suggère au Conseil qu’il est peut-être nécessaire que l’entreprise investisse davantage de ressources dans un mécanisme interne durable qui offre l’expertise, la capacité et la coordination nécessaires pour examiner et répondre efficacement au contenu pendant toute la durée d’un conflit. Une telle évaluation devrait être informée par l’expertise en matière de politique et de pays.
L’approche actuelle de Meta en matière de modération de contenu dans les zones de conflit pourrait donner l’impression d’une incohérence. Il y a actuellement environ 27 conflits armés dans le monde, selon le Council on Foreign Relations. Dans au moins un conflit (Russie-Ukraine), Meta a, aux yeux de certains observateurs, semblé prendre rapidement des mesures et créer des exceptions à la politique pour autoriser des contenus qui seraient autrement interdits en vertu de la politique de violence et d’incitation, alors qu’elle mettait trop de temps à réagir dans d’autres situations de conflit. Un commentaire public (PC-10433), transmis par le Dr Samson Esayas, professeur associé à la BI Norwegian Business School, note les « mesures rapides » prises par Meta pour modérer le contenu dans le contexte du conflit Russie-Ukraine et souligne la « différence de traitement entre ce conflit et les conflits dans d’autres régions, notamment en Éthiopie et au Myanmar. » Cela suggère une approche incohérente, ce qui est problématique pour une entreprise ayant la couverture et les ressources de Meta, en particulier dans le contexte d’un conflit armé.
9. Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta de supprimer le contenu pour violation du Standard de la communauté Violence et incitation.
10. Avis consultatif sur la politique
Transparence
1. Conformément à la recommandation du Conseil dans la « Suspension de l’ancien président américain Trump », telle que réitérée dans la « Vidéo graphique au Soudan », Meta devrait publier des informations sur son protocole de politique de crise. Le Conseil considérera que cette recommandation est mise en œuvre lorsque les informations sur le protocole de politique de crise seront disponibles dans l’Espace modération, dans les six mois suivant la publication de la présente décision, en tant que politique distincte dans l’Espace modération, en plus du diaporama du Forum des politiques publiques.
Mise en application
2. Pour améliorer l’application de ses politiques de contenu pendant les périodes de conflit armé, Meta devrait évaluer la faisabilité de la mise en place d’un mécanisme interne durable offrant l’expertise, la capacité et la coordination nécessaires pour examiner et répondre efficacement au contenu pendant la durée d’un conflit. Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta lui fournira un aperçu de la faisabilité d’un mécanisme interne durable.
* Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 experts en sciences sociales sur six continents ainsi que 3 200 experts nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil.
Retour aux décisions de cas et aux avis consultatifs politiques