Renversé
Slogan de protestation en Iran
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook protestant contre le gouvernement iranien, qui contient le slogan « marg bar Khamenei. »
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook protestant contre le gouvernement iranien, qui contient le slogan « marg bar... Khamenei. » Cette expression se traduit littéralement par « mort à Khamenei », mais elle est souvent utilisée comme rhétorique politique pour signifier « à bas Khamenei ». Le Conseil a formulé des recommandations visant à mieux protéger le discours politique dans des situations critiques, comme celle de l’Iran, où des manifestations historiques et généralisées sont violemment réprimées. Cela inclut l’autorisation de l’utilisation générale de « marg bar Khamenei » (mort à Khamenei) lors des manifestations en Iran.
À propos du cas
Au mois de juillet 2022, un utilisateur de Facebook a publié dans un groupe public qui explique soutenir la liberté en Iran. La publication contient une caricature du guide suprême de l’Iran, l’ayatollah Khamenei, dans laquelle sa barbe forme un poing saisissant une femme enchaînée, aux yeux bandés et portant un hijab. Une légende en farsi indique « marg bar » (mort au) « anti-women Islamic government » (gouvernement islamique anti-femmes) et « marg bar » (mort à) son « filthy leader Khamenei » (sale leader Khamenei).
La traduction littérale de « marg bar » est « mort à ». Toutefois, cette expression est également utilisée de manière rhétorique pour signifier « à bas ». Le slogan « marg bar Khamenei » (mort à Khamenei) a été fréquemment utilisé lors des manifestations en Iran au cours des cinq dernières années, notamment celles de 2022. Dans ce cas, le contenu a été publié quelques jours avant la « Journée nationale du hijab et de la chasteté » en Iran, à l’occasion de laquelle les critiques organisent fréquemment des manifestations contre le gouvernement, notamment contre les lois iraniennes sur le hijab obligatoire. En septembre 2022, Jina Mahsa Amini est décédée alors qu’elle était en garde à vue en Iran, après son arrestation pour « port incorrect du hijab ». Sa mort a déclenché de vastes protestations qui ont été violemment réprimées par l’État. Cette situation s’est poursuivie pendant que le Conseil délibérait sur ce cas.
Après que la publication a été signalée par un utilisateur, un modérateur a constaté qu’elle enfreignait les Standards de la communauté de Meta en matière de violence et d’incitation, l’a supprimée et a appliqué une « pénalité » et deux « limitations de fonctionnalités » au compte de son auteur. Les limitations de fonctionnalités imposaient des restrictions sur la création de contenu et l’interaction avec des groupes pendant 7 et 30 jours respectivement. L’auteur de la publication a fait appel auprès de Meta, mais les systèmes automatisés de l’entreprise ont classé le dossier sans examen. L’utilisateur a alors fait appel auprès du Conseil.
Après que le Conseil a sélectionné le cas, Meta a examiné sa décision. Il a maintenu que le contenu violait le Standard de la communauté relatif à la violence et à l’incitation, mais a appliqué une tolérance d’intérêt médiatique et a restauré la publication. Une tolérance d’intérêt médiatique autorise un contenu qui serait par ailleurs en infraction si l’intérêt public l’emporte sur le risque de préjudice.
Principales observations
Le Conseil estime que la suppression de la publication n’est pas conforme aux Standards de la communauté de Meta, à ses valeurs ou à ses responsabilités en matière de droits de l’homme.
Le Conseil estime que cette publication n’a pas enfreint le Standard de la communauté relatif à la violence et à l’incitation, qui interdit les menaces pouvant entraîner la mort ou une violence de haute gravité. Il n’était donc pas nécessaire d’appliquer une tolérance d’intérêt médiatique. Dans le contexte de cette publication et de la situation sociale, politique et linguistique générale en Iran, « marg bar Khamenei » doit être compris comme « à bas ». Il s’agit d’un slogan rhétorique et politique, et non d’une menace crédible.
Le Conseil souligne l’importance du contexte dans l’évaluation des slogans appelant à la « mort de », et estime qu’il est impossible d’adopter une règle universelle sur leur utilisation. Par exemple, « marg bar Salman Rushdie » ne peut être assimilé à « marg bar Khamenei », étant donné la fatwa contre Rushdie et les récentes tentatives d’attentat contre sa vie. Les déclarations « death to » (mort à) utilisées lors d’évènements tels que les émeutes du 6 janvier à Washington D.C. ne seraient pas non plus comparables, car les personnalités politiques étaient clairement en danger et les déclarations « death to » (mort à) ne sont pas généralement utilisées comme rhétorique politique en anglais, comme elles le sont dans d’autres langues.
La centralité de la langue et du contexte devrait être reflétée dans les politiques et les directives de Meta pour les modérateurs. Cela est particulièrement important lorsqu’il s’agit d’évaluer les menaces pesant sur les chefs d’État, qui sont légitimement soumis à la critique et à l’opposition.
Dans le contexte iranien, le Conseil estime que Meta doit faire davantage pour respecter la liberté d’expression et autoriser l’utilisation de menaces rhétoriques. Le gouvernement iranien réprime systématiquement la liberté d’expression et les espaces numériques sont devenus un forum essentiel pour la dissidence. Dans de telles situations, il est vital que Meta soutienne la liberté d’expression des utilisateurs. À l’approche de la « Journée nationale du hijab et de la chasteté », Meta aurait dû anticiper les problèmes liés à la suppression excessive du contenu protestataire iranien et préparer une réponse adéquate. Par exemple, en donnant pour instruction aux équipes d’examen « à l’échelle » de ne pas supprimer les contenus contenant le slogan « marg bar Khamenei ».
Comme le montre ce cas, son incapacité à le faire a conduit à réduire au silence le discours politique visant à protéger les droits des femmes, notamment en limitant les fonctionnalités, ce qui peut exclure les personnes des mouvements sociaux et du débat politique. Les commentaires publics soumis au Conseil indiquent que l’expression « marg bar Khamenei » a été largement utilisée lors des récentes manifestations en Iran. Ce constat est étayé par des recherches indépendantes commandées par le Conseil. Un grand nombre de ces publications auraient été supprimées sans bénéficier de la tolérance d’intérêt médiatique, que Meta applique rarement (au cours de l’année qui s’est achevée en juin 2022, elle n’a été utilisée que 68 fois dans le monde).
Le Conseil est préoccupé par le fait que Meta ferme automatiquement les appels et que le système qu’elle utilise pour ce faire ne permet pas d’identifier les cas importants. Il recommande que l’entreprise prenne des mesures pour améliorer son respect de la liberté d’expression lors des manifestations et dans d’autres contextes politiques critiques.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer la publication.
Le Conseil recommande également à Meta de :
- Modifier le Standard de la communauté relatif à la violence et à l’incitation afin qu’il reflète plus fidèlement ses politiques. Il s’agit notamment d’indiquer les critères utilisés pour déterminer quand les menaces rhétoriques contre les chefs d’État sont autorisées. Ces critères devraient protéger les discours politiques clairement rhétoriques, utilisés dans des contextes de protestation, qui n’incitent pas à la violence, et devraient tenir compte de la langue et du contexte.
- Dans l’attente des modifications apportées au Standard de la communauté relatif à la violence et à l’incitation, émettre des directives à l’intention de ses équipes d’examen pour que, dans le contexte des manifestations en Iran, les déclarations du type « marg bar Khamenei » n’enfreignent pas la politique.
- Privilégier l’application de tolérances ayant fait l’objet de remontées lorsque des contenus potentiellement violents sont utilisés lors de manifestations, lorsque cela est dans l’intérêt du public et qu’il est peu probable que cela entraîne des violences.
- Examiner les indicateurs qu’elle utilise pour classer les appels à examiner et pour clore automatiquement les appels sans examen, afin d’aider à identifier l’expression de l’intérêt public, en particulier celle liée à la protestation.
- Annoncer toutes les tolérances qui ont fait l’objet de « remontées », leur durée et l’avis de leur expiration.
- Expliquer plus en détail la « tolérance d’intérêt médiatique » dans son Espace modération, notamment les critères utilisés pour décider de « faire remonter » une tolérance.
- Expliquer publiquement son processus de hiérarchisation et de clôture automatique des appels, notamment les critères qu’elle utilise pour ce faire.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Comité de surveillance annule la décision initiale de Meta de supprimer une publication de Facebook protestant contre le bilan du gouvernement iranien en matière de droits de l’homme et ses lois sur le hijab (couvre-chef) obligatoire. La publication contient une caricature du guide suprême du pays, l’ayatollah Ali Khamenei, et la phrase « marg bar [...] Khamenei », un chant de protestation qui signifie littéralement « mort à… Khamenei », mais il a souvent été utilisé en Iran comme une forme d’expression politique qui peut également être comprise comme « à bas [...] Khamenei ». Le Conseil a estimé que le contenu n’enfreignait pas la politique de violence et d’incitation. Les manifestations nationales en Iran, déclenchées par le meurtre de Jina Mahsa Amini, étaient violemment réprimées par le gouvernement iranien au moment de la délibération du Conseil.
Meta est revenue sur sa décision après avoir été informée que le Conseil avait sélectionné ce cas. L’entreprise a maintenu que le contenu violait le Standard de la communauté relatif à la violence et à l’incitation, mais a restauré le contenu en utilisant la « tolérance médiatique ».
Le cas soulève d’importantes préoccupations concernant la politique de Meta en matière de violence et d’incitation et sa « tolérance médiatique ». Elle suscite également des inquiétudes quant à l’impact que les politiques de Meta peuvent avoir sur la liberté d’expression et les droits des femmes en Iran et ailleurs. Le Conseil estime que Meta ne s’est pas acquittée de ses responsabilités en matière de droits de l’homme dans ce cas, notamment en ce qui concerne la prévention des erreurs ayant un impact négatif sur la liberté d’expression dans les contextes de protestation. Le Comité recommande à Meta de revoir son Standard de la communauté relatif à la violence et à l’incitation, ses règles internes de mise en œuvre pour les modérateurs et son approche du contenu d’intérêt médiatique, afin de respecter la liberté d’expression dans le contexte des manifestations.
2. Description du cas et contexte
À la mi-juillet 2022, une personne a publié dans un groupe public Facebook qui se décrit comme soutenant la liberté pour l’Iran, des critiques à l’encontre du gouvernement iranien et du guide suprême iranien, l’ayatollah Khamenei, notamment sur leur traitement des femmes, y compris les lois iraniennes strictes sur le hijab obligatoire. Ce message a été publié quelques jours avant la « Journée nationale du hijab et de la chasteté » en Iran. Le gouvernement souhaite que cette journée soit une célébration du hijab obligatoire, mais les critiques l’ont utilisée pour protester contre le hijab obligatoire et les abus plus généraux du gouvernement en Iran, notamment en ligne.
La publication contient une caricature de l’ayatollah Khamenei, dans laquelle sa barbe forme un poing saisissant une femme portant un hijab. La femme a les yeux bandés et elle est enchaînée aux chevilles. Une bulle de texte à côté de la caricature indique qu’il est interdit d’être une femme. Une légende en farsi indique en dessous : « marg bar hukumat-e zed-e zan-e eslami va rahbar-e kasifesh Khamenei ». Le terme « marg bar » se traduit littéralement par « mort à ». La légende appelle littéralement à la « mort » du « gouvernement islamique anti-femmes » et de son « sale leader Khamenei ». Cependant, dans certains contextes, « marg bar » est compris comme ayant un sens plus rhétorique équivalent à « à bas ». La publication qualifie également la République islamique de pire dictature de l’Histoire, notamment en raison des restrictions concernant le port de certains vêtements par les femmes. Elle appelle également les Iraniennes à ne pas participer à l’oppression des femmes.
Le jour où le contenu a été publié, une autre personne sur Facebook l’a signalé comme un discours haineux. L’un des membres des équipes d’examen à l’échelle de Meta a estimé que la publication enfreignait le Standard de la communauté relatif à la violence et à l’incitation, qui interdit les menaces pouvant entraîner la mort ou une violence de haute gravité à l’encontre d’autrui. Meta a supprimé le contenu, ce qui a valu à l’auteur du message une pénalité, qui a entraîné l’imposition automatique de restrictions de compte de 30 jours et de 7 jours, appelées « limites de fonctionnalités ». Si les limitations de fonctionnalités varient en nature et en durée, elles peuvent généralement être comprises comme des mesures punitives et préventives privant les individus de l’utilisation régulière de la plateforme pour s’exprimer. La limite de 30 jours empêchait l’auteur du contenu de publier ou de commenter dans les groupes, d’inviter de nouveaux membres dans les groupes ou de créer de nouveaux groupes. La limitation de fonctionnalités pendant 7 jours l’empêchait de créer tout nouveau contenu sur n’importe quelle surface Facebook, à l’exception de l’application Messenger. Lorsque son contenu a été supprimé, l’auteur a été informé de la limitation de fonctionnalités de 7 jours par le biais de notifications, mais n’a pas reçu de notifications concernant la limitation de fonctionnalité de 30 jours liée au groupe.
Quelques heures après la suppression du contenu par Meta, l’auteur de la publication a fait appel de la décision. Les systèmes automatisés de Meta n’ont pas accordé la priorité à l’appel et celui-ci a ensuite été fermé sans avoir été examiné. L’utilisateur a reçu une notification indiquant que son appel n’a pas été examiné en raison d’une réduction temporaire de la capacité d’examen résultant du COVID-19. À ce stade, il a fait appel de la décision de révocation de Meta auprès du Conseil de surveillance.
Après avoir été informée que le Conseil avait sélectionné ce cas, Meta a déterminé que sa décision précédente de supprimer le contenu était incorrecte. Elle a estimé que, bien que la publication ait enfreint le Standard de la communauté relatif à la violence et à l’incitation, elle rétablirait le contenu en vertu de la tolérance d’intérêt médiatique. Cela permet d’autoriser des contenus qui enfreindraient par ailleurs les politiques de Meta si l’intérêt public de ces contenus l’emporte sur le risque de préjudice. Le contenu a été restauré en août, plus d’un mois après sa première publication, mais après que la « Journée nationale du hijab et de la chasteté » est passée. Meta a annulé la pénalité contre le compte de la personne, mais les restrictions de compte qui avaient été imposées ne pouvaient pas être annulées, car elles avaient déjà atteint leur durée maximale.
En septembre, la police des mœurs du gouvernement iranien a arrêté Jina Mahsa Amini, 22 ans, pour avoir porté un hijab « de manière inappropriée ». Amini est tombée dans le coma peu après s’être effondrée au centre de détention et est décédée trois jours plus tard, alors qu’elle était en garde à vue. Sa mort aux mains de l’État a déclenché des vastes protestations pacifiques, qui ont été accueillies avec une extrême violence par le gouvernement iranien. Cette situation était en cours au moment où le Conseil a délibéré sur ce cas.
Les Nations unies ont exprimé des inquiétudes concernant les forces de sécurité iraniennes qui ont utilisé une force illégitime contre des manifestants pacifiques, tuant et blessant de nombreuses personnes, notamment des enfants, ainsi que détenant arbitrairement des manifestants et imposant des coupures d’Internet. Les Nations unies ont réitéré leurs appels pour la libération des manifestants détenus, et le Conseil des droits de l’homme des Nations unies a convoqué une session spéciale le 24 novembre pour aborder la situation. La décision adoptée lors de cette session ( A/HRC/Res/S-35/1) a exprimé sa « profonde inquiétude » face aux « informations faisant état de restrictions des communications [...], notamment les coupures d’Internet et le blocage des plateformes de réseaux sociaux, qui compromettent l’exercice des droits de l’homme. » Elle a appelé le gouvernement iranien à mettre fin à toutes les formes de discrimination et de violence envers les femmes et les filles dans la vie publique et privée, à défendre la liberté d’expression et à rétablir pleinement l’accès à Internet. Le Conseil des droits de l’homme des Nations unies a également mis en place une mission d’enquête internationale indépendante pour enquêter sur les violations présumées des droits de l’homme en Iran liées aux manifestations qui ont débuté le 16 septembre.
Les commentaires publics et les spécialistes consultés par le Conseil ont confirmé que le slogan « marg bar Khamanei » était largement utilisé dans ces manifestations et en ligne, et qu’il avait été couramment utilisé dans les manifestations en Iran en 2017, 2018, 2019 et 2021. Les commentaires publics faisaient souvent état d’impressions selon lesquelles Meta applique trop ses politiques contre le contenu en langue farsi pendant les protestations, y compris dans les protestations les plus récentes qui ont été principalement menées par des femmes et des filles. Ces perceptions se reflètent également dans la recherche de Memetica sur les données de la plateforme que le Conseil a commandée, qui a révélé que du 1er juillet au 31 octobre, 400 publications publiques Facebook et 1 046 publications publiques Instagram ont utilisé le hashtag #MetaBlocksIranProtests.
En Iran, les personnes manifestent pour l’égalité des genres et contre le hijab obligatoire depuis au moins la révolution de 1979. Le Code pénal islamique d’Iran punit d’une peine d’emprisonnement ou d’une amende les femmes qui apparaissent en public sans un « hijab approprié ». En Iran, les femmes sont interdites de certains domaines d’études, de nombreux lieux publics, ainsi que de chanter et de danser, entre autres. Les hommes sont considérés comme le chef du foyer et les femmes doivent obtenir l’autorisation de leur père ou de leur mari pour travailler, se marier ou voyager. Le témoignage d’une femme au tribunal est considéré comme ayant la moitié du poids de celui d’un homme, ce qui limite l’accès des femmes à la justice.
Le gouvernement iranien réprime systématiquement la liberté d’expression. Alors que les espaces en ligne sont devenus un forum clé pour la dissidence, le gouvernement a pris des mesures extrêmes pour y faire également taire le débat. La défense des droits de l’homme est une cible courante, en particulier la défense des droits des femmes, la dissidence politique, l’expression artistique, ainsi que ceux qui demandent que le gouvernement soit tenu responsable de ses violations des droits de l’homme. Facebook, Twitter et Telegram ont tous été interdits en Iran depuis 2009. Le gouvernement iranien a également bloqué l’accès à Instagram et à WhatsApp en septembre 2022, au milieu des protestations liées à la mort d’Amini. L’Open Observatory of Network Interference a relevé de nouvelles formes de censure et de coupures d’Internet dans diverses régions d’Iran pendant les manifestations. L’utilisation des réseaux privés virtuels (VPN) (outils qui chiffrent les communications et peuvent être utilisés pour contourner la censure) aurait augmenté de plus de 2 000 % au cours de septembre 2022. Les commentaires publics que le Conseil a reçus soulignent que les plateformes de réseaux sociaux sont l’un des seuls outils permettant aux personnes de s’exprimer librement, étant donné le contrôle étroit des médias traditionnels par l’État iranien. Les capacités avancées de l’État pour restreindre l’expression en ligne rendent la ligne de vie des réseaux sociaux particulièrement précaire. Les réseaux sociaux jouent un rôle crucial pour garantir que les personnes en Iran puissent exercer leurs droits, en particulier en période de protestation.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par la personne dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta examine par la suite sa décision initiale, le Conseil concentre son examen sur la décision qui fait l’objet de l’appel. Dans ce cas, bien que Meta ait reconnu que le résultat de sa décision initiale était incorrect et qu’elle l’ait annulée, le Conseil note que cette annulation s’est appuyée sur la tolérance d’intérêt médiatique, qui fait partie des options d’application qui ne sont disponibles que pour les équipes de politique interne de Meta, et non pour les modérateurs de contenu travaillant à l’échelle. Il ne s’agit pas d’une « erreur de mise en application », car le membre de l’équipe d’examen de contenu ayant fait l’objet d’une remontée a supprimé le contenu conformément aux directives internes qui lui ont été données, bien que, comme indiqué ci-dessous, celles-ci diffèrent des Standards de la communauté accessibles au public d’une manière qui est importante pour le cas présent.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent :
- Cas du « Poème russe » ( 2022-008-FB-UA) : Dans ce cas, le Conseil a recommandé que les détails des conseils de mise en application internes soient reflétés dans les règles publiques des Standards de la communauté.
- Cas « Mention des talibans dans les informations d’actualité » ( 2022-005-FB-UA) : Dans ce cas, le Conseil a recommandé que Meta publie plus d’informations sur son système de pénalités, et a répondu aux préoccupations concernant les effets des « limitations de fonctionnalités » sur les personnes en période de crise.
- Cas du « Collier de wampum » ( 2021-012-FB-UA) : Dans ce cas, le Conseil a souligné l’importance d’examiner l’ensemble du contenu à la recherche d’indices contextuels, et de ne pas supprimer des publications sur la base d’une phrase décontextualisée prise à part.
- Cas relatif aux « Manifestations en Colombie » ( 2021-010-FB-UA). Dans ce cas, qui concernait des manifestations antigouvernementales, le Conseil a réitéré que Meta devait avertir les utilisateurs lorsque leur contenu est rétabli en vertu de la tolérance d’intérêt médiatique et a en outre recommandé que Meta élabore et publie des critères de remontée clairs et un processus d’examen du contenu potentiellement d’intérêt médiatique.
II. Règles de Meta relatives au contenu
La justification du Standard de la communauté relatif à la violence et à l’incitation explique qu’elle vise à « prévenir le préjudice hors ligne potentiel qui peut être lié au contenu de Facebook » tout en reconnaissant que « les personnes expriment couramment leur dédain ou leur désaccord en menaçant ou en appelant à la violence de manière non sérieuse ». En vertu de cette politique, Meta n’autorise pas les « menaces pouvant conduire à la mort (et autres formes de violence de haute gravité) », où le terme « menaces » est défini comme comprenant, des « appels à la violence de haute gravité » et des « déclarations prônant la violence de haute gravité. »
L’analyse des politiques de contenu par le Conseil a été éclairée par l’engagement de Meta envers la liberté d’expression, que l’entreprise décrit comme « primordiale », et ses valeurs de sécurité et de dignité. En expliquant son engagement envers la liberté d’expression, Meta explique que « dans certains cas, nous autorisons un contenu, qui irait par ailleurs à l’encontre de nos standards, et ce, s’il est pertinent et d’intérêt public. » C’est ce que l’on appelle la tolérance d’intérêt médiatique, qui est liée à l’engagement de Meta envers la liberté d’expression. La tolérance d’intérêt médiatique est une exception de politique générale applicable à tous les Standards de la communauté. Pour appliquer cette tolérance, Meta procède à un test d’équilibre, en évaluant l’intérêt public du contenu par rapport au risque de préjudice. Meta indique qu’elle évalue si le contenu « présente une menace imminente pour la santé ou la sécurité publique, ou exprime une opinion en débat dans le cadre d’un processus politique ». L’évaluation de l’intérêt public et du préjudice tient compte des circonstances du pays, par exemple si une élection ou un conflit est en cours, si la presse est libre et si les produits de Meta sont interdits. Meta déclare qu’il n’y a pas de présomption selon laquelle le contenu est intrinsèquement dans l’intérêt public uniquement sur la base de l’identité de l’orateur, par exemple son identité en tant que personnalité politique. Meta indique qu’elle supprime le contenu, « même si celui-ci est pertinent dans une certaine mesure, lorsque le fait de le laisser en ligne entraîne des risques de dommages physiques, émotionnels ou financiers, ou une menace directe pour la sécurité publique. »
III. Responsabilités de Meta en matière de droits de l’homme
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière de droits de l’homme en l’espèce s’est appuyée sur les standards internationaux suivants :
- La liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques ( PIDCP) ; l’observation générale n° 34, Comité des droits de l’homme, (2011) ; la Résolution du Conseil des droits de l’homme de l’ONU A/HRC/Res/23/2 sur la liberté d’expression et l’émancipation des femmes (2013), et A/HRC/Res/S-35/1 (2022) sur la détérioration de la situation des droits de l’homme en Iran ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/76/258 (2021), A/74/486 (2019), A/HRC/38/35 (2018), et A/HRC/44/49/Add.2 (2020).
- L’interdiction de l’incitation : l’article 20, paragraphe 2 du PIDCP ; Plan d’action de Rabat, rapport du Haut Commissaire des Nations unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013).
- Égalité et non-discrimination fondée sur le sexe et le genre pour la participation à la vie politique et publique : l’article 2, paragraphe 1 et les article 25 et 26 (PIDCP) ; les articles 2, 7, et 15, Convention sur l’élimination de toutes les formes de discrimination envers les femmes ( CEDR) ; Recommandation générale n° 23 sur la vie politique et publique, Comité CEDR, 1997.
- La liberté de réunion pacifique : l’article 21 du PIDCP ; l’observation générale n° 37, Comité des droits de l’homme, 2020.
- La liberté de religion ou de conviction : l’article 18, PIDCP ; Rapporteur spécial des Nations unies sur la liberté de religion ou de conviction, rapport : A/68/290, 2013.
- Droit à la sécurité de sa personne : l’article 9, PIDCP.
- Droit à la vie : Article 6, ICCPR.
- Droit à un recours : l’article 2, paragraphe 3 du PIDCP ;
5. Soumissions de l’utilisateur
Dans son appel au Conseil, la personne qui a rédigé la publication a partagé qu’elle avait l’intention de sensibiliser l’opinion sur les abus perpétrés par la « dictature » iranienne sur ses citoyens et que les personnes « doivent en être informées. » Pour cet utilisateur, la « décision de Facebook est injuste et contraire aux droits de l’homme. »
6. Soumissions de Meta
Meta a expliqué qu’évaluer si l’expression « mort à » un chef d’État constitue un discours rhétorique par opposition à une menace crédible est un défi, en particulier à l’échelle. Meta a déclaré qu’il y a eu beaucoup de débats internes et externes sur ce point et a accueilli favorablement la contribution du Conseil sur la question de savoir où fixer les limites. Meta a également déclaré qu’elle apprécierait des conseils sur la rédaction d’une politique qu’elle peut appliquer à l’échelle.
Meta a expliqué au Conseil que la phrase « mort à Khamenei » enfreignait le Standard de la communauté relatif à la violence et à l’incitation, et que c’était la raison pour laquelle le contenu avait été initialement supprimé. Les Standards de la communauté sont disponibles en farsi depuis février 2022.
Selon Meta, la politique interdit les « appels à la mort visant un chef d’État. » Elle distingue actuellement les appels à la violence mortelle où l’orateur exprime son intention d’agir (par exemple, « Je vais tuer une telle personne »), ce qui constitue une infraction, du contenu exprimant un souhait ou un espoir que quelqu’un meure sans exprimer d’intention d’agir (par exemple, « J’espère qu’une telle personne mourra » ou « mort à une telle personne »). Ce dernier est généralement non-violant, car Meta considère que le mot « mort » « n’est pas en soi une méthode de violence. » Meta considère généralement qu’il s’agit d’un « langage hyperbolique », où l’orateur n’a pas l’intention d’inciter à la violence.
Cependant, des directives internes indiquent aux modérateurs de supprimer les déclarations « mort à » lorsque la cible est une « personne à haut risque ». Ces directives sont appelées « Questions connues » et comprennent une liste confidentielle de catégories de personnes (plutôt que de personnes nommées) que Meta considère comme à haut risque. Les suppressions à grande échelle de Meta sont essentiellement basées sur une formule : la combinaison de [« mort à »] plus [la cible est une personne à haut risque] entraînera une suppression, même si d’autres contextes indiquent que l’expression est hyperbolique ou rhétorique, et donc similaire aux discours autorisés contre d’autres cibles. Les « chefs d’État » figurent sur la liste des personnes à haut risque, et Meta a expliqué que c’est en raison du « risque potentiel de sécurité » à leur encontre.
Meta a ajouté qu’elle a élaboré une liste pouvant être modifiée de personnes à haut risque sur la base des commentaires de ses équipes de politiques, ainsi que de spécialistes externes. Meta a fourni la liste complète au Conseil. Outre les chefs d’État, les autres exemples de personnes « à haut risque » comprennent : les anciens chefs d’État ; les candidats et anciens candidats à la tête de l’État ; les candidats aux élections nationales et supranationales jusqu’à 30 jours après l’élection s’ils ne sont pas élus ; les personnes ayant des antécédents de tentatives d’assassinat ; les militants et les journalistes.
Après avoir été informée que le Conseil avait sélectionné le cas, Meta a revu sa décision et a décidé de restaurer la publication en vertu de la « tolérance d’intérêt médiatique ». Bien que Meta ait maintenu que le contenu enfreignait ses politiques, le restaurer était la bonne chose à faire car « la valeur de l’intérêt public l’emportait sur tout risque de contribuer à un préjudice hors ligne. » Meta a déjà informé le Conseil que le type d’analyse contextuelle que ses équipes chargées des politiques peuvent mener pour prendre des décisions qui ont fait l’objet d’une remontée n’est pas disponible pour les modérateurs à l’échelle, lesquels doivent suivre des directives internes.
Dans ce cas, Meta a déterminé que l’intérêt public était élevé, car la publication était liée au discours public sur les lois sur le hijab obligatoire et critiquait le traitement des femmes par le gouvernement. Meta a estimé que la caricature était de nature politique et, étant donné la signification religieuse de la barbe pour certains pratiquants de l’Islam, que son imagerie pouvait être une critique de l’utilisation de la religion pour contrôler et opprimer les femmes. Le contexte politique et le moment de la publication étaient importants, à l’approche de la « Journée nationale du hijab et de la chasteté » de la mi-juillet, lorsque Meta a compris que de nombreuses personnes utilisaient des hashtags sur les réseaux sociaux pour organiser des protestations. Meta a cité le cas des « manifestations en Colombie » du Conseil à l’appui de son évaluation de l’intérêt public, et a souligné l’histoire du gouvernement iranien en matière de suppression de la liberté d’expression et des coupures d’Internet.
Meta a déterminé que l’intérêt public l’emportait sur le risque de préjudice hors ligne, lequel était faible. Il était clair pour Meta que l’auteur du contenu n’avait pas l’intention d’appeler à une action violente contre l’Ayatollah Khamenei, mais plutôt de critiquer les politiques « anti-femmes » du gouvernement. Dans cette situation, Meta a accordé plus de poids à la signification rhétorique de « marg bar » comme « à bas », en notant son utilisation fréquente comme forme d’expression politique en Iran. Restaurer le contenu était, pour Meta, cohérent avec ses valeurs de liberté d’expression et de sécurité.
Meta a expliqué au Conseil qu’elle appliquait deux catégories de tolérances d’intérêt médiatique : « limitées » et « ayant fait l’objet d’une remontée ». En l’espèce, Meta a adopté une tolérance limitée, qui ne restaure que l’élément de contenu individuel et n’a aucun effet sur les autres contenus, même s’ils sont identiques. En revanche, une tolérance « ayant fait l’objet d’une remontée » s’applique à toutes les utilisations d’une phrase qui enfreindrait par ailleurs la politique, quelle que soit l’identité de l’orateur. Les tolérances mises à l’échelle sont normalement limitées dans le temps. Les deux types de tolérances ne peuvent être appliqués que par les équipes de politique interne de Meta ; un modérateur de contenu qui examine les publications à l’échelle ne peut pas appliquer de telles tolérances, mais il a la possibilité de faire remonter le contenu aux équipes internes de Meta.
Meta a expliqué qu’elle a appliqué à trois reprises des tolérances d’intérêt médiatique qui font l’objet de remontées pour « Mort à Khamenei » ; tout d’abord, en relation avec les manifestations de 2019 contre le prix du carburant en Iran, ensuite dans le contexte des élections iraniennes de 2021 et enfin, en relation avec les manifestations de 2021 contre la pénurie d’eau. Cependant, aucune tolérance qui a fait l’objet d’une remontée n’a été émise pour autoriser ces déclarations depuis le début des protestations contre les hijabs obligatoires en 2022.
Meta a révélé au Conseil qu’elle est devenue plus hésitante à appliquer des tolérances ayant fait l’objet de « remontées » et préfère envisager des tolérances « limitées » au cas par cas. Cela est dû aux « critiques publiques » adressées à Meta pour avoir temporairement autorisé les déclarations de « mort à » dans une situation de crise antérieure. En réponse aux questions du Conseil, Meta a précisé qu’elle ne publie pas les tolérances d’intérêt médiatique qu’elle applique. Meta a également précisé le nombre de fois où elle a appliqué des tolérances d’intérêt médiatique ayant fait l’objet de remontées à l’échelle mondiale pour des contenus qui auraient par ailleurs enfreint la politique de violence et d’incitation au cours des 12 mois précédant le 5 octobre 2022, mais a demandé que ces données restent confidentielles, car elles ne pouvaient pas être validées pour être publiées dans le délai imparti.
Le Conseil a demandé à Meta combien de contenu aurait été affecté si l’entreprise avait émis une tolérance d’intérêt médiatique ayant fait l’objet d’une remontée pour permettre les déclarations « mort à Khamenei ». Meta a répondu que cela ne peut être déterminé avec précision sans évaluer chaque publication pour d’autres infractions. Bien que Meta ait fourni au Conseil des données sur l’utilisation des hashtags « mort à Khamenei » entre la mi-juillet et le début du mois d’octobre 2022, elle a demandé que ces données restent confidentielles, car elles ne pouvaient pas être validées pour être publiées dans le délai imparti.
Bien que Meta n’ait pas appliqué de tolérance d’intérêt médiatique ayant fait l’objet de remontée pour les déclarations « marg bar Khamenei », l’entreprise a révélé que le 23 septembre 2022, dix jours après le meurtre de Jina Mahsa Amini, elle a appliqué une tolérance « esprit de la politique » pour la phrase « Je tuerai quiconque tuera ma sœur/son frère. » Cette tolérance objet d’une remontée était toujours en vigueur lorsque le Conseil délibérait dans le présent cas.
Dans ce cas, l’auteur de la publication a reçu une « pénalité » suite à l’évaluation de son contenu comme étant en infraction. Meta a révélé qu’en mai 2022, elle a publié des directives selon lesquelles les slogans « marg bar Khamenei » devraient être supprimés pour violation du Standard de la communauté relatif à la violence et à l’incitation, mais ne devraient pas donner lieu à une pénalité. Meta a expliqué que cette mesure visait à atténuer l’impact de la suppression d’un contenu présentant une certaine valeur d’intérêt public, bien qu’elle ne soit pas suffisante pour l’emporter sur le risque de préjudice et justifier une tolérance d’intérêt public. Elle était toujours en vigueur au moment où le Conseil a finalisé sa décision. Meta a expliqué que ces conseils sont distincts de la tolérance d’intérêt public, car ils n’affectent pas la décision de supprimer le contenu et ne s’appliquent qu’à la sanction imposée. En réponse aux questions du Conseil, Meta a expliqué que l’auteur du contenu dans ce cas n’a pas bénéficié de cette exemption de sanction, car elle n’est disponible que pour les décisions relatives au contenu prises par les équipes internes « dans le cadre d’une remontée ». Comme la publication dans ce cas a été évaluée comme étant en infraction par un modérateur de contenu à l’échelle, une pénalité a été automatiquement émise, et, en tenant compte de l’accumulation des pénalités précédentes, des « limites de fonctionnalités » correspondantes ont été imposées. En réponse aux questions du Conseil, Meta a révélé que l’utilisateur était informé de la limite de fonctionnalité de 7 jours, mais pas de la limite de fonctionnalité de 30 jours liée au groupe. Ainsi, l’utilisateur ne découvrait la limite de 30 jours liée à un groupe que s’il accédait à la section statut de son compte ou s’il tentait d’effectuer une action restreinte liée à un groupe. En réponse aux recommandations antérieures du Conseil de surveillance, Meta a fourni plus d’informations publiques sur le fonctionnement de son système de pénalités et les pénalités de compte qui en résultent. Lors de la finalisation de cette décision, Meta a également informé le Conseil que, en réponse aux recommandations formulées dans le cas « Mention des talibans dans les informations d’actualité », elle augmenterait le seuil de pénalités pour l’imposition de pénalités « en lecture seule » et mettrait à jour son Espace modération avec cette information.
Meta a expliqué que lorsque l’auteur du contenu a fait appel de la décision initiale de suppression, cet appel ne répondait pas aux critères de priorité et a été automatiquement clos sans examen. En réponse aux questions du Conseil, Meta a fourni des explications supplémentaires sur ses capacités d’examen du contenu en farsi. Meta a expliqué que les Standards de la communauté sont disponibles sur son site web en farsi depuis février 2022. Meta a partagé que pour les marchés « à plus haut risque », comme le marché persan, qui sont caractérisés par exemple par des pics de volume récurrents dus à des évènements du monde réel, ou des marchés avec « de longs délais nécessaires pour augmenter la capacité », elle sur-alloue des ressources de modération de contenu afin de pouvoir faire face à toute situation de crise qui se présente.
Meta a cité les droits de l’homme à la liberté d’expression (article 19 du PIDCP), à la liberté de réunion (article 21 du PIDCP) et au droit de participer aux affaires publiques (article 25 du PIDCP) à l’appui de sa décision révisée. Dans le même temps, Meta a reconnu qu’elle avait besoin de règles « claires » pour atteindre, à l’échelle, l’objectif légitime de sa politique en matière de violence et d’incitation, à savoir protéger les droits d’autrui contre les menaces de violence. Meta a déclaré au Conseil que « l’application de ces règles claires et nettes aboutit parfois à la suppression d’un discours qui, à la suite d’une remontée, peut nous amener à conclure (comme nous l’avons fait dans ce cas) qu’il ne contient pas de menace crédible ». Meta a expliqué qu’elle surveille continuellement les tendances sur ses plateformes afin de protéger les discours politiques qui pourraient par ailleurs enfreindre les politiques, et que dans le passé, elle a fait davantage appel à des tolérances qui ont fait l’objet de remontées. L’entreprise a invité le Conseil à se prononcer sur les circonstances dans lesquelles elle devrait appliquer ces types de tolérances et sur les critères à prendre en compte pour ce faire.
Le Conseil a posé 29 questions par écrit à Meta. Les questions portaient sur : les critères et le processus d’application d’exceptions à la politique à l’échelle ; la clôture automatique des appels ; les mesures prises par Meta pour protéger les droits des utilisateurs pendant les manifestations ; la capacité de révision du contenu de l’entreprise dans les pays où ses produits sont interdits ; et les processus ou critères alternatifs que Meta a envisagés pour permettre efficacement l’expression politique rhétorique et non menaçante à l’échelle. 26 questions ont reçu une réponse complète et trois une réponse partielle. Les réponses partielles concernaient des questions sur : les données comparant la clôture automatique des appels de contenu en langue farsi et en langue anglaise ; la prévalence de plusieurs variantes du slogan « mort à Khamenei » sur les plateformes de Meta, et les taux d’exactitude sur l’application de la politique de violence et d’incitation en farsi.
7. Commentaires publics
Le Conseil de surveillance a reçu 162 commentaires publics en rapport avec ce cas. 13 commentaires ont été soumis par l’Asie-Pacifique et l’Océanie, 6 par l’Asie centrale et du Sud, 42 par l’Europe, et 36 par le Moyen-Orient et l’Afrique du Nord. 65 commentaires ont été soumis par les États-Unis et le Canada. Les soumissions couvraient les thèmes suivants : la distinction entre la rhétorique politique et l’incitation ; l’importance du contexte, en particulier pour le langage et l’imagerie, lors de la modération du contenu ; les limites de la tolérance d’intérêt médiatique dans le traitement des violations des droits de l’homme et la confiance excessive dans la prise de décision automatisée ; et la liberté d’expression, les droits de l’homme, les droits des femmes, la répression gouvernementale et les interdictions de réseaux sociaux en Iran.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné si ce contenu devait être restauré en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits de l’homme et ses valeurs.
Le Conseil a choisi ce cas parce qu’il offrait la possibilité d’explorer la manière dont Meta évalue les critiques envers les autorités gouvernementales, et de déterminer si les chefs d’État de certains pays bénéficient d’une protection ou d’un traitement spécial, ainsi que des questions importantes concernant la défense des droits des femmes et la participation des femmes à la vie publique. En outre, ce contenu soulève des questions autour de la critique des personnalités politiques par le biais d’un discours rhétorique qui peut également être interprété comme menaçant, et de l’utilisation de la tolérance d’intérêt médiatique. Le cas fournit au Conseil l’occasion de discuter des procédures internes de Meta, qui déterminent quand et pourquoi des exceptions aux politiques doivent être accordées, ainsi que la manière dont les politiques et leurs exceptions doivent être appliquées. Le cas s’inscrit principalement dans la priorité du Conseil relative aux élections et à l’espace civique, mais touche également aux priorités du Conseil relatives au genre, à Meta et aux gouvernements, aux situations de crise et de conflit, et au traitement équitable des utilisateurs.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
a. Violence et incitation
Le Conseil estime que le contenu en question ne viole pas le Standard de la communauté relatif à la violence et à l’incitation. Par conséquent, il n’était pas nécessaire pour Meta d’appliquer la tolérance d’intérêt médiatique à la publication.
Cette conclusion est étayée par l’analyse que Meta a effectuée lorsqu’elle a réexaminé sa décision après que le Conseil a sélectionné le cas. La justification de la politique explique que Meta a l’intention de « prévenir les préjudices potentiels hors ligne » et qu’elle « supprime le langage qui incite ou facilite la violence grave ». Sous la rubrique « ne pas publier », le Standard de la communauté interdit les menaces « qui pourraient conduire à la mort ou à une violence de haute gravité ». Cependant, les directives internes indiquent que, généralement, les déclarations de « mort à » contre toute cible, y compris les personnes nommées, sont autorisées sur les plateformes de Meta et ne constituent pas une infraction à cette règle, sauf lorsque la cible de la déclaration de « mort à » est une « personne à haut risque ». Les directives internes indiquent aux membres des équipes d’examen de considérer les déclarations de « mort à » contre des « personnes à haut risque » comme une infraction, quels que soient les autres indices contextuels. De plus, les règles « ne pas publier » du Standard de la communauté relatif à la violence et à l’incitation ne reflètent pas ces directives internes et n’interdisent donc pas expressément les déclarations « mort à » visant des personnes à haut risque, notamment les chefs d’État.
L’analyse du contenu par Meta a révélé qu’il présentait un faible risque de préjudice hors ligne, qu’il n’avait pas l’intention d’appeler à la mort de l’ayatollah Khamenei et que le slogan « mort à Khamenei » a souvent été utilisé comme forme d’expression politique en Iran, ce qui est mieux compris comme « à bas Khamenei ». Cela aurait dû être suffisant pour que Meta juge le contenu comme n’étant pas en infraction et permette à la publication et à d’autres contenus similaires de rester sur sa plateforme. Le Conseil est préoccupé par le fait que Meta n’a pas pris de mesures pour autoriser l’utilisation de « à bas Khamenei » à grande échelle pendant les manifestations actuelles en Iran, malgré son évaluation dans ce cas que le slogan ne présentait pas de risque de préjudice.
Les spécialistes linguistiques consultés par le Conseil ont confirmé que le slogan « marg bar Khamenei » est couramment utilisé en Iran, en particulier pendant les manifestations, comme une critique du régime politique et du Guide suprême de l’Iran, plutôt que comme une menace pour la sécurité de l’Ayatollah Khamenei. La publication a précédé de quelques jours la « Journée nationale du hijab et de la chasteté », au cours de laquelle Meta a noté une augmentation de l’utilisation des réseaux sociaux en Iran pour organiser des protestations.
Dans ce contexte, le slogan aurait dû être interprété comme une expression rhétorique, signifiant « à bas » Khamenei et le gouvernement iranien. Il ne relevait donc pas de la règle sur les « menaces pouvant entraîner la mort », et il ne préconisait pas ni n’avait l’intention de provoquer une violence de haute gravité contre la cible. Le Conseil note que les déclarations de type « à bas » contre une cible sont autorisées par les politiques de Meta, quelle que soit l’identité de la cible. Cela est conforme à l’engagement de Meta envers la liberté d’expression, et à l’importance de protéger le mécontentement politique. Il n’y a pas de « risque réel de blessures physiques » ou de « menaces directes à la sécurité publique », que la politique vise à éviter. Le contenu entre plutôt dans la catégorie des déclarations par lesquelles les personnes « expriment couramment leur dédain ou leur mécontentement en menaçant ou en appelant à la violence de manière non sérieuse ».
Les directives internes de Meta à l’intention des modérateurs contiennent une présomption en faveur de la suppression des déclarations de « mort à » visant des « personnes à haut risque ». Cela s’appliquerait à l’Ayatollah Khamenei, en tant que chef d’État. Cette règle, bien qu’elle ne soit pas publique, est conforme à la justification de la politique du contenu qui place ces personnes dans une situation de risque élevé. Cependant, son application dans ce cas ne l’est pas. La justification de la politique du Standard de la communauté relatif à la violence et à l’incitation stipule que la langue et le contexte d’une déclaration particulière doivent être pris en compte pour déterminer si une menace est crédible. Cela n’a pas été le cas en l’espèce, puisque la présomption énoncée a été appliquée sans égard à la langue et au contexte, bien que le Conseil note que le membre de l’équipe d’examen a agi d’une manière conforme aux directives internes. Comme Meta l’a reconnu par la suite, divers éléments de la publication, et le contexte plus large dans lequel elle a été publiée, montrent clairement qu’elle ne proférait pas une menace crédible mais employait une rhétorique politique. La décision du Conseil dans le cas du « Collier de wampum » est pertinente ici. Dans cette décision, le Conseil a estimé qu’une phrase apparemment contraire à la politique, « kill the Indian » (tuer l’Indien), ne devait pas être lue isolément mais dans le contexte de l’ensemble de la publication, qui montrait clairement qu’elle ne menaçait pas de violence mais s’y opposait. De même, dans le cas du « Poème russe », le Conseil a estimé que divers extraits d’un poème (par exemple, « kill a fascist » (tuer un fasciste)) n’étaient pas en infraction, car la publication utilisait un discours rhétorique pour attirer l’attention sur un cycle de violence, sans inciter à la violence.
Grâce aux directives internes telles qu’elles sont rédigées, le Conseil comprend la décision initiale du modérateur de contenu dans ce cas. Cependant, Meta devrait mettre à jour ces directives afin qu’elles soient plus cohérentes avec la logique de la politique énoncée. Le Conseil est d’accord sur le fait que les mentions « mort à » ou les déclarations menaçantes similaires visant des personnes à haut risque doivent être supprimées en raison du risque potentiel pour leur sécurité. Bien que le Conseil convienne également que les chefs d’État peuvent être considérés comme des personnes à haut risque, cette présomption devrait être nuancée dans les directives internes de Meta. Pour ces raisons, le Conseil estime également que la suppression du contenu n’était pas conforme à l’engagement de Meta en matière de liberté d’expression et n’était pas nécessaire pour faire progresser la sécurité. Meta aurait dû publier des directives à l’échelle indiquant aux modérateurs de ne pas supprimer ce slogan de protestation par défaut et, par conséquent, de ne pas supprimer cette publication lors de l’examen à l’échelle.
b.
Il découle de l’évaluation du Conseil selon laquelle le Standard de la communauté relatif à la violence et à l’incitation n’a pas été enfreint, que la tolérance d’intérêt médiatique n’était pas nécessaire. Nonobstant cette conclusion, le Conseil estime que, lorsque Meta a choisi d’appliquer une tolérance d’intérêt médiatique à cette publication, celle-ci aurait dû fait l’objet d’une remontée pour s’appliquer à tous les slogans « marg bar Khamenei », quel que soit l’orateur. Cette mesure a été prise en réponse à plusieurs manifestations antérieures similaires de grande ampleur en Iran. De l’avis du Conseil, ces mesures étaient plus conformes à l’engagement de Meta envers la liberté d’expression que la mesure prise par Meta lorsqu’elle a revu sa décision dans ce cas. De nombreuses autres personnes se trouvent dans la même situation que l’utilisateur en l’espèce, de sorte que la tolérance n’aurait pas dû être limitée à une publication individuelle. La remontée de la décision était nécessaire compte tenu de l’importance des réseaux sociaux pour la protestation en Iran, de la situation des droits de l’homme dans le pays et du fait que Meta aurait raisonnablement dû prévoir que le même enjeu se reproduirait de nombreuses fois. Le fait de ne pas appliquer une tolérance ayant fait l’objet d’une remontée a eu pour effet de réduire au silence le discours politique visant à protéger les droits des femmes, en supprimant ce que le Conseil a conclu être un discours non en infraction.
Les critiques envers l’utilisation par Meta de tolérances pour autoriser des déclarations de « mort à » en relation avec l’invasion de l’Ukraine par la Russie ne devraient pas, selon le Conseil, avoir conduit Meta à réduire l’utilisation de tolérances ayant fait l’objet de remontées dans des contextes de protestation. La situation en Iran concerne un gouvernement qui enfreint les droits de l’homme de ses propres citoyens, tout en réprimant les protestations et en limitant sévèrement la libre circulation de l’information. Il y aurait eu plusieurs milliers d’utilisations du slogan « marg bar Khamenei » au cours des derniers mois sur les plateformes de Meta. Très peu de publications, si tant est qu’il y en ait eu en dehors du contenu dans ce cas, auraient bénéficié d’une tolérance d’intérêt médiatique. Alors que la tolérance d’intérêt médiatique est souvent présentée comme un mécanisme permettant de protéger les discours d’intérêt public, son utilisation est relativement rare compte tenu du champ d’application mondial des opérations de Meta. D’après Meta, seules 68 tolérances d’intérêt médiatique ont été appliquées entre le 1er juin 2021 et le 1er juin 2022, toutes politiques confondues dans le monde.
De l’avis du Conseil, dans les contextes de protestations généralisées, Meta devrait être moins réticente à faire remonter les tolérances. Cela permettrait de protéger la liberté d’expression lorsque les risques pour la sécurité sont minimes. Ceci est particulièrement important lorsque des infractions systématiques aux droits de l’homme ont été documentées et que les possibilités d’exercer le droit à la liberté d’expression sont limitées, comme en Iran.
II. Mesures de mise en application
L’impact des « limites de fonctionnalités » sur les individus en période de protestation est particulièrement grave. De telles limites entravent presque entièrement la capacité des personnes à utiliser la plateforme pour s’exprimer. Elles peuvent exclure les personnes des mouvements sociaux et du discours politique dans les moments critiques, ce qui peut miner les appels à l’action qui prennent de l’ampleur grâce aux produits Meta. Meta a semblé reconnaître partiellement ce fait en mai 2022, en donnant des instructions à ses équipes de remontées pour qu’elles n’imposent pas de pénalités pour les déclarations « marg bar Khamenei ». Toutefois, cette mesure ne devait pas s’appliquer aux décisions prises par les modérateurs à l’échelle. Lorsque le même contenu est évalué comme en infraction à l’échelle (c’est-à-dire par les modérateurs externes de Meta), les pénalités portent automatiquement contre le compte de l’auteur de la publication. Un membre de l’équipe d’examen à l’échelle n’a généralement pas la possibilité de refuser une sanction ou les pénalités qui en découlent ; cela n’a pas changé lorsque Meta a publié l’exception limitée en mai. Seules les décisions relatives au contenu qui atteignaient ses équipes de remontées avaient la possibilité de retenir une sanction pour le contenu en infraction. Cela a pu s’appliquer au contenu ou aux comptes qui sont passés par des programmes tels que cross-check, qui permettent au contenu des utilisateurs d’être examiné lors de la remontée avant d’être supprimé. Alors que les comptes très médiatisés ont pu bénéficier de cette exception, l’auteur de la publication dans ce cas n’en a pas bénéficié.
Le Conseil est également préoccupé par le fait que l’auteur de la publication n’a pas été suffisamment informé que des limites de fonctionnalités étaient imposées, en particulier pour les fonctionnalités liées aux groupes. La première fois qu’il a eu connaissance de certaines d’entre elles, c’est lorsqu’il a tenté d’utiliser les fonctionnalités concernées. Cela aggrave les frustrations des utilisateurs qui sont placés en « prison Facebook », alors que la nature de la punition et les raisons qui la motivent sont souvent inconnues. Dans le cas « Mention des talibans dans les informations d’actualité », le Conseil a exprimé des préoccupations similaires lorsqu’un utilisateur a été empêché d’utiliser pleinement son compte à un moment politique crucial. Selon Meta, cette question a déjà été portée à sa connaissance et, conformément aux recommandations antérieures du Conseil, les équipes internes concernées œuvrent à améliorer son infrastructure de communication avec les utilisateurs sur cette question.
Le Conseil se félicite que Meta ait progressé dans la mise en œuvre d’autres recommandations dans le cas « Mention des talibans dans les informations d’actualité », et que le seuil de pénalités pour imposer certaines limites de fonctionnalités soit augmenté. Refléter ces modifications dans les explications de l’Espace modération concernant les pratiques de mise en application de Meta est une bonne pratique.
Le Conseil note que l’auteur de la publication dans ce cas n’a pas vu son appel examiné, et a reçu des notifications trompeuses sur les raisons de cette situation. Ceci est troublant. Meta a annoncé publiquement que l’entreprise s’oriente vers l’utilisation de l’automatisation pour prioriser le contenu à examiner. Les appels sont automatiquement fermés sans examen s’ils n’atteignent pas un seuil défini concernant divers signaux, notamment : le type et la viralité du contenu, s’il ne s’agit pas d’une infraction extrêmement grave, comme un contenu suicidaire, et le temps écoulé depuis la publication du contenu. Le Conseil est préoccupé par la fermeture automatique des appels par Meta, et par le fait que les signaux de priorisation que l’entreprise applique ne tiennent peut-être pas suffisamment compte de l’expression de l’intérêt public, en particulier lorsqu’il s’agit de protestations. Les signaux devraient inclure des caractéristiques telles que la sensibilité du sujet et la probabilité de faux positifs pour aider à identifier le contenu de cette nature, afin d’éviter que les appels contre des décisions erronées soient automatiquement fermés. Ceci est particulièrement important lorsque, en raison d’une mise en application incorrecte de ses politiques, les utilisateurs sont empêchés d’utiliser des fonctionnalités clés sur les produits de Meta à des moments politiques cruciaux.
III. Transparence
Le Conseil se félicite de l’augmentation des données et des exemples que Meta fournit sur les exceptions concernant l’intérêt médiatique limité dans l’Espace modération. Ces divulgations seraient encore améliorées en distinguant les tolérances « qui ont fait l’objet de remontées » et les tolérances « limitées » que l’entreprise accorde chaque année dans ses rapports de transparence. La fourniture d’exemples de tolérances d’intérêt médiatique « qui ont fait l’objet d’une remontée » permettrait également de mieux comprendre les mesures prises par Meta pour protéger la liberté d’expression des utilisateurs. Dans les moments clés, tels que les manifestations en Iran, Meta devrait publier les tolérances d’intérêt médiatique qui ont fait l’objet d’une remontée afin que les utilisateurs comprennent que leur discours sera protégé.
8.2 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil estime que la décision initiale de Meta de supprimer le contenu n’est pas conforme aux responsabilités de Meta en matière de droits de l’homme qui lui incombe en tant qu’entreprise.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP offre une protection « particulièrement élevée » au « débat public concernant les personnalités politiques et les institutions publiques » (Observation générale n° 34, paragraphe 38). Les restrictions extrêmes à la liberté d’expression et de réunion en Iran rendent particulièrement crucial le respect de ces droits par Meta, notamment en période de protestation (décision sur le cas « Manifestations en Colombie » ; Observation générale n° 37, paragraphe 31). En l’espèce, l’expression était artistique et constituait une protestation politique. Elle était liée à un discours sur les droits des femmes et leur participation à la vie politique et publique, et sur la liberté de religion ou de croyance. Le Conseil a reconnu l’importance des discours de protestation à l’encontre d’un chef d’État, même lorsqu’ils sont offensants, car ils sont « légitimement soumis à la critique et à l’opposition politique » (cas des « Protestations en Colombie » ; Observation générale n° 34, paragraphes 11 et 38). La liberté d’expression sous forme d’art protège les « caricatures qui clarifient les positions politiques » et les « memes qui se moquent des personnalités publiques » (A/HRC/44/49/Add.2, paragraphe 5).
Lorsqu’un État restreint la liberté d’expression, il doit répondre aux exigences de légalité, de but légitime, et de nécessité et proportionnalité (article 19, paragraphe 3, PIDCP). Le Conseil utilise ce test tripartite pour interpréter les engagements volontaires de Meta en matière de droits de l’homme, à la fois pour la décision relative au contenu individuel et pour ce que cela dit de l’approche plus large de Meta en matière de gouvernance du contenu. Comme l’a déclaré le Rapporteur spécial des Nations unies sur la liberté d’expression disant que même si « les entreprises ne sont pas soumises aux mêmes devoirs que les gouvernements, leur influence est néanmoins telle qu’elle doit les inciter à se poser les mêmes questions qu’eux quant à la protection de la liberté d’expression de leurs utilisateurs » (A/74/486, paragraphe 41).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale des droits de l’homme exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles (Observation générale n° 34, paragraphe 25). Il exige en outre également que les règles qui limitent la liberté d’expression « ne puissent pas conférer aux personnes chargées de [leur] application un pouvoir illimité de décider de la restriction de la liberté d’expression » et qu’elles « énoncent des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » ( Ibid). En ce qui concerne les Standards de la communauté, le Rapporteur spécial des Nations unies sur la liberté d’expression a déclaré qu’elles devaient être claires et spécifiques (A/HRC/38/35, paragraphe 46). Les personnes utilisant les plateformes de Meta doivent pouvoir accéder aux règles et les comprendre, et les équipes d’examen de contenu doivent disposer de conseils clairs sur leur application.
Nous constatons avec satisfaction que, conformément aux décisions antérieures du Conseil, Meta a veillé à la traduction de ses politiques de contenu dans davantage de langues, notamment le farsi.
Les règles internes de Meta (les « Questions connues ») sur sa politique de violence et d’incitation contiennent des présomptions de risque qui ne figurent pas actuellement dans la politique destinée au public. Le Standard de la communauté ne reflète pas l’explication contenue dans les directives internes selon laquelle une déclaration de « mort à telle personne » est généralement autorisée, sauf lorsque la « cible » est une « personne à haut risque ». Il est très préoccupant que cette présomption cachée comporte également une exception non publique, en particulier en ce qui concerne l’expression qui peut être une critique politique légitime des acteurs étatiques. Le Conseil note également qu’il n’y a pas d’exemples de « personnes à haut risque » dans le Standard de la communauté destiné au public, de sorte que l’on ne sait pas si les chefs d’État bénéficient de cette protection particulière. En effet, la raison pour laquelle certains fonctionnaires de haut rang sont inclus dans la liste interne et pas d’autres, comme les membres du corps législatif et du pouvoir judiciaire, n’est pas claire. Dans le même temps, le Conseil reconnaît qu’il peut y avoir de bonnes raisons de ne pas divulguer publiquement la liste complète des cibles à haut risque, en particulier pour les personnes qui ne bénéficient pas de la protection de l’appareil de sécurité de l’État. Dans la justification de la politique du Standard de la communauté relatif à la violence et à l’incitation, qui est public, Meta déclare qu’elle tient compte du « langage et du contexte » pour différencier le contenu qui contient une « menace crédible pour la sécurité publique ou personnelle » et les « déclarations occasionnelles ». Cependant, la section « ne pas publier » de la politique n’explique pas comment le langage et le contexte entrent en ligne de compte dans l’évaluation des menaces et des appels à la mort ou à la violence de haute gravité. Alors que la justification de la politique semble tenir compte des discours rhétoriques du type de ceux que l’on peut attendre dans les contextes de protestation, les règles écrites et les conseils correspondants aux équipes d’examen ne le font pas. En effet, la mise en application dans la pratique, en particulier à l’échelle, est plus formelle que ne le laissent entendre les règles, ce qui peut créer des perceptions erronées chez les utilisateurs sur la manière dont les règles sont susceptibles d’être appliquées. Les conseils aux équipes d’examen, tels qu’ils sont actuellement rédigés, excluent la possibilité d’une analyse contextuelle, même lorsqu’il existe des indices clairs dans le contenu lui-même que le langage menaçant est rhétorique.
La politique relative à la violence et à l’incitation doit être revue, tout comme les règles internes de Meta. La politique doit inclure une explication de la manière dont Meta modère les menaces rhétoriques, y compris les déclarations de « mort à » contre les « personnes à haut risque », et de la manière dont la langue et le contexte sont pris en compte pour évaluer si une menace contre un chef d’État est crédible en vertu de la politique relative à la violence et à l’incitation. Les règles internes doivent être particulièrement sensibles aux contextes de protestation où la protection du discours politique est cruciale. Les présomptions connexes dans ses conseils internes devraient être nuancées et mises en conformité avec cela.
Bien que Meta ait fourni des explications publiques supplémentaires sur la tolérance d’intérêt médiatique, le manque d’explications publiques sur les tolérances « ayant fait l’objet d’une remontée » est une source de confusion. Meta devrait faire une annonce publique lorsqu’elle applique une tolérance ayant fait l’objet d’une remontée en rapport avec des évènements tels que les manifestations en Iran, et elle devrait soit préciser leur durée, soit annoncer la levée de ces exceptions. Cela aiderait les personnes utilisant ses plateformes à comprendre quelle expression est autorisée. De telles annonces sont des moments opportuns pour rappeler aux utilisateurs des plateformes de Meta l’existence des règles, pour les sensibiliser et les faire comprendre. Ceci est particulièrement important lorsque ces modifications ont des impacts matériels sur la capacité des utilisateurs à s’exprimer sur la plateforme.
II. Objectif légitime
Les restrictions de la liberté d’expression doivent poursuivre un objectif légitime. Le Standard de la communauté relatif à la violence et à l’incitation vise à « prévenir tout préjudice potentiel hors ligne » en supprimant les contenus qui présentent « un risque réel de blessures physiques ou de menaces directes pour la sécurité publique. » Cette politique sert donc l’objectif légitime de protéger le droit à la vie et le droit à la sécurité de la personne (article 6, PIDCP ; Article 9, PIDCP).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » ( Observation générale n° 34 , paragraphe 34).
Le Conseil estime que le retrait de ce contenu n’était pas nécessaire pour protéger l’Ayatollah Khamenei contre la violence ou les menaces de violence. Meta a raison de s’inquiéter des menaces de violence, y compris celles qui visent des fonctionnaires de haut rang dans de nombreux contextes. Cependant, sa décision de ne pas interpréter la politique relative à la violence et à l’incitation pour autoriser ce contenu rhétorique et d’autres contenus de ce type, est très préoccupante. Le fait de ne pas émettre une tolérance ayant fait l’objet d’une remontée pour les déclarations « marg bar Khamenei » a aggravé le problème de la politique de Meta qui ne protège pas ce discours, ne parvenant pas à atténuer le préjudice causé à la liberté d’expression.
Meta savait à la mi-juillet, lorsque cette publication a été diffusée, que la « Journée nationale du hijab et de la chasteté » approchait. En mai 2022, Meta avait déjà émis des directives pour supprimer la déclaration « marg bar Khamenei » pour les décisions prises lors de la remontée sans imposer de pénalité. Meta savait également que ses plateformes ont été cruciales dans des moments similaires dans un passé récent pour l’organisation de manifestations en Iran, ayant déjà publié des tolérances ayant fait l’objet d’une remontée pour les déclarations « marg bar Khamenei » dans le cadre des manifestations. L’entreprise aurait donc dû anticiper les problèmes liés à la suppression excessive de contenu de protestation en Iran, et elle aurait dû élaborer une réponse allant au-delà de l’exemption de pénalité très limitée pour les décisions ayant fait l’objet d’une remontée. Comme le montre ce cas, son incapacité à en faire plus pour la liberté d’expression des utilisateurs a conduit à restreindre inutilement la liberté d’expression des manifestants. Lorsque des limites de fonctionnalités ont été imposées, les impacts de ses décisions erronées ont été aggravés, car elles ont empêché les utilisateurs de s’organiser sur les plateformes de Meta. Le fait que Meta ait fait remonter l’esprit de la politique de tolérance le 23 septembre 2022 pour la phrase « Je tuerai celui qui tue ma sœur/mon frère » en Iran indique que Meta aurait dû également autoriser les slogans de protestation connus à ce moment critique. Les déclarations « mort à » ne sont pas aussi directement menaçantes que les déclarations « Je tuerai ». Bien que la phrase « mort à » vise dans ce cas une personne spécifique, cette cible est l’Ayatollah Khamenei, un chef d’État qui utilise régulièrement toute la force coercitive de l’État, tant par des moyens judiciaires qu’extrajudiciaires, pour réprimer la dissidence. Il est crucial que Meta donne la priorité à la valeur de liberté d’expression pour soutenir les droits à la liberté d’expression des individus dans des situations telles que celle-ci.
Les facteurs identifiés ci-dessus pèsent lourdement en faveur de la présomption que les déclarations « marg bar Khamenei » faites dans le contexte de manifestations sont des slogans politiques et ne constituent pas des menaces crédibles. Le test à six facteurs décrit dans le Plan d’action de Rabat appuie cette conclusion. L’orateur n’était pas une personnalité publique, et sa rhétorique ne semblait pas être destinée, et n’aurait pas été interprétée par d’autres, comme un appel à l’action violente. Comme l’a déterminé Meta, le contexte de la protestation en Iran indiquait clairement que des déclarations rhétoriques de ce genre étaient attendues, et que la probabilité que la violence en résulte était faible. Le Conseil estime que le contenu est sans ambiguïté politique et non violent dans son intention, critiquant directement un gouvernement et ses dirigeants pour de graves violations des droits de l’homme et attirant l’attention sur l’abus de la religion pour justifier la discrimination. De l’avis du Conseil, ce contenu présentait très peu de risques d’incitation à la violence. Par conséquent, tant le retrait que les pénalités supplémentaires qui ont résulté de cette décision n’étaient ni nécessaires ni proportionnés.
Dans d’autres contextes, les déclarations de « mort à » à l’encontre de personnalités publiques et de représentants du gouvernement doivent être prises au sérieux, comme l’indiquent les directives internes actuellement en place. Par exemple, un contenu comportant le slogan « marg bar Salman Rushdie » présenterait un risque beaucoup plus important. La fatwa contre Rushdie, la récente tentative d’attentat contre sa vie et les préoccupations constantes pour sa sécurité, sont autant d’éléments qui le placent dans une position différente de celle de l’Ayatollah Khamenei. Dans d’autres contextes linguistiques et culturels, les déclarations « mort à » peuvent également ne pas avoir le même sens rhétorique que le terme « marg bar » et ne doivent pas être traitées de la même manière que le contenu dans ce cas. Par exemple, lors d’évènements similaires aux émeutes du 6 janvier à Washington D.C., les déclarations « mort à » contre des personnalités politiques devraient être rapidement supprimées en vertu de la politique relative à la violence et à l’incitation. Dans une telle situation, les personnalités politiques étaient clairement en danger, et les déclarations « mort à » sont moins susceptibles d’être comprises comme rhétoriques ou non menaçantes en anglais.
En outre, le Conseil est préoccupé par le fait que la justification de la liste des personnes « à haut risque » semble à certains égards excessivement large en termes de présomption de suppression qu’elle crée, mais ensuite inexplicablement limitée à d’autres égards. Dans le cas des chefs d’État, bien que le Conseil convienne qu’ils peuvent être considérés comme des personnes à haut risque, les directives internes devraient refléter le fait que le discours politique rhétorique lié à la protestation qui n’incite pas à la violence et qui vise à critiquer ces personnes, leur gouvernement, le régime politique ou leurs politiques, doit être protégé. C’est le cas même s’il contient des déclarations menaçantes qui seraient considérées comme en infraction envers d’autres personnes à haut risque.
Lorsque des menaces rhétoriques à l’encontre de chefs d’État sont utilisées dans le contexte de protestations en cours, les équipes d’examen devraient être tenus de prendre en compte la langue et le contexte, ce qui permettrait d’aligner les directives destinées aux modérateurs sur la justification de la politique. Cela aurait pour effet d’autoriser les menaces rhétoriques visant les chefs d’État, notamment « mort à » contre un chef d’État, lorsque, par exemple : l’utilisation historique et actuelle de l’expression sur les plateformes témoigne d’un discours politique rhétorique qui n’est pas destiné, et n’est pas susceptible d’inciter à la violence ; le contenu dans son ensemble est engagé dans la critique des gouvernements, des régimes politiques, de leurs politiques et/ou de leurs dirigeants ; la déclaration est utilisée dans des contextes de protestation ou d’autres situations de crise où le rôle du gouvernement est un sujet de débat politique ; ou elle est utilisée dans des contextes où des restrictions systématiques de la liberté d’expression et de réunion sont imposées, ou lorsque la dissidence est réprimée.
Le Conseil reconnaît que cette question n’est pas aussi simple qu’il n’y paraît à première vue et qu’il n’est pas possible d’adopter une règle globale sur l’utilisation de certains termes qui exclut la nécessité de tenir compte des facteurs contextuels, y compris les signaux dans le contenu lui-même qu’il est possible de prendre en considération à l’échelle (voir la décision du Conseil dans le cas « Collier de wampum ») . La position actuelle de Meta entraîne une suppression excessive de l’expression politique en Iran à un moment historique et crée potentiellement plus de risques pour les droits de l’homme qu’elle n’en atténue. De l’avis du Conseil, la fréquence à laquelle Meta a dû appliquer des tolérances dans cette situation indique qu’une solution plus permanente à ce problème est nécessaire. Le recours aux tolérances est trop ponctuel et ne donne pas la certitude que les droits d’expression des personnes seront respectés. Meta doit protéger la liberté d’expression à l’échelle en relation avec l’Iran, et d’autres contextes et situations politiques critiques.
Les problèmes de proportionnalité liés à cette suppression de contenu augmentent lorsque des « limites de fonctionnalités » sont imposées à la suite d’une décision incorrecte. La nature et la durée des sanctions sont disproportionnées. L’approche de Meta en matière de sanctions devrait prendre davantage en considération la possibilité qu’elles dissuadent les utilisateurs de s’engager à l’avenir sur des questions politiques sur la plateforme. Il est positif que Meta ait introduit davantage de transparence et de cohérence dans ce domaine suite à la mise en œuvre des recommandations antérieures du Conseil de surveillance, en s’orientant vers ce qui devrait être une approche plus proportionnée et plus transparente avec des seuils de sanction par pénalité plus élevés. Les plans de Meta visant à émettre des notifications de pénalité plus complètes devraient permettre aux utilisateurs d’être mieux placés pour comprendre les raisons des conséquences des sanctions et les raisons des limites de fonctionnalités à l’avenir.
Accès au recours
L’accès à un recours effectif est une composante essentielle des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). En août 2020, Meta a annoncé publiquement qu’elle s’appuierait davantage sur l’examen automatisé du contenu et que « les équipes seront moins susceptibles d’examiner les rapports de moindre gravité qui ne sont pas largement vus ou partagés sur nos plateformes. » Le Conseil est préoccupé par le fait que la fermeture automatique des appels par Meta signifie que les utilisateurs ne bénéficient pas d’un accès approprié aux recours. De plus, le fait que le système automatisé actuel ne tienne pas compte de signaux tels que la sensibilité du sujet et la probabilité d’une erreur d’application rend très probable que les plaintes les plus importantes ne soient pas examinées. Le Conseil estime que cela peut affecter particulièrement le droit de recours des manifestants en ligne, car le contenu supprimé à tort est restauré tardivement ou pas du tout, ce qui les exclut des mouvements sociaux et du discours politique dans des moments politiques critiques.
8.3 Contenu identique avec un contexte parallèle
Le Conseil s’inquiète du nombre probable de suppressions injustifiées de contenus de protestation en Iran comprenant la phrase « marg bar Khamanei ». Il est important que Meta prenne des mesures pour restaurer le contenu identique avec un contexte parallèle qu’elle a supprimé à tort, dans la mesure du possible, et annule toute sanction ou pénalité au niveau du compte qu’elle a imposée en conséquence.
9. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de supprimer le contenu pour infraction au Standard de la communauté relatif à la violence et à l’incitation.
10. Avis consultatif sur la politique
Politique de contenu
1. Les Standards de la communauté de Meta doivent refléter fidèlement ses politiques. Pour mieux informer les utilisateurs des types de déclarations interdites, Meta devrait modifier le Standard de la communauté relatif à la violence et à l’incitation pour (i) expliquer que les menaces rhétoriques comme les déclarations « mort à telle personne » sont généralement autorisées, sauf lorsque la cible de la menace est une personne à haut risque ; (ii) inclure une liste illustrative de personnes à haut risque, en expliquant qu’elles peuvent inclure des chefs d’État ; (iii) fournir des critères pour savoir quand les déclarations menaçantes visant les chefs d’État sont autorisées afin de protéger le discours politique clairement rhétorique dans les contextes de protestation qui n’incite pas à la violence, et ce, en tenant compte de la langue et du contexte, conformément aux principes énoncés dans cette décision. Le Conseil considérera que cette recommandation a été suivie lorsque le langage du Standard de la communauté relatif à la violence et à l’incitation destiné au public reflétera la modification proposée, et lorsque Meta partagera avec le Conseil des directives internes cohérentes avec la politique destinée au public.
Mise en application
2. Meta devrait privilégier l’application de tolérances ayant fait l’objet d’une remontée lorsque (i) cela n’est pas susceptible de conduire à la violence ; (ii) lorsque le contenu potentiellement violent est utilisé dans des contextes de protestation ; et (iii) lorsque l’intérêt public est élevé. Meta devrait s’assurer de l’efficacité de son processus interne d’identification et d’examen des tendances en matière de contenu autour des manifestations susceptibles de nécessiter des orientations spécifiques au contexte pour atténuer les atteintes à la liberté d’expression, telles que des tolérances ou des exceptions. Le Conseil considérera que cette recommandation est suivie lorsque Meta partagera le processus interne avec le Conseil et démontrera, en partageant des données avec le Conseil, qu’elle a minimisé les suppressions incorrectes de slogans de protestation.
3. Dans l’attente des modifications apportées à la politique sur la violence et l’incitation, Meta devrait émettre des directives à l’intention de ses équipes d’examen selon lesquelles les déclarations « marg bar Khamenei » dans le contexte des manifestations en Iran ne violent pas le Standard de la communauté relatif à la violence et à l’incitation. Meta devrait annuler toutes les pénalités et les limites de fonctionnalités pour les contenus supprimés à tort qui utilisaient le slogan « marg bar Khamenei ». Le Conseil considérera que cette recommandation est suivie lorsque Meta divulguera des données sur le volume de contenu restauré et le nombre de comptes touchés.
4. Meta devrait réviser les indicateurs qu’elle utilise pour classer les appels dans ses files d’attente d’examen et pour fermer automatiquement les appels sans examen. La formule de hiérarchisation des appels devrait inclure, comme c’est le cas pour le classificateur par recoupement, les facteurs de sensibilité du sujet et de probabilité de faux positifs. Le Conseil considérera que cela est appliqué lorsque Meta lui fera part de sa formule de priorisation des appels et des données qui montrent qu’elle assure l’examen des appels contre la suppression incorrecte de l’expression politique dans les contextes de protestation.
Transparence
5. Meta devrait annoncer toutes les tolérances ayant fait l’objet d’une remontée qu’elle applique, leur durée et leur préavis d’expiration, afin de donner aux personnes qui utilisent ses plateformes un préavis des modifications de politique autorisant une certaine expression, ainsi que des données complètes sur le nombre de tolérances « ayant fait l’objet d’une remontée » et « limitées » appliquées. Le Conseil considérera que cette recommandation a été suivie lorsque Meta lui démontrera qu’elle fournit des informations régulières et complètes.
6. L’explication publique de la tolérance d’intérêt médiatique dans l’Espace modération devrait (i) expliquer que les tolérances d’intérêt médiatique peuvent faire l’objet d’une remontée ou être limitées ; et (ii) fournir les critères utilisés par Meta pour déterminer quand faire remonter les tolérances d’intérêt médiatique. Le Conseil considérera que cette recommandation a été suivie lorsque Meta aura mis à jour l’explication publique de l’intérêt médiatique et publié des rapports de transparence contenant des informations suffisamment détaillées sur toutes les tolérances appliquées.
7. Meta devrait fournir une explication publique de la hiérarchisation et de la clôture automatiques des appels, notamment les critères de hiérarchisation et de clôture. Le Conseil considérera que cette recommandation a été suivie lorsque Meta publiera ces informations dans l’Espace modération.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en sciences sociales sur six continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. Memetica, un groupe d’investigations numériques fournissant des services de conseil en matière de risques et de renseignements sur les menaces pour atténuer les préjudices en ligne, a également fourni des recherches. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques