Renversé
Image de violence sexiste
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser en ligne une publication Facebook qui se moque d’une victime de violence sexiste.
Pour lire cette décision en sorani, cliquez ici.
بۆ خوێندنەوەی ئەم بڕیارە بە زمانی کوردیی سۆرانی، کرتە لێرە بکە.
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser en ligne une publication Facebook qui se moque d’une victime de violence sexiste. Bien que Meta ait reconnu que cette publication enfreint ses règles en matière d’intimidation et de harcèlement, le Conseil a remarqué qu’elles comportent une lacune, car elles semblent autoriser le contenu qui normalise la violence sexiste en utilisant des propos de nature élogieuse, justificative, glorificatrice ou moqueuse pour en parler (par exemple, dans les cas où la victime n’est pas identifiable, ou que l’image représente un personnage de fiction). Le Conseil recommande à Meta d’instaurer un processus d’élaboration de politiques afin de résoudre ce problème.
À propos du cas
En mai 2021, un utilisateur de Facebook en Irak a publié une photo accompagnée d’une légende en arabe. La photo montre une femme portant des traces visibles d’agression physique, notamment des hématomes sur le visage et sur le corps. La légende commence par mettre en garde les femmes sur le fait de commettre une erreur lorsqu’elles écrivent à leurs maris. Elle indique que la femme sur la photo a écrit une lettre à son mari qu’il aurait mal comprise en raison d’une erreur typographique qu’elle a commise. D’après la publication, l’époux pensait que sa femme lui demandait de lui apporter un « donkey » (âne), alors qu’en réalité elle lui réclamait un « veil » (voile). En arabe, les mots « donkey » (âne) et « veil » (voile) sont similaires (« حمار » et « خمار »). La publication sous-entend que l’erreur typographique qui a empêché son mari de comprendre sa lettre est la raison pour laquelle il l’a battue. Puis la légende déclare que cette femme a eu ce qu’elle méritait à la suite de cette erreur. Plusieurs emojis qui sourient et qui rigolent apparaissent tout au long de la publication.
La femme qui apparaît sur la photo est une activiste syrienne dont l’image a été partagée sur les réseaux sociaux par le passé. La légende ne révèle pas son nom, mais son visage est clairement visible. La publication inclut également un hashtag utilisé dans les conversations de soutien aux femmes en Syrie.
Au mois de février 2023, un utilisateur de Facebook a signalé le contenu à trois reprises pour non-respect du Standard de la communauté en matière de violence et d’incitation de Meta. Si aucun examen n’est mené sur le contenu dans les 48 heures, le signalement est automatiquement fermé, comme dans le cas qui nous préoccupe. Le contenu est resté sur la plateforme pendant environ deux ans et n’a été examiné par aucun modérateur humain.
L’utilisateur qui a signalé le contenu a fait appel de la décision de Meta auprès du Conseil de surveillance. Le Conseil ayant sélectionné ce cas, Meta en a conclu que le contenu enfreint la politique relative à l’intimidation et au harcèlement et a supprimé la publication.
Principales observations
Le Conseil estime que la publication enfreint la politique de Meta sur l’intimidation et le harcèlement, car elle se moque des graves blessures physiques de la femme sur la photo. Elle devrait par conséquent être supprimée.
Cependant, cette publication ne constituerait pas une violation des règles de Meta en matière d’intimidation et de harcèlement si la femme concernée n’était pas identifiable, ou si la même légende avait accompagné l’image d’un personnage de fiction. Le Conseil comprend en cela que les politiques existantes comportent une lacune qui semble autoriser le contenu qui normalise la violence sexiste. D’après Meta, un récent processus d’élaboration de politiques relatif à l’éloge des actes violents a été fortement axé sur l’identification des éventuelles lacunes existantes en matière de mise en application du traitement concernant l’éloge de la violence sexiste en vertu de plusieurs politiques. Dans le cadre de ce processus, Meta a tenu compte de la politique relative au problème des moqueries ou des plaisanteries sur la violence sexiste. Elle a déclaré au Conseil avoir estimé que la politique sur l’intimidation et le harcèlement englobe généralement ce type de contenu. Toutefois, comme les exemples susmentionnés l’indiquent, le Conseil considère que les politiques existantes et leur mise en application ne tient pas nécessairement compte de l’ensemble des contenus pertinents. Ce cas éveille également des inquiétudes sur la façon dont Meta met en œuvre ses règles en matière d’intimidation et de harcèlement. Le contenu en l’espèce, qui comportait la photographie d’une militante syrienne après une agression physique et a fait l’objet de plusieurs signalements par un utilisateur de Facebook, n’a pas été examiné par un modérateur humain. Cela semble indiquer que Meta ne priorise pas ce type d’infraction dans son processus d’examen.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
Le Conseil recommande à Meta les actions suivantes :
- Instaurer un processus d’élaboration de politiques afin d’établir une politique destinée à traiter le contenu qui normalise la violence sexiste en en faisant l’éloge, en la justifiant, en la glorifiant ou en la moquant.
- Apporter des précisions quant au fait que le terme « pathologie » énoncé dans le Standard de la communauté en matière d’intimidation et de harcèlement désigne également les « blessures physiques graves ».
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision initiale de Meta de laisser en ligne une publication Facebook qui se moque d’une victime de violence sexiste. Meta a reconnu que sa décision initiale était erronée, et que le contenu enfreint sa politique sur l’intimidation et le harcèlement. Le Conseil recommande à Meta d’instaurer un processus d’élaboration de politiques afin d’établir une politique destinée à traiter le contenu qui normalise la violence sexiste en en faisant l’éloge, en la justifiant, en la glorifiant ou en la moquant. Il comprend que Meta met en place un processus d’élaboration de politiques qui, entre autres problèmes, examine le traitement à accorder à l’éloge de la violence sexiste. Cette recommandation soutient une approche plus minutieuse visant à limiter les préjudices causés par la normalisation de la violence sexiste.
2. Description du cas et contexte
En mai 2021, un utilisateur de Facebook en Irak a publié une photo accompagnée d’une légende en arabe. La photo montre une femme portant des traces visibles d’agression physique, notamment des hématomes sur le visage et sur le corps. La légende commence par mettre en garde les femmes sur le fait de commettre des erreurs lorsqu’elles écrivent à leurs maris. Elle indique que la femme sur la photo a écrit une lettre à son mari qu’il aurait mal comprise en raison d’une erreur typographique qu’elle a commise. D’après la publication, l’époux pensait que sa femme lui demandait de lui apporter un « donkey » (âne), alors qu’en réalité elle lui réclamait un « veil » (voile). En arabe, les mots « donkey » (âne) et « veil » (voile) sont similaires (« حمار » et « خمار »). Puis la légende se moque de ce qui est arrivé à cette femme et en conclut qu’elle a eu ce qu’elle méritait à la suite de cette erreur. Plusieurs emojis qui sourient et qui rigolent apparaissent tout au long de la publication.
Plusieurs sources ont indiqué que la femme qui apparaît sur la photo est une militante syrienne qui avait été incarcérée par le régime de Bachar el-Assad et ensuite tabassée par des individus qui seraient affiliés à ce régime. Son image a été partagée sur les réseaux sociaux par le passé. La légende ne révèle pas son nom, mais son visage est clairement visible. La publication comporte également un hashtag qui, selon les spécialistes que le Conseil a consultés, est principalement utilisé sur les pages et les groupes de conversations soutenant les femmes en Syrie. La publication a été vue environ 20 000 fois et a suscité moins de 1 000 réactions.
Au mois de février 2023, un utilisateur de Facebook a signalé le contenu à trois reprises pour non-respect du Standard de la communauté en matière de violence et d’incitation. Les signalements ont été fermés sans examen manuel, laissant ainsi le contenu sur la plateforme. Meta a expliqué au Conseil qu’elle évalue une série de signaux afin de savoir comment prioriser le contenu qui nécessite un examen manuel, notamment la viralité du contenu et le niveau de gravité du type d’infraction selon l’entreprise. Si aucun examen n’est mené sur le contenu dans les 48 heures, le signalement est automatiquement fermé. Dans le cas présent, le contenu est resté sur la plateforme pendant environ deux ans avant d’être signalé une première fois. Suite à ce signalement, aucun examinateur manuel n’a procédé à son évaluation dans les 48 heures, ce qui a conduit à la fermeture automatique du signalement.
L’utilisateur qui a signalé le contenu a fait appel de la décision de Meta auprès du Conseil de surveillance. Le Conseil ayant sélectionné ce cas, Meta en a conclu que le contenu enfreint la politique relative à l’intimidation et au harcèlement et a supprimé la publication.
Le Conseil remarque le contexte suivant en parvenant à sa décision sur le cas présent. Ce contenu a été publié par un utilisateur en Irak. D’après l’Organisation mondiale de la Santé, plus de 1,32 million de personnes en Irak risqueraient d’être victimes de différentes formes de violence sexiste. La majorité d’entre elles sont des femmes et des adolescentes. Malgré les appels répétés des groupes de défense des femmes à légiférer en Irak afin de combattre la violence domestique, un projet de loi connexe reste est au point mort, et le code pénal actuel autorise les époux à punir leurs femmes dans l’exercice d’un droit légal et prononce des peines plus faibles en cas de meurtre lié à un « crime d’honneur ».
La militante sur la photo est originaire de Syrie. Les Nations Unies déclarent que « [p]lus d’une décennie de conflit en Syrie a eu un impact sexospécifique considérable sur les femmes et les filles ». Environ 7,3 millions de Syriens, dont une majorité écrasante de femmes et de filles, nécessitent une prise en charge spécifique suite à des actes de violence sexiste. Un cadre légal national inapproprié et des pratiques discriminatoires constituent des freins à la protection des femmes et entravent une reddition de comptes efficace concernant la violence perpétrée contre elles. ( Rapport de l’ONU sur la Syrie, pages 5-9) L’ONU fait état de l’impunité généralisée face aux poursuites engagées pour violence sexiste et de la stigmatisation des victimes ou survivantes de violence sexiste, qui conduisent à une ostracisation et d’autres restrictions à la participation des femmes à la vie publique. Le régime a ciblé les femmes associées à l’opposition, en les soumettant à la torture et aux abus sexuels.
Une étude menée par ONU Femmes a constaté qu’environ la moitié (49 %) des utilisatrices d’Internet vivant dans huit nations de la Ligue des États arabes ont déclaré ne pas se sentir en sécurité en raison du harcèlement en ligne. D’après la même étude, « 33 % des femmes qui ont vécu de la violence en ligne expliquent/ont expliqué que certaines ou l’ensemble de ces expériences se sont également produites en dehors d’Internet ». La définition de la violence en ligne recouvre la réception d’images ou de symboles indésirables à connotation sexuelle, d’appels téléphoniques ennuyeux, de communications inappropriées ou non sollicitées, et de messages insultants et/ou haineux. Le Secrétaire général des Nations Unies a indiqué dans l’un de ses rapports que la violence en ligne « empêche les femmes de participer équitablement et utilement à la vie publique en les soumettant à l’humiliation, à la honte, à la peur et au silence. Cet « effet paralysant » décourage les femmes de participer activement à la vie publique. » ( A/77/302, paragraphe 22)
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil a le pouvoir d’examiner la décision de Meta à la suite d’un appel interjeté par la personne qui a précédemment signalé un contenu laissé sur la plateforme (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît par la suite avoir commis une erreur, il réexamine la décision initiale afin de mieux comprendre le processus de modération du contenu et de formuler des recommandations visant à réduire les erreurs et à traiter les utilisateurs de Facebook et d’Instagram de manière plus équitable.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance :
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent les cas suivants :
- Dessin animé de Knin, 2022-001-FB-UA.
- Insultes sud-africaines, 2021-011-FB-UA.
- Manifestations pro-Navalny en Russie, 2021-004-FB-UA.
- Représentation de Zwarte Piet, 2021-002-FB-UA.
- Arméniens d’Azerbaïdjan, 2020-003-FB-UA.
II. Règles de Meta relatives au contenu :
Le Standard de la communauté en matière d’intimidation et de harcèlement vise à protéger les individus contre les menaces et les différentes formes de contact malveillant sur la plateforme de Meta. Selon la justification de la Politique de Meta, un tel comportement « empêche les personnes de se sentir en sécurité et respectées sur Facebook ». Le Standard de la communauté est réparti en différents niveaux et fournit une protection supplémentaire aux particuliers et aux personnalités publiques à portée limitée par rapport aux personnalités publiques.
Au moment où Meta a examiné le contenu et où le Conseil a commencé son évaluation, le niveau 4 du Standard de la communauté en matière d’intimidation et de harcèlement interdisait de cibler les particuliers et les personnalités publiques à portée limitée avec du « contenu qui fait l’éloge, glorifie ou se moque de leur décès ou de leurs graves blessures physiques ». Le Standard de la communauté définit les personnalités publiques à portée limitée comme des « personnes dont la notoriété principale se limite à leur militantisme ou au journalisme, ou celles qui deviennent célèbres par des moyens involontaires. » Meta a communiqué cette définition au public en réponse à la recommandation du Conseil dans le cas Manifestations pro-Navalny en Russie, 2021-004-FB-UA. Les conseils internes de Meta pour les modérateurs de contenu définissent la « moquerie » comme une « tentative de se moquer, de rire ou de dénigrer une personne ou une chose ».
Le 29 juin, Meta a mis à jour son Standard de la communauté. En vertu du niveau 1 de la politique actuelle, chaque personne est protégée contre « la glorification ou la moquerie de son décès ou pathologie ».
L’analyse du Conseil s’est appuyée sur l’engagement de Meta en faveur de la « liberté d’expression », que l’entreprise qualifie de « primordial », et sur ses valeurs de « sécurité » et « dignité ».
III. Responsabilités de Meta en matière de droits de l’homme
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU.
L’analyse du Conseil sur les responsabilités de Meta en matière de droits de l’homme en l’espèce s’est appuyée sur les standards internationaux suivants :
- Le droit à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019) ; et la Déclaration conjointe sur la liberté d’expression et la justice en matière d’égalité des genres, Rapporteurs spéciaux sur la liberté d’opinion et d’expression des Nations Unies (ONU), l’Organisation pour la sécurité et la coopération en Europe (OSCE), l’Organisation des États américains (OAS), la Commission africaine des droits de l’homme et des peuples (ACHPR) (2022).
- Le droit à la non-discrimination : l’article 2, paragraphe 1 du PIDCP ; l’article 1 et l’article 7 (non-discrimination dans le cadre de la participation à la vie politique et publique du pays), l’article 4(1) et l’article 5(a) de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDAW) et l’article 8 de la Déclaration sur les défenseurs des droits de l’homme relative au droit d’accès effectif, sur une base non discriminatoire, à la participation à la conduite des affaires publiques ; la Résolution 35/18 du Conseil des droits de l’homme, 2017 ; le rapport du Rapporteur spécial sur la situation des défenseurs des droits de l’homme : A/HRC/40/60 (2019) ; le rapport du Rapporteur spécial sur la violence contre les femmes, ses causes et ses conséquences : A/HRC/38/47 (2018).
5. Soumissions de l’utilisateur
Suite au signalement déposé par un utilisateur de Facebook concernant le contenu et à son appel auprès du Conseil de surveillance, l’utilisateur à l’origine du contenu et l’utilisateur qui l’a signalé ont reçu un message les informant de l’examen du Conseil et ont eu la possibilité de faire une déclaration auprès du Conseil. Ni l’un ni l’autre n’a soumis de déclaration.
6. Soumissions de Meta
Dans la justification de sa décision, Meta a expliqué que le contenu aurait dû être supprimé de Facebook pour infraction à sa politique sur l’intimidation et le harcèlement.
L’équipe régionale de Meta a identifié la femme sur la photo comme étant une militante syrienne connue qui a été incarcérée en raison de son militantisme. D’après Meta, la photo de la publication montre cette militante après son tabassage par des individus affiliés au régime de Bachar el-Assad.
En vertu de la politique en vigueur à l’époque, Meta a déclaré considérer que le contenu se moque des graves blessures physiques de cette femme, et que par conséquent il enfreint la politique. Meta estime qu’il s’agit d’une personnalité publique à portée limitée, car sa notoriété principale ne dépasse pas le cadre militant. L’entreprise comprend que le contenu se moque de ses blessures et qu’il sous-entend qu’elle « brought them upon herself due to “karma”. » (a été blessée en raison de son « karma »). Meta affirme que le contenu « imagine » une histoire selon laquelle elle a mal rédigé une lettre, ce qui laisse à penser qu’elle est peu intelligente, alors qu’en réalité ses blessures lui ont été infligées au cours d’une violente attaque.
Après avoir mis à jour sa politique, Meta a indiqué au Conseil que le contenu reste en infraction, et que ladite mise à jour n’influence pas les mesures de protection réelle qu’elle fournit à la femme sur la photo. Meta déclare que « [l]a mise à jour de sa politique relative à l’intimidation et au harcèlement visait à la rationaliser. Elle n’a pas modifié les mesures de protection octroyées aux personnalités publiques à portée limitée, comme la femme dans le cas présent. La limite pertinente en fonction de laquelle [Meta] a supprimé ce contenu résidait initialement dans le niveau 4 de la politique, mais suite à la mise à jour il fait à présent partie du niveau 1 ».
Le Conseil a posé 11 questions par écrit à Meta. Ces questions portaient sur les sujets suivants : les politiques en vigueur chez Meta pour traiter le contenu qui montre de la violence sexiste, la façon dont Meta applique sa politique sur l’intimidation et le harcèlement, et les recherches menées sur les représentations de la violence sexiste sur les réseaux sociaux et les préjudices hors ligne. Meta a répondu à dix questions et n’a pas répondu à une question concernant les données de mise en application régionale de la politique sur l’intimidation et le harcèlement.
7. Commentaires publics
Le Conseil de surveillance a reçu 19 commentaires publics sur ce cas. Trois commentaires ont été soumis du Moyen-Orient et d’Afrique du Nord, deux d’Asie centrale et du Sud, deux d’Asie-Pacifique et d’Océanie, trois d’Europe, huit des États-Unis et du Canada et un d’Amérique latine et des Caraïbes.
Les signalements portaient sur les thèmes suivants : le harcèlement en ligne et le ciblage des femmes militantes et des personnalités publiques, les graves conséquences de la dimension numérique de la violence sexiste sur la sécurité, la santé physique et psychologique ainsi que la dignité des femmes, et la difficulté à porter la violence en ligne perpétrée contre les femmes à l’attention des modérateurs de contenu qui peuvent ne pas comprendre le dialecte régional concerné.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a examiné si ce contenu devait être supprimé en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits de l’homme et ses valeurs. Le Conseil a également évalué les implications de ce cas sur l’approche plus large de Meta face à la gouvernance du contenu, en apportant des recommandations pour favoriser une meilleure observation des responsabilités de Meta en matière de droits de l’homme à travers ces politiques et processus de mise en application.
Il a sélectionné cet appel car il offre la possibilité d’explorer la façon dont les politiques de Meta et leur mise en application traitent le contenu qui cible les défenseuses des droits de l’homme et le contenu qui se moque de la violence sexiste, qui constituent des problématiques sur lesquelles le Conseil se concentre dans le cadre de sa priorité stratégique liée au genre.
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Le Conseil considère que la publication enfreint la politique de Meta sur l’intimidation et le harcèlement, avant ou après sa mise à jour, et doit être supprimée. L’association de la légende de la publication et de l’image enfreint la politique de Meta, car elle se moque des graves blessures physiques ou de la pathologie de la femme sur la photo.
Les conseils internes de Meta pour les modérateurs de contenu définissent la « moquerie » comme une « tentative de se moquer, de rire ou de dénigrer une personne ou une chose ». Sous la forme d’une plaisanterie, le contenu sous-entend que cette femme a mérité d’être frappée car elle a commis une erreur typographique dans la lettre adressée à son mari.
D’après Meta, les conseils internes présentés aux modérateurs de contenu prévoient que les « blessures graves » appartiennent à la catégorie « pathologie ». Avant la mise à jour du 29 juin, la politique publique interdisait de se moquer des « blessures physiques graves » d’un particulier ou d’une personnalité publique à portée limitée, tandis que les conseils internes fournis aux modérateurs interdisaient de se moquer de sa « pathologie ». Le Conseil a interrogé Meta sur la discordance des termes utilisés dans sa politique publique et ses conseils internes. Meta a reconnu cette incohérence et a modifié sa politique publique afin qu’elle fasse référence au même terme que dans les conseils internes.
Le Conseil estime que la publication peut être interprétée de différentes façons plausibles. La femme sur la photo peut être prise pour cible en tant que défenseuse des droits de l’homme ou victime d’abus, voire les deux. Les interprétations possibles sont analysées ci-après. Indépendamment de l’interprétation, du genre de la personne concernée et du caractère sexospécifique de la moquerie, la politique est ici en infraction simplement car la personne est identifiable.
II. Mesures de mise en application
Le Conseil est préoccupé par les éventuels défis que pose la mise en application de ce Standard de la communauté. Tout d’abord, le contenu en l’espèce, qui comportait la photographie d’une militante syrienne après une agression physique et a fait l’objet de plusieurs signalements par un utilisateur de Facebook, n’a pas été examiné par un modérateur humain. Cela semble indiquer que ce type d’infraction n’est pas examiné en priorité. Ensuite, le Conseil émet des inquiétudes quant au fait que la mise en application de la politique, notamment lorsqu’elle nécessite d’analyser à la fois une image et une légende, s’avère problématique pour le contenu en langue arabe. Comme le Conseil l’a précédemment expliqué, Meta tient compte d’une combinaison de modérateurs humains et d’outils de machine learning désignés « classificateurs » en vue d’appliquer ses Standards de la communauté. (Voir le cas Collier de wampum, 2021-012-FB-UA). Dans le cas présent, Meta a informé le Conseil qu’elle dispose d’un classificateur qui cible l’intimidation et le harcèlement pour la « langue arabe générale ».
Le Conseil remarque que le rapport indépendant de diligence raisonnable en matière de droits de l’homme publié par BSR, que Meta a commandé afin de répondre à la recommandation du Conseil dans un cas précédent, a constaté des problèmes dans la mise en application de la politique de Meta en arabe. Ce rapport a indiqué que les problèmes de mise en application que rencontre l’entreprise peuvent provenir d’une sensibilité inadaptée aux différents dialectes en arabe. Le Conseil s’inquiète du fait que, en raison des conclusions du rapport indépendant de diligence raisonnable en matière de droits de l’homme et du défaut d’application dans le cas présent, les parcours proactifs et réactifs puissent entraver la mise en application efficace de cette politique dans la région. Le manque de transparence des audits des classificateurs chargés de mettre en place cette politique est une autre source de préoccupation pour le Conseil.
8.2 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil considère que la décision initiale de Meta de laisser la publication en ligne n’était pas conforme aux responsabilités en matière de droits de l’homme qui lui incombe en tant qu’entreprise.
Liberté d’expression (article 19 du PIDCP)
L’article 19, paragraphe 2 du Pacte international relatif aux droits civils et politiques (PIDCP) prévoit que « toute personne a droit à la liberté d’expression ; ce droit comprend la liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce, sans considération de frontières, sous une forme orale, écrite, imprimée ou artistique, ou par tout autre moyen de son choix. » L’article 19 accorde une protection étendue de la liberté d’expression, y compris la liberté d’expression que les personnes peuvent considérer comme profondément offensantes (observation générale 34, paragraphe 11).
Si le droit à la liberté d’expression est fondamental, il n’est pas absolu. Il peut être restreint, mais les restrictions doivent remplir des critères de légalité, d’objectif légitime, de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Le Conseil a reconnu que si le PIDCP ne crée pas d’obligations pour Meta comme c’est le cas pour les États, Meta s’est engagée à respecter les droits de l’homme tels qu’ils sont énoncés dans les Principes directeurs de l’ONU. ( A/74/486, paragraphes. 47-48). Les politiques de Meta interdisent les formes spécifiques d’expression discriminatoire et haineuse, en l’absence d’un critère selon lequel chaque contenu individuel encourage une violence ou une discrimination directe et imminente. Le Rapporteur spécial sur la liberté d’expression a constaté que sur les réseaux sociaux, « l’ampleur et la complexité de la lutte contre l’expression de la haine soulèvent des défis à long terme » ( A/HRC/38/35, paragraphe 28). Le Conseil, en s’appuyant sur les conseils du Rapporteur spécial, a précédemment expliqué que de telles interdictions susciteraient des inquiétudes si un gouvernement les imposaient, notamment par le biais de sanctions pénales ou civiles. Ainsi que le Conseil l’a indiqué dans les décisions liées aux cas Dessin animé de Knin, Représentation de Zwarte Piet, et Insultes sud-africaines, Meta est en mesure de réguler la liberté d’expression, en démontrant la nécessité et la proportionnalité de ses actions en raison des préjudices qui découlent de l’accumulation des contenus.
I. Légalité (clarté et accessibilité des règles)
Toute restriction à la liberté d’expression doit être accessible et suffisamment claire, dans sa portée, sa signification et ses effets, pour indiquer aux utilisateurs et aux examinateurs de contenu quels sont les contenus autorisés sur la plateforme et quels sont ceux qui ne le sont pas. Le manque de clarté ou de précision peut conduire à une application incohérente et arbitraire des règles ( observation générale 34, paragraphe 25 ; A/HRC/38/35, paragraphe 46).
Le Conseil remarque que Meta a modifié le Standard de la communauté le 29 juin afin d’assurer la conformité de la terminologie utilisée dans son Standard de la communauté public en matière d’intimidation et de harcèlement et ses conseils internes fournis aux modérateurs de contenu. Avant ce changement, le Standard de la communauté interdisait le contenu qui se moquait des « blessures physiques graves » tandis que les conseils internes interdisaient de se moquer de la « pathologie ». Meta considère que « pathologie » constitue le terme plus large. Le Conseil est satisfait de cette mise à jour car l’utilisation de termes différents peut entraîner une certaine confusion et une mise en application incohérente. Le Conseil craint toutefois que les utilisateurs ne comprennent pas que « pathologie » inclut les « blessures physiques graves » et recommande à Meta de bien leur expliquer.
II. Objectif légitime
Les restrictions des États en matière de liberté d’expression devraient poursuivre un objectif légitime, qui comprend la protection des droits d’autrui. Le Conseil des droits de l’homme a interprété le terme « droits » comme incluant les droits de l’homme tels qu’ils sont reconnus dans le PIDCP et plus généralement dans le droit international lié aux droits de l’homme ( observation générale 34, paragraphe 28).
Le Conseil estime que la politique de Meta en matière d’intimidation et de harcèlement vise l’objectif légitime de respecter les droits d’autrui, notamment le droit à l’égalité et à la non-discrimination, et à la liberté d’expression. Ces politiques cherchent également à atteindre l’objectif légitime de prévenir les préjudices causés par l’intimidation et le harcèlement, la discrimination basée sur le sexe ou le genre, et de respecter la liberté d’expression et l’accès à la plateforme de Meta pour les personnes prises pour cible par cette expression. Ces objectifs sont liés, car d’après la Déclaration conjointe sur la liberté d’expression et la justice en matière d’égalité des genres, la « violence en ligne à l’égard des femmes revêt une importance particulière pour la liberté d’expression » et « les plateformes de réseaux sociaux ont l’obligation de veiller à ce que les espaces en ligne soient sécurisés pour toutes les femmes, et exempts de discrimination, violence, haine et désinformation. »
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; elles doivent être proportionnées à l’intérêt à protéger » ( observation générale 34, paragraphe 34).
Dans le cadre de l’entreprise, le Conseil considère que la politique de Meta en vertu de laquelle ce contenu aurait dû être supprimé, constitue une réponse nécessaire et proportionnée afin de protéger les utilisateurs contre l’intimidation et le harcèlement ciblés en ligne. La politique observe le droit égal à la liberté d’expression des défenseuses des droits de l’homme qui sont souvent contraintes de quitter la plateforme en raison d’un tel harcèlement. Le Rapporteur spécial sur la violence contre les femmes a déclaré que les « [f]emmes se consacrant à la défense des droits de l’homme, les femmes journalistes et les femmes politiques sont directement prises pour cibles, menacées, harcelées voire assassinées à cause de leur travail. Elles reçoivent des menaces en ligne, en général à caractère misogyne, souvent sexualisées et sexistes. La violence de ces menaces conduit souvent à l’autocensure. D’autres encore décident de suspendre, de désactiver ou de supprimer définitivement leurs comptes en ligne, ou vont jusqu’à renoncer à leur métier » ( A/HRC/38/47 paragraphe 29).
Le Rapporteur spécial sur la situation des défenseurs des droits de l’homme a identifié des pratiques et des préjudices similaires qui visent notamment les femmes : « Les défenseuses des droits de la personne font souvent l’objet de harcèlement, de violences et d’attaques en ligne, notamment de menaces de violence sexuelle, d’insultes verbales, de calomnie sexuelle et de « doxing » (la publication sur Internet d’informations à caractère privé) ou d’humiliations publiques. Ces atteintes sont commises dans des commentaires sur des articles d’actualité et des blogs, sur des sites Web et par l’intermédiaire de médias sociaux. La terreur et la calomnie en ligne auxquelles les femmes sont soumises peuvent également conduire à des agressions physiques. » ( A/HRC/40/60 (2019) paragraphe 45). D’après une étude menée par ONU Femmes, 70 % des militantes et des défenseuses des droits de l’homme dans des États arabes ont déclaré ne pas se sentir en sécurité à cause du harcèlement en ligne. En ce sens, les femmes qui participent à la vie publique en militant ou en se présentant à des élections font l’objet d’attaques ciblées en ligne de façon disproportionnée, ce qui peut entraîner l’auto-censure et même le retrait de la vie publique.
Le Conseil juge que cette publication se moque de la femme sur la photo en utilisant une plaisanterie genrée afin de la dénigrer, en sous-entendant qu’elle méritait d’être attaquée physiquement. Ce type de harcèlement en ligne est courant, et décourage les femmes à s’exprimer et à prendre part à la vie publique. Il peut également s’accompagner d’attaques physiques. C’est pourquoi il est nécessaire de supprimer ce contenu, car des mesures moins restrictives n’empêcheraient pas la propagation de son image associée à une plaisanterie visant à la dénigrer.
Le Conseil estime également que cette publication s’adresse plus globalement aux femmes et aux filles. Il normalise la violence sexiste en sous-entendant que les attaques physiques contre les femmes sont amusantes et que les hommes ont le droit d’utiliser la violence. L’utilisation du hashtag indique également l’intention de l’utilisateur d’atteindre un groupe de femmes plus large que la seule femme apparaissant sur la photo. Le Rapporteur spécial sur la violence contre les femmes établit un lien entre le ciblage des femmes dans la vie publique et l’intimidation plus globale des femmes : Outre leurs effets sur les individus, la violence en ligne et la violence facilitée par les TIC fondée sur le genre ont pour principale conséquence une société dans laquelle les femmes ne se sentent plus en sécurité ni en ligne ni hors ligne à cause de l’impunité généralisée dont jouissent les auteurs de telles violences. » ( A/HRC/38/47, paragraphe 29 ; A/HRC/RES/35/18, paragraphe 4, exhortant les États à résoudre les stéréotypes de genre qui constituent l’une des causes principales de la violence faite aux femmes et de leur discrimination).
Le Conseil constate avec inquiétude que les politiques existantes de Meta ne traitent pas correctement le contenu qui normalise la violence sexiste en en faisant l’éloge ou en sous-entendant qu’elle est méritée. Le contenu analysé dans le cas présent a été examiné en vertu de la politique relative à l’intimidation et au harcèlement. Cette politique n’est toutefois pas toujours adaptée pour limiter les préjudices causés par les contenus qui, en faisant référence à la violence sexiste de façon plus générale, exacerbent la discrimination et l’exclusion des femmes de la sphère publique en ligne et hors ligne. Cette même publication ne constituerait pas une violation de la politique sur l’intimidation et le harcèlement si la femme sur la photo n’était pas identifiable, ou si la même légende avait accompagné l’image d’un personnage de fiction. Meta considère que ce contenu n’enfreint pas sa politique relative au discours haineux car elle « ne cible pas une personne ni un groupe de personnes en raison de leurs caractéristiques protégées ». Le Conseil comprend en cela que les politiques existantes comportent une lacune qui semble autoriser le contenu discriminatoire, notamment le contenu qui normalise la violence sexiste, à rester et à être partagé sur la plateforme.
D’après Meta, un récent processus d’élaboration de politiques relatif à l’éloge des actes violents a été fortement axé sur l’identification des éventuelles lacunes existantes en matière de mise en application du traitement concernant l’éloge de la violence sexiste en vertu de plusieurs politiques. Dans le cadre de ce processus, Meta a tenu compte de la politique relative au problème des moqueries ou des plaisanteries sur la violence sexiste. Elle a déclaré au Conseil avoir estimé que la politique sur l’intimidation et le harcèlement englobe généralement ce type de contenu. Toutefois, comme les exemples susmentionnés l’indiquent, le Conseil considère que les politiques existantes et leur mise en application ne tient pas nécessairement compte de l’ensemble des contenus pertinents.
Le Rapporteur spécial sur la violence contre les femmes indique que la « [v]iolence contre les femmes est une forme de discrimination à leur égard et une violation des droits de l’être humain tombant sous le coup de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes » ( A/HRC/38/47, paragraphe 22). La violence en ligne contre les femmes inclut « tout acte de violence fondée sur le genre qui est commis, facilité ou aggravé pleinement ou partiellement par l’utilisation des TIC, […] et qui vise une femme parce qu’elle est une femme ou touche spécialement la femme. » ( A/HRC/38/47, paragraphe 23). Le Comité pour l’élimination de la discrimination à l’égard des femmes (un organe de l’ONU composé d’experts indépendants qui gère la mise en place de la Convention), observation générale 35, a appelé les États à adopter des mesures préventives, notamment en encourageant les entreprises de réseaux sociaux à consolider leurs mécanismes d’autoréglementation et à « aborder le sujet de la violence à l’égard des femmes fondée sur le genre sur leurs services et plateformes » ( CEDAW/C/GC/35, paragraphe 30(d)).
Le contenu qui normalise la violence sexiste en en faisant l’éloge ou en sous-entendant qu’elle est logique ou méritée, valide la violence et cherche à intimider les femmes, notamment celles qui souhaitent prendre part à la vie publique (voir commentaire public de Digital Rights Foundation, PC-11226). Le message transmis par l’accumulation de ce type de contenus est que la violence est acceptable et peut être utilisée afin de réprimer les transgressions des normes de genre. Bien que peu d’études universitaires démontrent le lien de causalité, plusieursétudes ont fait état d’un lien entre la normalisation de la violence sexiste et l’augmentation de sa survenue.
Dans de nombreux cas précédents, le Conseil a reconnu comment certains contenus qui peuvent s’avérer discriminatoires ( Représentation de Zwarte Piet, 2021-002-FB-UA) ou ( Dessin animé de Knin haineux, 2022-001-FB-UA, Insultes sud-africaines, 2021-011-FB-UA) sont passibles d’une suppression en raison de leur effet cumulatif, sans devoir démontrer la capacité de chaque contenu à occasionner des blessures physiques directes et imminentes. Le Conseil a également remarqué que l’accumulation de contenus nuisibles crée un environnement dans lequel les actes de discrimination et de violence sont davantage probables ( Représentation de Zwarte Piet, 2021-002-FB-UA).
Le Rapporteur spécial de l’ONU sur la violence contre les femmes a souligné l’importance du rôle que les réseaux sociaux jouent dans la gestion de la violence sexiste et la nécessité d’élaborer des politiques et des pratiques liées aux TIC en comprenant bien le « contexte plus large de discrimination et de violence fondée sur le genre structurelles, systémiques et généralisées à l’égard des femmes et des filles, qui détermine la manière dont elles accèdent à Internet et aux autres TIC et les utilisent. » (A/HRC/38/47, paragraphe 14). Les stéréotypes de genre font la promotion de la violence et des réponses inadéquates à y apporter, perpétuant encore davantage cette discrimination. Dans certains cas, le Comité pour l’élimination de la discrimination à l’égard des femmes a constaté que lorsque les autorités étatiques agissent sur les stéréotypes de genre dans leur processus décisionnel, l’État ne parvient pas à prévenir ni à gérer efficacement la violence sexiste (voir Belousova vs Kazakhstan, R.P.B. vs Philippines ; Jallow vs Bulgarie (paragraphe 8.6) ; et L.R. vs République de Moldavie.).
Dans un contexte plus large de discrimination et de violence sexiste, il incombe à Meta de ne pas exacerber les menaces de blessures physiques ni l’entrave de l’expression et de la participation des femmes dans la société. Les contenus similaires à la présente publication normalisent la violence sexiste en dénigrant les femmes et en banalisant, excusant ou encourageant à la fois les agressions publiques et la violence domestique. L’effet cumulatif des contenus qui normalisent la violence sexiste pour encourager ou défendre le recours à la violence, ainsi que les préjudices à l’encontre des droits des femmes et la perpétuation d’un environnement d’impunité font, lorsqu’ils sont réunis, courir un risque exacerbé de violence hors ligne, d’auto-censure et de retrait des femmes de la vie publique. Le Conseil recommande donc à Meta d’instaurer un processus d’élaboration de politiques afin d’établir une politique destinée à traiter le contenu qui normalise la violence sexiste en en faisant l’éloge, en la justifiant, en la glorifiant ou en la moquant.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
10. Recommandations
A. Politique de contenu
1. À des fins de précision pour les utilisateurs, Meta doit expliquer que le terme « pathologie » énoncé dans le Standard de la communauté en matière d’intimidation et de harcèlement désigne également les « blessures physiques graves ». Bien que les conseils internes expliquent aux modérateurs de contenu que « pathologie » inclut les « blessures physiques graves », cette explication n’est pas fournie aux utilisateurs de Meta.
Le Conseil estimera que cette recommandation a été suivie lorsque le langage public du Standard de la communauté aura été modifié pour inclure cette précision.
2. Le Conseil recommande à Meta d’instaurer un processus d’élaboration de politiques afin d’établir une politique destinée à traiter le contenu qui normalise la violence sexiste en en faisant l’éloge, en la justifiant, en la glorifiant ou en la moquant. Il comprend que Meta met en place un processus d’élaboration de politiques qui, entre autres problèmes, examine le traitement à accorder à l’éloge de la violence sexiste. Cette recommandation soutient une approche plus minutieuse visant à limiter les préjudices causés par la normalisation de la violence sexiste.
Le Conseil estimera que cette recommandation a été suivie lorsque Meta aura publié les résultats de ce processus d’élaboration de politiques et aura mis à jour ses Standards de la communauté.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 spécialistes en sciences sociales sur 6 continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. Memetica, une organisation qui effectue des recherches open-source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques