Décision sur plusieurs affaires
Identité de genre et nudité
Le Conseil de surveillance a annulé les décisions initiales de Meta de supprimer deux publications d’Instagram représentant des personnes transgenres et non binaires à la poitrine nue.
2 cas inclus dans ce lot
IG-AZHWJWBW
Cas de sollicitation sexuelle sur Instagram
IG-PAVVDAFF
Cas de sollicitation sexuelle sur Instagram
Résumé du cas
Le Conseil de surveillance a annulé les décisions initiales de Meta de supprimer deux publications d’Instagram représentant des personnes transgenres et non binaires à la poitrine nue. Il recommande également à Meta de modifier son Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes afin qu’il soit régi par des critères clairs qui respectent les normes internationales en matière de droits de l’homme.
À propos du cas
Dans cette décision, le Conseil de surveillance examine pour la première fois deux cas ensemble. Deux contenus distincts ont été publiés par le même compte Instagram, l’un en 2021, l’autre en 2022. Le compte est géré par un couple basé aux États-Unis qui s’identifie comme transgenre et non binaire.
Les deux publications présentent des images du couple poitrine nue et tétons couverts. Les légendes des images traitent des soins de santé pour les personnes transgenres et indiquent que l’un des membres du couple va bientôt subir une chirurgie du haut (chirurgie d’affirmation du genre visant à créer une poitrine plus plate) et que le couple a lancé une collecte de fonds pour la financer.
À la suite d’une série d’alertes émises par les systèmes automatisés de Meta et de rapports d’utilisateurs, les publications ont été examinées à plusieurs reprises afin de détecter d’éventuelles infractions à divers Standards de la communauté. Meta a finalement supprimé les deux publications pour infraction au Standard de la communauté relatif à la sollicitation sexuelle, car elles contiennent apparemment des seins et un lien vers une page de collecte de fonds.
Les utilisateurs ont fait appel auprès de Meta, puis auprès du Conseil. Après que le Conseil a accepté les cas, Meta a découvert qu’elle avait supprimé les publications par erreur et les a rétablies.
Principales observations
Le Conseil de surveillance estime que la suppression de ces publications n’est pas conforme aux Standards de la communauté, aux valeurs ni aux responsabilités en matière de droits de l’homme de Meta. Ces cas mettent également en lumière les problèmes fondamentaux des politiques de Meta.
Les directives internes de Meta à l’intention des modérateurs sur les cas où il faut supprimer du contenu en vertu de la politique de sollicitation sexuelle sont beaucoup plus larges que la raison d’être de cette politique ou que les directives accessibles au public. Cela crée une confusion pour les utilisateurs et les modérateurs et, comme Meta l’a reconnu, conduit à la suppression de contenus à tort.
Dans au moins un des cas, la publication a été envoyée pour examen manuel par un système automatisé formé pour faire respecter le Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes. Ce Standard interdit les images contenant des mamelons féminins, sauf dans des circonstances précises, comme l’allaitement et la chirurgie de confirmation du genre.
Cette politique se fonde sur une vision binaire du genre et sur une distinction entre les corps masculins et féminins. Une telle approche ne permet pas de savoir comment les règles s’appliquent aux personnes intersexuées, non binaires et transgenres, et exige des équipes d’examen qu’elles procèdent à des évaluations rapides et subjectives du sexe et du genre, ce qui n’est pas pratique lorsqu’il s’agit de modérer du contenu à grande échelle.
Les restrictions et les exceptions aux règles relatives aux mamelons féminins sont nombreuses et déroutantes, en particulier lorsqu’elles s’appliquent aux personnes transgenres et non binaires. Les exceptions à cette politique vont des manifestations aux scènes d’accouchement, en passant par les contextes médicaux et sanitaires, notamment la chirurgie de la poitrine et la sensibilisation au cancer du sein. Ces exceptions sont souvent alambiquées et mal définies. Dans certains contextes, par exemple, les modérateurs doivent évaluer l’étendue et la nature des cicatrices visibles pour déterminer si certaines exceptions s’appliquent. Le manque de clarté inhérent à cette politique crée une incertitude pour les utilisateurs et les équipes d’examen, et la rend inapplicable dans la pratique.
Le Conseil a toujours dit que Meta devait être sensible à l’impact de ses politiques sur les personnes victimes de discrimination (voir, par exemple, les décisions sur le « Collier de wampum » et la « Réappropriation de mots arabes »). En l’espèce, le Conseil estime que les politiques de Meta en matière de nudité chez les adultes entraînent des obstacles plus importants à l’expression des femmes, des personnes trans et des personnes non binaires sur ses plateformes. Par exemple, elles ont un impact important dans des contextes où les femmes peuvent traditionnellement se montrer torse nu, et les personnes qui s’identifient comme LGBTQI+ peuvent être affectées de manière disproportionnée, comme le montrent ces cas. Les systèmes automatisés de Meta ont identifié le contenu à plusieurs reprises, bien qu’il ne viole pas les politiques de Meta.
Meta devrait s’efforcer d’élaborer et de mettre en œuvre des politiques qui répondent à toutes ces préoccupations. Elle devrait modifier son approche de la gestion de la nudité sur ses plateformes en définissant des critères clairs pour régir la politique relative à la nudité et aux activités sexuelles des adultes, qui garantissent que tous les utilisateurs sont traités d’une manière conforme aux normes en matière de droits de l’homme. Elle devrait également examiner si la politique relative à la nudité et aux activités sexuelles des adultes protège contre le partage non consenti d’images, et si d’autres politiques doivent être renforcées à cet égard.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta visant à supprimer les publications.
Le Conseil recommande également à Meta de :
- Définir des critères clairs, objectifs et respectueux des droits pour régir son Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes, afin que toutes les personnes soient traitées d’une manière conforme aux normes internationales en matière de droits de l’homme, sans discrimination fondée sur le sexe ou le genre. Meta devrait d’abord réaliser une évaluation complète de l’impact sur les droits de l’homme d’une telle modification, en impliquant diverses parties prenantes, et créer un plan pour remédier à tout préjudice identifié.
- Fournir plus de détails, dans son Standard de la communauté relatif à la sollicitation sexuelle accessible au public, sur les critères qui conduisent à la suppression d’un contenu.
- Réviser ses conseils aux modérateurs sur le Standard de la communauté relatif à la sollicitation sexuelle afin qu’il reflète plus fidèlement les règles publiques sur cette politique. Cela permettrait de réduire les erreurs de mise en application de la part de Meta.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Comité de surveillance annule les décisions initiales de Meta dans deux cas de suppression de publications Instagram par Meta. Meta a reconnu que ses décisions initiales dans les deux cas étaient erronées. Ces cas soulèvent d’importantes préoccupations quant à l’impact disproportionné des politiques de Meta sur les droits expressifs des femmes et des utilisateurs LGBTQI+ de ses plateformes. Le Conseil recommande à Meta de définir des critères clairs, objectifs et respectueux des droits pour régir l’ensemble de sa politique relative à la nudité et aux activités sexuelles des adultes, en garantissant l’égalité de traitement de toutes les personnes, conformément aux normes internationales en matière de droits de l’homme, et en évitant toute discrimination fondée sur le sexe ou l’identité de genre. Meta devrait d’abord mener une évaluation complète de l’impact sur les droits de l’homme afin d’examiner les implications de l’adoption de ces critères, ce qui inclut un engagement largement inclusif des parties prenantes dans divers contextes idéologiques, géographiques et culturels. Dans la mesure où cette évaluation devrait permettre d’identifier tout préjudice potentiel, la mise en œuvre de la nouvelle politique devrait inclure un plan d’atténuation pour y remédier.
Le Conseil recommande en outre à Meta de clarifier sa politique en matière de sollicitation sexuelle destinée au public et de préciser ses directives internes de mise en application afin de mieux cibler ces infractions.
2. Description du cas et contexte
Ces cas concernent deux décisions de contenu prises par Meta, que le Conseil de surveillance traite ensemble dans la présente décision. Deux images distinctes accompagnées de légendes ont été publiées sur Instagram par le même compte, tenu conjointement par un couple basé aux États-Unis. Les deux images mettent en scène le couple, qui a déclaré dans les publications, et dans leurs soumissions au Conseil, qu’il s’identifie comme transgenre et non binaire.
Meta a supprimé les deux publications en vertu de son Standard de la communauté en matière de sollicitation sexuelle. Dans les deux cas, les systèmes automatisés de Meta ont identifié le contenu comme potentiellement en infraction.
Sur la première image, publiée en 2021, les deux personnes sont torse nu et ont un ruban adhésif couleur chair qui recouvre leurs tétons. Dans la seconde image, publiée en 2022, l’une de ces deux personnes est habillée, et l’autre est torse nu et couvre ses tétons avec ses mains. Les légendes qui accompagnent ces images expliquent que la personne qui est torse nu sur les deux images va bientôt subir une chirurgie du haut, une chirurgie d’affirmation du genre qui crée une poitrine plus plate. Le couple décrit son projet de documenter le processus chirurgical et discute des questions relatives aux soins de santé pour les personnes transgenres. Le couple annonce qu’il organise une collecte de fonds afin de payer l’opération, car il a eu des difficultés à obtenir une couverture d’assurance pour l’intervention.
Dans le premier cas, l’image a d’abord été automatiquement classée comme peu susceptible d’être en infraction. Le rapport a été fermé sans être examiné et le contenu est initialement resté sur la plateforme. Trois personnes ont ensuite signalé le contenu pour pornographie et automutilation. Ces signalements ont été examinés par des équipes de modération manuelle, qui ont considéré que la publication était conforme. Lorsque le contenu a été signalé par une autre personne pour la quatrième fois, un autre membre de l’équipe d’examen manuel a constaté que la publication enfreignait le Standard de la communauté relatif à la sollicitation sexuelle et l’a supprimée.
Dans le second cas, la publication a été identifiée deux fois par les systèmes automatisés de Meta, puis soumise à un examen manuel, qui l’a jugée conforme dans les deux cas. Deux personnes ont alors signalé le contenu, mais chaque rapport a été clôturé automatiquement sans être examiné manuellement et le contenu est resté sur Instagram. Enfin, les systèmes automatisés de Meta ont identifié le contenu une troisième fois et l’ont soumis à un examen manuel. Les deux dernières fois, le classificateur automatique de Meta pour la nudité et les activités sexuelles des adultes a signalé le contenu, mais la raison de ces examens répétés n’est pas claire. Ce dernier membre de l’équipe d’examen manuel a estimé que la publication enfreignait le Standard de la communauté relatif à la sollicitation sexuelle et l’a supprimée.
Les propriétaires des comptes ont fait appel des deux décisions de suppression auprès de Meta, et le contenu a été examiné par des équipes d’examen manuel dans les deux cas. Cependant, ces examens n’ont pas conduit Meta à rétablir les publications. Les propriétaires du compte ont donc fait appel de ces deux décisions auprès du Conseil. Le Conseil examine ces deux cas ensemble, une première pour le Conseil. L’avantage de cette démarche est d’identifier les problèmes similaires dans les politiques et processus de contenu de Meta et de proposer des solutions pour les résoudre.
Après que le Conseil a sélectionné ces publications et que Meta a été invitée à justifier sa décision de supprimer le contenu, Meta a identifié les suppressions comme des « erreurs de mise en application » et a restauré les publications.
En examinant pourquoi ces cas représentent des questions importantes, le Conseil note comme contexte pertinent le grand nombre de commentaires publics reçus pour ces cas, dont beaucoup provenaient de personnes s’identifiant comme des femmes trans, non binaires ou cisgenres, qui ont expliqué qu’elles étaient personnellement touchées par des erreurs de mise en application et des questions similaires à celles présentes dans ces cas.
Le Conseil a également noté comme contexte pertinent les recherches universitaires, également citées dans les commentaires publics, par Haimson et al, Witt, Suzor et Huggins, et deux rapports de Salty sur le préjugé algorithmique et la censure des audiences marginalisées. Ces études ont révélé que les erreurs de mise en application des deux Standards de la communauté discutées dans ces cas affectent de manière disproportionnée les femmes et les personnes LGBTQI+. Un co-auteur de l’une de ces études est membre du Conseil de surveillance.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
Lorsque le Conseil choisit des cas comme celui-ci, où Meta reconnaît avoir commis une erreur après que le Conseil a identifié le cas, le Conseil examine la décision originale. Il s’agit de mieux comprendre les paramètres de la politique et les processus de modération du contenu qui ont contribué à l’erreur et d’aborder les problèmes que le Conseil identifie avec les politiques sous-jacentes. Le Conseil a également pour objectif de formuler des recommandations visant à réduire la probabilité d’erreurs futures et à traiter les utilisateurs de manière plus équitable à l’avenir.
Lorsque le Conseil identifie des cas qui soulèvent des questions similaires, ils peuvent être assignés à un panel simultanément pour délibérer ensemble. Une décision contraignante sera prise à l’égard de chaque contenu.
4. Sources d’autorité
Le Conseil de surveillance a pris en compte les autorités et les standards suivants dans sa décision :
I. Décisions du Conseil de surveillance :
- Décision relative à la « Réappropriation de mots arabes »( 2022-003-IG-UA). Le Conseil a analysé les difficultés d’application des exceptions aux politiques et les impacts disproportionnés de certains choix politiques.
- Décision relative au « collier de wampum » ( 2021-012-FB-UA). Le Conseil a analysé les difficultés d’application des exceptions aux politiques et les impacts disproportionnés de certains choix politiques.
- « Symptômes du cancer du sein et nudité » ( 2020-004-IG-UA). Le Conseil a analysé les Règles de la communauté Instagram et a recommandé que Meta précise qu’il existe une exception pour la sensibilisation au cancer du sein.
II. Règles de Meta relatives au contenu :
Ces cas impliquent les Règles de la communauté Instagram et les Standards de la communauté Facebook. L’Espace modération Meta indique que « Facebook et Instagram partagent les mêmes politiques de contenu. Cela signifie que si un contenu est jugé en infraction sur Facebook, il est aussi jugé en infraction sur Instagram. »
Sollicitation sexuelle
Les Règles de la communauté Instagram stipulent que « offrir des services sexuels » n’est pas autorisé. Cette disposition renvoie ensuite au Standard de la communauté Facebook relatif à la sollicitation sexuelle.
Dans la justification de la politique relative à lasollicitation sexuelle, Meta déclare : « Nous fixons cependant des limites lorsque le contenu permet, encourage ou coordonne des rencontres sexuelles ou des services sexuels commerciaux entre adultes. Ce faisant, nous évitons de favoriser des transactions pouvant impliquer des actes sexuels dans le cadre d’un trafic, sous la contrainte et non consentis. Nous limitons également le langage sexuellement explicite qui peut mener à la sollicitation sexuelle, car certaines audiences au sein de notre communauté mondiale peuvent être sensibles à ce type de contenu et cela peut avoir un impact direct sur leur capacité à communiquer avec leurs amis et les autres personnes en général. »
Le Standard de la communauté Facebook relatif à la sollicitation sexuelle stipule que Meta interdit la sollicitation explicite et implicite. La sollicitation implicite comporte deux critères, qui doivent tous deux être remplis pour que le contenu enfreigne la politique. Le premier critère est « l’offre ou la demande », c’est-à-dire le contenu qui offre ou demande implicitement ou indirectement (généralement en donnant des coordonnées) une sollicitation sexuelle. Le deuxième critère est celui des « éléments suggestifs », c’est à dire le contenu qui fait l’offre ou la demande susmentionnée à l’aide de l’un des éléments sexuellement suggestifs suivants. » Les éléments énumérés comprennent « l’argot régional sexualisé » et « les poses ».
Nudité et activités sexuelles des adultes
Les Règles de la communauté Instagram stipulent que les utilisateurs devraient : « Publier des photos et des vidéos appropriées pour une audience variée. Nous sommes conscients qu’il arrive parfois que des personnes veuillent partager des images de nudité à caractère artistique ou créatif, mais pour un bon nombre de raisons nous n’autorisons pas la nudité sur Instagram. Cela inclut les photos, les vidéos et les autres contenus numériques présentant des rapports sexuels, des organes génitaux ou des plans rapprochés de fesses entièrement exposées. Cela inclut également quelques photos de mamelons de femme, mais les images illustrant l’allaitement, les moments pendant et après l’accouchement, des interventions dans le domaine médical (par exemple, mastectomie, sensibilisation au cancer du sein ou chirurgie de réattribution sexuelle) ou un acte de protestation sont autorisées. » Cette section renvoie à la politique de Facebook en matière de nudité et d’activité sexuelle des adultes, qui fournit plus de détails sur ces règles.
Dans le cadre de la justification politique du Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes, Meta explique ce qui suit : « Nous limitons l’affichage de scènes de nudité et d’activités sexuelles, car certaines personnes au sein de notre audience peuvent être sensibles à ce type de contenu. En outre, nous supprimons par défaut les images de nature sexuelle pour empêcher le partage de contenus montrant des actes non consentis ou sous l’âge autorisé. »
La politique de Facebook en matière de nudité et d’activité sexuelle des adultes stipule également ce qui suit : « Ne pas publier : Des mamelons de femme découverts, sauf lorsqu’il s’agit d’images illustrant l’allaitement, les moments pendant et après l’accouchement, des situations médicales ou liées à la santé, des interventions dans le domaine médical (par exemple, mastectomie, sensibilisation au cancer du sein ou chirurgie de réattribution sexuelle) ou un acte de protestation. » Les utilisateurs peuvent également publier des images d’organes génitaux lorsqu’elles sont partagées dans un « contexte médical ou de santé » (ce qui inclut la chirurgie de confirmation du genre), mais une étiquette sera appliquée pour avertir les personnes que le contenu est sensible. Il existe également au moins 18 facteurs de conseils internes supplémentaires concernant les mamelons et ces exceptions.
III. Valeurs de Meta :
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook, et la liberté d’expression y est considérée comme « primordiale ».
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Meta limite la liberté d’expression au profit de quatre valeurs, dont deux sont en l’espèce pertinentes :
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression qui menacent les autres peuvent les intimider, les exclure ou les réduire au silence, et ne sont pas autorisées sur Facebook.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui, et qu’elle ne harcèle pas ni ne rabaisse pas les autres.
IV. Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme de ces deux cas s’est appuyée sur les standards des droits de l’homme suivants :
- Les droits à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; Communication 488/1992 ; la résolution 32/2 du Conseil des droits de l’Homme, 2016 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019).
- Les droits des femmes : les articles 2 et 5 de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDR) ;
- Le droit à la non-discrimination : l’article 2, paragraphe 1 et l’article 26 du PIDCP. Nepomnyashchiy c. la Russie, Comité des droits de l’homme, 2018 ( CCPR/C/123/D/2318/2013).
5. Soumissions de l’utilisateur
Dans leurs soumissions pour ces cas, le couple déclare qu’il pense que ce contenu a été supprimé en raison de la transphobie. Il écrit que si le Conseil devait affirmer que ce contenu doit rester sur la plateforme, cette décision contribuerait à faire d’Instagram un espace plus accueillant pour l’expression des personnes LGBTQI+.
6. Soumissions de Meta
Meta a expliqué dans la justification de sa décision que les deux suppressions de contenu étaient des erreurs de mise en application et qu’aucune des deux publications n’enfreignait ses politiques relatives à la sollicitation sexuelle. Meta déclare : « La seule offre ou demande consiste à faire des dons pour une collecte de fonds ou à consulter un site web pour acheter des t-shirts, ce qui ne relève ni l’un ni l’autre de la sollicitation sexuelle. »
Meta affirme également qu’aucune des deux publications n’enfreint son Standard relatif à la nudité et aux activités sexuelles des adultes. L’exposé des motifs indique que les « conseils internes à l’intention des équipes d’examen traitent spécifiquement de la manière d’agir en cas de nudité non binaire, neutre sur le plan du genre ou transgenre. » Le contenu dans ces cas a été partagé dans un « contexte explicitement non binaire ou transgenre, comme en témoigne le sujet général du contenu (subir une chirurgie de la poitrine) et les hashtags utilisés. » Meta a conclu que « même si les mamelons dans ces cas étaient visibles et découverts, ils ne violeraient pas notre politique sur la nudité et les activités sexuelles des adultes. » Meta a également reconnu que sur les deux images, les mamelons sont « entièrement cachés ».
Étant donné le temps écoulé depuis le retrait du contenu, Meta n’a pas pu indiquer au Conseil la politique ou les politiques que les divers systèmes automatisés ayant identifié le contenu comme potentiellement en infraction étaient programmés pour appliquer. Dans un cas, Meta a pu expliquer que le contenu avait été mis en file d’attente pour être examiné deux fois par les classificateurs de nudité et d’activité sexuelle des adultes. Meta n’a pas non plus pu fournir d’explication sur les raisons pour lesquelles les équipes d’examen ont estimé que le contenu violait la politique de sollicitation sexuelle. Le raisonnement reconnaît que Meta est « conscient que certains membres des équipes d’examen de contenu peuvent supprimer à tort un contenu en tant que sollicitation sexuelle implicite (même si ce n’est pas le cas) sur la base d’une application trop technique de nos conseils internes aux équipes d’examen ».
Le Conseil a posé 18 questions à Meta, et Meta a répondu à toutes ces questions.
7. Commentaires publics
Le Conseil de surveillance a reçu 130 commentaires publics en rapport avec ces cas. 97 des commentaires ont été soumis par les États-Unis et le Canada, 19 par l’Europe, 10 par l’Asie-Pacifique et l’Océanie, 1 par l’Amérique latine et les Caraïbes, 1 par le Moyen-Orient et l’Afrique du Nord, 1 par l’Afrique subsaharienne et 1 par l’Asie centrale et du Sud.
Les soumissions portaient sur les thèmes suivants : suppression erronée de contenus provenant d’utilisateurs trans, non binaires et féminins ; injustice et inégalité des distinctions fondées sur le genre pour déterminer les formes de nudité autorisées sur la plateforme ; confusion quant au contenu autorisé par les Standards de la communauté relatifs à la nudité et aux activités sexuelles des adultes et à la sollicitation sexuelle ; importance des réseaux sociaux pour l’expression dans les sociétés où les droits LGBTQI+ sont menacés.
Pour lire les commentaires publics soumis pour ces cas, veuillez cliquer ici. Plusieurs commentaires soumis n’ont pas été inclus car ils contenaient des informations permettant d’identifier personnellement des personnes autres que le commentateur.
8. Analyse du Conseil de surveillance
Le Conseil a examiné la question de la restauration de ces publications sous 3 angles : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
Le Conseil a choisi ces cas car la suppression de contenus non violents publiés par des personnes qui s’identifient à des groupes marginalisés affecte leur liberté d’expression. Ceci est particulièrement significatif car Instagram peut être un forum important pour ces groupes afin de construire une audience. Ces cas montrent comment les erreurs d’application peuvent avoir un impact disproportionné sur certains groupes et peuvent signifier des problèmes plus larges dans la politique et l’application qui devraient être corrigés.
8.1 Respect des politiques relatives au contenu de Meta
Le Conseil estime que ces publications ne violent aucune politique de contenu de Meta. Si les Règles de la communauté s’appliquent à Instagram, Meta indique également que « Facebook et Instagram partagent les mêmes politiques de contenu. Le contenu qui est jugé en infraction sur Facebook, est aussi jugé en infraction sur Instagram. » Les Standards de la communauté Facebook fournissent plus de détails et sont liés aux Règles.
a. Sollicitation sexuelle
Le Standard de la communauté relatif à la sollicitation sexuelle stipule que la sollicitation sexuelle implicite requiert deux éléments :
- Contenu qui contient une offre ou une demande implicite ET
- des éléments sexuellement suggestifs.
Offre ou demande implicite.
Une offre ou une demande implicite est définie dans le Standard de la communauté relatif à la sollicitation sexuelle comme suit : « Tout contenu qui offre ou demande implicitement ou indirectement (généralement en donnant des coordonnées) une sollicitation sexuelle ». Dans les « Questions connues » de Meta, qui fournissent des orientations internes supplémentaires aux équipes d’examen, la liste des coordonnées qui déclenchent la suppression en tant qu’offre implicite comprend les liens vers des profils de réseaux sociaux et « les liens vers des sites web basés sur des abonnements (par exemple, OnlyFans.com ou Patreon.com) ». Dans ces cas, le contenu fournissait un lien vers une plateforme où les utilisateurs organisaient une collecte de fonds pour payer une opération chirurgicale. Étant donné que les critères internes de Meta définissant « l’offre ou la demande implicite » sont très larges, ce lien serait techniquement qualifié « d’offre ou de demande » selon les conseils de Meta aux équipes d’examen, même s’il n’enfreint pas le standard relatif au public, qui indique que l’offre ou la demande doit porter sur quelque chose de sexuel.
Éléments sexuellement suggestifs.
Le Standard de la communauté fournit une liste d’éléments sexuellement suggestifs qui inclut les poses. Les Questions connues fournissent une liste, décrite par Meta comme exhaustive, de ce qui est qualifié de poses sexuellement suggestives, y compris des « seins féminins nus couverts soit numériquement, soit par des parties du corps humain ou des objets ». Sur les deux images, le Conseil note que des seins sont couverts par des parties du corps humain (mains) ou des objets (ruban adhésif). Dans ces cas, le contenu des publications indique clairement que les sujets de la photo s’identifient comme trans et non binaires, ce qui signifie que les seins représentés appartiennent à des personnes qui ne s’identifient pas comme des femmes. Le Conseil estime également que le contenu n’est pas sexuellement suggestif. Sur cette base, le deuxième élément requis pour enfreindre la politique de sollicitation sexuelle, un élément sexuellement suggestif tel qu’une pose sexuelle (qui inclut un sein féminin couvert), n’était pas rempli.
Le deuxième élément n’étant pas satisfait, les publications n’ont pas enfreint ce standard. L’application de la version publique du premier élément (qui indique que l’offre ou la demande doit porter sur quelque chose de sexuel) indique également que ces images ne constitueraient pas une sollicitation sexuelle.
b. Nudité et activités sexuelles des adultes
Le Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes stipule que les utilisateurs ne doivent pas publier d’images de « mamelons de femme découverts, sauf lorsqu’il s’agit d’images illustrant l’allaitement, les moments pendant et après l’accouchement, des situations médicales ou liées à la santé (par exemple, mastectomie, sensibilisation au cancer du sein ou chirurgie de réattribution sexuelle) ou un acte de protestation. » Les Questions connues de Meta précisent en outre que les équipes d’examen doivent autoriser « les images de mamelons lorsqu’elles sont partagées dans un contexte explicitement transgenre féminin-masculin, non binaire ou neutre sur le plan du genre (par exemple, un utilisateur indique cette identité de genre), indépendamment de la taille ou de la forme du sein ». Dans ces cas, aucune des images ne viole ce Standard de la communauté.
Tout d’abord, aucune des images ne montre des mamelons non couverts. Sur les deux images, les individus ont couvert leurs mamelons avec leurs mains ou du ruban adhésif. Deuxièmement, si les mamelons avaient été découverts, le Conseil note que les images ont été partagées avec un texte d’accompagnement qui indiquait clairement que les personnes s’identifiaient comme non binaires. Cette politique n’est donc pas enfreinte.
8.2 Respect des valeurs de Meta
Le Conseil estime que la décision initiale visant à supprimer ces publications était incompatible avec les valeurs de « liberté d’expression » et de « dignité » de Meta et qu’elle ne servait pas la valeur de « sécurité ».
Les erreurs d’application qui affectent de manière disproportionnée les groupes victimes de discrimination constituent une menace sérieuse pour les valeurs de liberté d’expression et de dignité. Bien que les arguments de Meta en matière de droits de l’homme aient porté sur la valeur de sécurité, notamment en ce qui concerne le partage non consenti d’images, le trafic sexuel et la maltraitance des enfants, le Conseil estime que ces suppressions n’ont pas fait progresser la valeur de sécurité.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP accorde une protection étendue de la liberté d’expression, y compris aux discussions consacrées aux droits de l’homme et à la liberté d’expression que les personnes peuvent considérer comme profondément offensantes (Observation générale 34, paragraphe 11). Toute personne a droit à la liberté d’expression sans discrimination sur la base du « sexe » ou de « toute autre situation » (article 2, paragraphe 1 du PIDCP). Le Comité des droits de l’homme a confirmé dans des cas telles que Nepomnyashchiy c. Russie ( CCPR/C/123/D/2318/2013) que l’interdiction de la discrimination inclut la discrimination fondée sur l’identité de genre.
Le contenu est lié à des questions sociales importantes. Pour ces utilisateurs, Instagram offre un forum où ils peuvent discuter de leur expression de genre et la représenter, ce qui leur permet d’établir des liens et d’obtenir du soutien. Le contenu peut également avoir une incidence directe sur la capacité des utilisateurs à subir une opération de confirmation du genre, car les deux publications expliquent qu’une personne subira une opération de ce type et partagent une collecte de fonds pour compenser les coûts de l’opération.
L’article 19 exige que lorsque des limitations de la liberté d’expression sont imposées par un État, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3 du PIDCP). Sur la base du cadre des PDNU, le Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression a appelé les entreprises de réseaux sociaux à veiller à ce que leurs règles en matière de contenu se fondent sur les critères de l’article 19, paragraphe 3 du PIDC ( A/HRC/38/35, paragraphes 45 et 70). Le Conseil a adopté ce cadre afin d’analyser les politiques de mise en application de Meta.
En l’espèce, le Conseil estime que Meta n’a pas assumé ses responsabilités en matière de création et d’application de politiques conformes à ces standards. Les critères internes appliqués pour supprimer du contenu dans le cadre de la politique de sollicitation sexuelle sont plus étendus que la raison d’être de cette politique, ce qui a des conséquences en termes d’application excessive que Meta elle-même a reconnues. Le Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes a un impact disproportionné sur les femmes et les utilisateurs LGBTQI+ et repose sur des perceptions subjectives et spéculatives du sexe et du genre qui ne sont pas réalisables lors de la modération de contenu à l’échelle. Le Conseil analyse ces lacunes et recommande à Meta d’entamer un processus global pour résoudre ces problèmes.
I. Légalité (clarté et accessibilité des règles)
Les règles limitant l’expression doivent être claires et accessibles afin que les personnes chargées de les appliquer et les utilisateurs sachent ce qui est autorisé. Les deux Standards de la communauté considérés dans ces cas ne répondent pas à ce standard.
a. Sollicitation sexuelle
Le Conseil estime que le Standard de la communauté relatif à la sollicitation sexuelle contient des critères trop larges dans les règles internes fournies aux équipes d’examen. Ces orientations mal adaptées contribuent à une application excessive par les équipes d’examen et à une confusion pour les utilisateurs. Meta l’a reconnu, en expliquant au Conseil que l’application de ses conseils internes pourrait « conduire à une application excessive » dans les cas où les critères de sollicitation sexuelle implicite sont remplis, mais où il est clair qu’il n’y avait « aucune intention de solliciter des relations sexuelles ».
Cette confusion se reflète dans les deux éléments de cette politique. En ce qui concerne la composante « offre ou demande » du Standard de la communauté relatif à la sollicitation sexuelle, les règles applicables au public font référence à une « méthode de contact » pour la partie faisant la sollicitation. Toutefois, les conseils destinés aux modérateurs, les « Questions connues », indiquent qu’une « méthode de contact » pour une « offre ou demande » implicite comprend les liens de profils de réseaux sociaux ou les liens vers des sites web tiers basés sur des abonnements, tels que Patreon. Il n’est pas précisé aux utilisateurs que tout lien vers un autre profil de réseau social, une plateforme de paiement tierce ou un lien de collecte de fonds (comme Patreon ou GoFundMe) pourrait signifier que leur publication est traitée comme une sollicitation. Cette confusion se reflète dans les nombreux commentaires publics que le Conseil a reçus de la part de personnes qui ne comprenaient pas pourquoi des contenus comprenant de tels liens tiers étaient supprimés ou entraînaient l’interdiction de leur compte.
Le deuxième critère, qui exige un élément sexuellement suggestif, est large et vague, et est également incompatible avec la politique de Meta en matière de nudité et d’activité sexuelle pour adultes. Le Standard de la communauté destiné au public inclut les « poses sexuellement suggestives » comme élément sexuellement suggestif. Les Questions connues fournissent ensuite une liste détaillée des « poses sexuellement suggestives », qui incluent le fait d’être torse nu et de couvrir les seins avec les mains ou des objets. Les utilisateurs ne seront probablement pas en mesure de prédire que toute image avec des seins couverts est considérée comme une pose sexuellement suggestive. Cette confusion est aggravée par le fait que la politique relative à la nudité des adultes autorise les photos seins nus lorsque les mamelons sont couverts. À cet égard, un contenu considéré comme sexuel en vertu d’une politique ne l’est pas en vertu d’une autre politique.
Outre l’incertitude des utilisateurs, le fait que les équipes d’examen soient parvenues à plusieurs reprises à des résultats différents concernant ce contenu suggère un manque de clarté pour les modérateurs quant au contenu qui doit être considéré comme une sollicitation sexuelle.
Comme le reconnaît Meta, l’application de ses conseils internes sur les deux éléments de la sollicitation implicite entraîne la suppression de contenus qui ne cherchent pas à obtenir d’actes sexuels. À plus long terme, les suppressions à tort seront probablement mieux traitées en modifiant la portée de cette politique. À court terme, toutefois, le Conseil recommande à Meta de revoir ses règles internes afin que les critères reflètent les règles applicables au public et qu’ils établissent un lien plus clair entre « l’offre ou la demande » et « l’élément sexuellement suggestif ». Meta devrait également fournir aux utilisateurs davantage d’explications sur ce qui constitue une « offre ou une demande » de relations sexuelles et sur ce qui constitue des poses sexuellement suggestives dans les Standards de la communauté publics.
b. Nudité et activités sexuelles des adultes
Le Standard relatif à la nudité et aux activités sexuelles des adultes est fondé sur des distinctions de sexe et de genre qui sont difficiles à mettre en œuvre et contiennent des exceptions mal définies. Certaines règles de la politique seront déroutantes pour les utilisateurs, qui ne sauront pas ce qui est autorisé. Cette situation est également source de confusion pour les modérateurs, qui doivent procéder à des évaluations subjectives sur la base d’informations inévitablement incomplètes et appliquer rapidement une règle comportant de nombreux facteurs, exclusions et présomptions.
Bien qu’elles utilisent un langage axé sur des parties spécifiques du corps plutôt que sur le genre (et qu’elles permettent aux utilisateurs de choisir parmi un large éventail d’identités sexuelles sur leur profil), la plupart des règles de Meta n’expliquent pas comment l’entreprise traite les contenus représentant des personnes intersexuées, trans ou non binaires. Par exemple, la politique fait référence aux « organes génitaux masculins et féminins », aux « seins féminins » et aux « mamelons féminins », mais il n’est pas clair comment ces descriptions sont appliquées aux personnes ayant des corps et des identités qui peuvent ne pas correspondre à ces définitions. De nombreuses personnes trans et non binaires ont soumis au Conseil des commentaires publics indiquant que les utilisateurs ne savent pas si leur contenu est évalué et catégorisé en fonction de leur identité de genre, du sexe qui leur a été attribué à la naissance ou de certains aspects de leur apparence physique.
Les règles actuelles exigent des équipes d’examen manuel qu’elles évaluent rapidement à la fois le sexe de l’utilisateur, puisque cette politique s’applique aux « mamelons féminins », et son identité de genre, puisqu’il existe des exceptions basées sur le fait que la personne représentée est non binaire, neutre sur le plan du genre, transgenre, ou qu’elle publie dans un contexte de chirurgie de confirmation du genre. Les perceptions du sexe et du genre nécessitent l’interprétation d’indices contextuels et de l’apparence, deux déterminations subjectives propices aux erreurs.
Cette approche est encore compliquée par le « principe du féminin par défaut » de Meta, selon lequel les politiques plus restrictives applicables à la nudité féminine (par opposition à la nudité masculine) sont appliquées dans les situations de doute. Les Questions connues précisent que lorsqu’il n’y a pas de contexte clair et que la personne sur l’image « se présente comme une femme OU qu’il existe un contexte de transgenre homme-femme, il faut considérer par défaut la nudité féminine et appliquer la politique pertinente ».
Le nombre de restrictions et d’exceptions aux règles concernant les mamelons perçus comme féminins est important et déroutant. Les exceptions vont des actes de protestation aux scènes d’accouchement et d’allaitement, en passant par les contextes médicaux et sanitaires, notamment les images post-mastectomie et la sensibilisation au cancer du sein. Les exceptions sont souvent non définies ou mal définies. La liste des exceptions s’est également considérablement allongée au fil du temps et on peut s’attendre à ce qu’elle continue de s’allonger à mesure que l’expression évolue. En ce qui concerne les seins des femmes, la politique de Meta en matière de nudité et d’activité sexuelle chez les adultes part du principe que ces représentations constituent des images à caractère sexuel. Pourtant, la liste croissante des exceptions reflète le fait que, dans de nombreuses circonstances reconnues par la politique, les images de seins de femmes ne sont pas sexuellement suggestives.
Même au sein de chaque exception, de nombreuses questions se posent. Par exemple, l’exception relative à la chirurgie de confirmation du genre revêt une importance particulière pour les utilisateurs trans et non binaires, mais Meta ne fournit pas d’explication sur la portée de cette exception dans ses règles accessibles au public. De ce fait, de nombreux commentaires du public expriment une certaine confusion quant à savoir si le contenu autorisé dans le cadre de l’exception peut inclure des photos pré-chirurgicales (pour créer une image avant et après) et des images de femmes transgenres ayant subi une augmentation mammaire. Les règles internes et les Questions connues indiquent clairement que cette exception est plus étroite que ce que les conseils publics peuvent laisser entendre.
Les politiques de Meta sont fondées sur des distinctions binaires entre homme et femme, ce qui crée des difficultés lorsque Meta tente d’articuler son exception de chirurgie de confirmation de genre. Dans ses réponses au Conseil, Meta a expliqué que l’exception relative à la chirurgie de confirmation du genre signifie qu’elle autorise « les mamelons féminins non couverts avant que la personne n’ait subi une chirurgie supérieure pour enlever ses seins lorsque le contenu est partagé dans un contexte explicitement transgenre féminin-masculin, non binaire ou neutre du point de vue du genre ». Les règles précisent en outre que « les mamelons des femmes transgenres homme-femme ayant subi une augmentation mammaire (chirurgie du haut) sont interdits, à moins qu’il n’y ait une cicatrice sur le mamelon ».
Les règles internes sur les cicatrices chirurgicales et les mamelons sont encore plus alambiquées. Les règles relatives aux mastectomies, par exemple, autorisent « les cas où le mamelon est reconstruit à partir d’un autre tissu ou est marqué au pochoir ou tatoué » et « les cas où au moins un sein retiré chirurgicalement est présent, même si l’autre mamelon féminin nu est visible. » Encore plus déroutant, les règles stipulent que « pour les mastectomies, la cicatrice comprend la représentation de la zone où se trouvait le tissu mammaire retiré. La cicatrice chirurgicale proprement dite n’a pas besoin d’être visible. »
Les équipes d’examen auront probablement du mal à appliquer des règles qui exigent qu’elles évaluent rapidement les caractéristiques sexospécifiques de la personne représentée pour décider s’il convient d’appliquer les règles relatives aux mamelons féminins, puis le genre de la personne pour déterminer si certaines exceptions s’appliquent, et qu’elles examinent ensuite si le contenu représente le précurseur ou le résultat d’une intervention chirurgicale, quelle intervention chirurgicale, et l’étendue et la nature des cicatrices visibles, pour déterminer si d’autres exceptions peuvent s’appliquer. La même image de mamelons à représentation féminine serait interdite si elle était publiée par une femme cisgenre, mais autorisée si elle était postée par une personne s’identifiant comme non binaire. Le Conseil note également d’autres exceptions liées au mamelon, fondées sur des contextes de protestation, d’accouchement, d’après accouchement et d’allaitement, qu’il n’a pas examinées ici, mais qui doivent également être évaluées et qui impliquent vraisemblablement des critères internes supplémentaires.
Compte tenu de l’importance des droits d’expression sur les questions de genre, de santé physique, d’accouchement et d’éducation des enfants, l’ensemble complexe actuel d’exceptions crée une incertitude injustifiée pour les utilisateurs et offre un potentiel de règles mal appliquées, comme le prouve ce cas. Le manque de clarté pour les utilisateurs et les modérateurs inhérent à cette politique rend le standard inapplicable. Comme il est expliqué plus en détail ci-dessous, le Conseil estime que Meta devrait adopter une approche de la nudité adulte qui garantisse que toutes les personnes soient traitées sans discrimination fondée sur le sexe ou l’identité de genre.
II. Objectif légitime
L’article 19 du Pacte international relatif aux droits civils et politiques prévoit que lorsque les États restreignent l’expression, ils ne peuvent le faire qu’en vue de réaliser des objectifs légitimes, qui sont énoncés comme suit : « le respect des droits ou de la réputation d’autrui.... [et] la sauvegarde de la sécurité nationale, de l’ordre public, de la santé ou de la moralité publiques ». Cette décision examine les justifications de Meta pour limiter le discours dans ses politiques à la lumière de ces normes.
a. Sollicitation sexuelle
Meta explique dans sa politique de sollicitation sexuelle qu’elle est « destinée à empêcher les utilisateurs d’utiliser Facebook ou Instagram pour faciliter des « transactions susceptibles d’impliquer un trafic, une coercition et des actes sexuels non consentis » qui pourraient avoir lieu hors plateforme. C’est un exemple de la protection des droits d’autrui, qui est un objectif légitime.
b. Nudité et activités sexuelles des adultes
Meta a fourni plusieurs justifications pour certains aspects de sa politique relative à la nudité et aux activités sexuelles des adultes, notamment la prévention de la diffusion de contenus non consentis, la protection des mineurs lorsque l’âge de la personne n’est pas clair et le fait que « certaines personnes de notre audience peuvent être sensibles à ce type de contenu ». Meta a également fourni au Conseil une explication de ses principes généraux sur la nudité. Elle indique que « Lors de l’élaboration de notre politique, Meta a pris en compte (1) la nature privée ou sensible de l’image ; (2) si le consentement a été donné lors de la prise et du partage d’images de nudité ; (3) le risque d’exploitation sexuelle ; et (4) la question de savoir si la divulgation de ces images pourrait entraîner un harcèlement hors plateforme, notamment dans les pays où ces images peuvent être culturellement offensantes. »
La plupart de ces objectifs s’alignent sur la protection des droits d’autrui. Cependant, le raisonnement de Meta sur la protection de la « sensibilité de l’audience » mérite un examen plus approfondi. Ce raisonnement peut s’aligner sur l’objectif légitime de la « moralité publique ». Cela dit, le Conseil note que l’objectif de protection de la « moralité publique » a parfois été invoqué à tort par les autorités gouvernementales chargées de la réglementation du discours pour enfreindre les droits de l’homme, en particulier ceux des membres de groupes minoritaires et vulnérables. Le Comité des droits de l’homme a mis en garde contre le fait que « le concept de morale découle de nombreuses traditions sociales, philosophiques et religieuses ; par conséquent, les limitations... visant à protéger la morale doivent être fondées sur des principes qui ne découlent pas exclusivement d’une seule tradition » (Comité des droits de l’homme, Observation générale 34).
Bien que la législation sur les droits de l’homme reconnaisse que la moralité publique peut constituer un objectif légitime des limitations de la liberté d’expression pour les États, et que des restrictions de la nudité publique existent dans le monde entier, Meta met l’accent sur des objectifs autres que les « sensibilités de l’audience » dans le contexte spécifique de ce cas. Meta a déclaré que « [b]ien que [sa] politique en matière de nudité soit conforme à la protection de la moralité publique [... elle] ne repose pas en définitive sur cet objectif, car les normes morales relatives à la nudité sont très différentes d’une culture à l’autre et ne pourraient pas être appliquées à l’échelle. » Par exemple, dans de nombreuses communautés et régions du monde, les représentations de poitrines non couvertes transgenres et non binaires pourraient bien être considérées comme traversant les sensibilités communautaires. Pourtant, Meta ne limite pas cette expression. En outre, le Conseil est préoccupé par la charge disproportionnée, connue et récurrente, que les politiques de Meta font peser sur l’expression des femmes, des personnes transgenres et non binaires (voir ci-dessous). Pour ces raisons, le Conseil se concentre sur les autres objectifs, au-delà des « sensibilités d’audiences », avancés par Meta dans l’examen de ses responsabilités en matière de droits de l’homme.
Il convient de noter que certaines des raisons invoquées par Meta pour justifier sa politique de nudité reposent sur l’hypothèse par défaut de la nature sexuellement suggestive des seins des femmes. Le Conseil a reçu des commentaires publics de nombreux utilisateurs qui se sont inquiétés de la sexualisation présumée du corps des femmes, des personnes trans et non binaires, alors qu’aucune présomption comparable de sexualisation des images n’est appliquée aux hommes cisgenres. (Voir, par exemple, le commentaire public 10624 soumis par InternetLab).
Le Conseil a reçu de nombreux commentaires publics dans ce cas par le biais de ses processus traditionnels de sensibilisation aux cas. En tant qu’organe engagé à offrir une certaine mesure de responsabilité à la base d’utilisateurs de Meta et aux principales parties prenantes, le Conseil examine sérieusement les commentaires dans le cadre de ses délibérations. Comme dans tous les cas, nous comprenons que ces commentaires peuvent ne pas être représentatifs de l’opinion globale. Le Conseil apprécie les expériences et l’expertise partagées par le biais des commentaires et continue à prendre des mesures pour accroître l’ampleur de son action auprès des groupes qui ne participent peut-être pas actuellement à ce processus.
Enfin, le Conseil reconnaît que Meta peut légitimement tenir compte de l’importance de prévenir certains préjudices qui peuvent avoir des répercussions sexospécifiques. Comme l’a noté le rapporteur spécial des Nations unies sur la violence à l’égard des femmes, il est « important de reconnaître qu’Internet est utilisé dans un environnement plus large de discrimination structurelle généralisée et systémique et de violence sexiste à l’égard des femmes et des filles » (A/HRC/38/47). En outre, les sondages indiquent que « 90 % des personnes victimes de la diffusion numérique non consentie d’images intimes sont des femmes. » (A/HRC/38/47). Meta devrait s’efforcer de limiter les préjudices liés au genre, tant dans la sur-application que dans la sous-application des interdictions de la nudité.
III. Nécessité et proportionnalité
Le Conseil estime que les politiques de Meta, telles qu’elles sont formulées et appliquées, contiennent plus de contenu que nécessaire. Aucune des deux politiques n’est proportionnée aux problèmes qu’elles tentent de résoudre.
a. Sollicitation sexuelle
Les définitions de la politique de sollicitation sexuelle d’une « offre ou demande » implicite et de poses sexuellement suggestives sont trop larges et ne peuvent qu’englober une quantité importante de contenus sans rapport avec la sollicitation sexuelle. Meta reconnaît elle-même le risque d’une application erronée, déclarant qu’elle est « consciente que certains membres des équipes d’examen de contenu peuvent supprimer à tort un contenu comme étant une sollicitation sexuelle implicite (même s’il ne l’est pas) sur la base d’une application trop technique de [ses] conseils internes aux équipes d’examen ». Meta a poursuivi :
À l’heure actuelle, sur la base de nos Questions connues, nous considérons que le fait de partager, de mentionner ou de fournir les coordonnées d’identités sociales ou numériques constitue une offre ou une demande implicite de sollicitation sexuelle. [...] Cependant, l’application de ce conseil peut conduire à une application excessive dans les cas où, par exemple, un modèle est perçu par un membre d’une équipe d’examen comme posant d’une manière sexuellement suggestive (répondant au critère « élément sexuellement suggestif ») et identifie le photographe pour lui donner le crédit de la photo (répondant au critère « offre ou demande »). Ce type de contenu est conforme parce qu’il n’y a pas d’intention de solliciter des rapports sexuels, mais il peut tout de même être supprimé (contrairement à la politique), car il répond par ailleurs aux deux critères énoncés ci-dessus.
L’UNESCO, dans un rapport traitant de l’éducation dans l’espace numérique, a décrit le risque d’une application excessive par erreur. Notant que « la réglementation stricte concernant le partage d’images explicites signifie que, dans certains cas, le matériel éducatif publié en ligne pour soutenir l’apprentissage du corps, ou des relations sexuelles, peut être pris par les modérateurs pour un contenu inapproprié et explicite et donc retiré des plateformes web génériques. » Le Conseil prend également note des nombreux commentaires publics qu’il a reçus au sujet des suppressions à tort en vertu de ce Standard. Par exemple, ACON (une ONG australienne spécialisée dans la sensibilisation au VIH) écrit que des contenus qui présentaient des messages de prévention du VIH sous un angle sexuellement positif et des contenus promouvant des ateliers d’éducation ont été supprimés pour sollicitation sexuelle. Il en résulte que les ONG choisissent la langue de leur contenu pour éviter les suppressions de Meta, au lieu de choisir la meilleure langue pour atteindre leurs audiences cibles (Commentaire public 10550). Cette constatation a été reprise par Joanna Williams, une chercheuse qui a constaté que neuf des douze organisations de santé sexuelle qu’elle a interrogées ont déclaré avoir été affectées négativement par la modération de Meta dans ce domaine (Commentaire public 10613).
b. Nudité et activités sexuelles des adultes
Outre les difficultés liées à l’établissement de règles applicables et évolutives fondées sur la perception du sexe et de l’identité de genre de Meta, telles que décrites ci-dessus, le Conseil estime également que les politiques de Meta en matière de nudité adulte imposent des restrictions disproportionnées à certains types de contenu et d’expression. Ces politiques imposent la suppression de contenus, alors que des mesures moins restrictives permettraient d’atteindre les objectifs politiques fixés.
Meta a déjà recours à diverses mesures d’exécution autres que la suppression, notamment l’application d’écrans d’avertissement et la classification par âge des contenus afin que seuls les utilisateurs de plus de 18 ans puissent les consulter. En outre, elle applique déjà de telles mesures dans le cadre de sa politique relative à la nudité et aux activités sexuelles des adultes, y compris pour les représentations artistiques de l’activité sexuelle. Meta pourrait également faire appel à des modérateurs automatisés et manuels pour déterminer plus précisément, en fonction du contexte, quand un contexte de nudité est réellement sexuel, quel que soit le genre du corps représenté. Meta pourrait en outre recourir à un large éventail d’interventions politiques pour limiter la visibilité des contenus dénudés aux utilisateurs qui ne souhaitent pas les voir en permettant un plus grand contrôle de la part des utilisateurs. Meta dispose également d’un certain nombre de politiques dédiées à des questions qu’elle aborde également par le biais de la politique de nudité (telles que la politique sur l’exploitation des adultes et les politiques sur l’exploitation sexuelle des enfants, les abus et la nudité) qui pourraient être renforcées.
Le Conseil note que les pratiques d’application de Meta entraîneraient un nombre élevé de faux positifs, c’est-à-dire la suppression par erreur de contenus conformes. Le dernier rapport sur l’application des Standards de la communauté Meta ( avril-juin 2022) a révélé que 21 % des suppressions de contenu de nudité et d’activité sexuelle pour adultes ayant fait l’objet d’un appel ont conduit à la restauration du contenu. Le Conseil a également reçu un grand nombre de commentaires publics concernant la suppression par erreur de contenus en vertu de la politique relative à la nudité des adultes.
Non-discrimination
Il est prouvé que les politiques de Meta et l’application de la politique relative à la nudité et aux activités sexuelles des adultes peuvent avoir un impact disproportionné sur les femmes et les personnes LGBTQI+. Ces impacts se reflètent à la fois dans les politiques et dans l’application des lois et limitent les moyens dont disposent les groupes pour s’exprimer, résister aux préjugés et accroître leur visibilité dans la société.
Bien que ce cas concerne les utilisateurs trans et non binaires, les erreurs d’application dans ce cas découlent d’une politique sous-jacente qui a également un impact sur les femmes, en particulier parce que Meta adopte une approche « par défaut au féminin » pour les contenus avec de la nudité. Cette section examine donc la manière dont les politiques de Meta ont un impact sur les personnes LGBTQI+ et les femmes. Le grand nombre de soumissions publiques dans ce cas a fourni de nombreuses illustrations de l’impact que ces politiques peuvent avoir.
Toute personne a droit à la liberté d’expression sans discrimination sur la base du « sexe » ou de « toute autre situation » (article 2, paragraphe 1 du PIDCP). Ceci inclut l’orientation sexuelle et l’identité de genre ( Toonen c. Australie (1994) ; A/HRC/19/41, paragraphe 7). La jurisprudence du Comité des droits de l’homme note que « toute différenciation fondée sur les motifs énumérés à l’article 26 du Pacte ne constitue pas une discrimination, pour autant qu’elle soit fondée sur des critères raisonnables et objectifs et qu’elle poursuive un but légitime au regard du Pacte ». Nepomnyashchiy c. Russie, Comité des droits de l’homme, 2018, paragraphe 7.5 (CCPR/C/123/D/2318/2013).
La Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDR) interdit « toute distinction, exclusion ou restriction fondée sur le sexe qui a pour effet ou pour but de compromettre ou de détruire la reconnaissance, la jouissance ou l’exercice par les femmes [...], sur la base de l’égalité de l’homme et de la femme, des droits de l’homme et des libertés fondamentales dans les domaines politique, économique, social, culturel et civil ou dans tout autre domaine » (CEDR, Art. 1). Le Conseil note que les organismes internationaux de défense des droits de l’homme n’ont pas abordé les implications en matière de droits de l’homme de l’autorisation ou de l’interdiction de la nudité adulte consentie et de ses impacts discriminatoires potentiels.
Les principes directeurs des Nations unies stipulent que « les entreprises doivent accorder une attention particulière à tout impact particulier sur les droits de l’homme des individus appartenant à des groupes ou à des populations qui peuvent être exposés à un risque accru de vulnérabilité ou de marginalisation » ( PDNU, principes 18 et 20). Le Rapporteur spécial sur la liberté d’expression a exhorté les entreprises technologiques à « rechercher activement et à prendre en compte les préoccupations des groupes historiquement exposés à la censure et à la discrimination » ( A/HRC/38/35, paragraphe 48). Le Groupe de travail des Nations unies sur les entreprises et les droits de l’homme a également recommandé aux entreprises technologiques de veiller à ce que « l’intelligence artificielle et l’automatisation n’aient pas d’effets négatifs disproportionnés sur les droits fondamentaux des femmes » ( Gender Dimensions Handbook).
Compte tenu de l’importance des plateformes de réseaux sociaux en tant que lieu d’expression pour les personnes victimes de discrimination, le Conseil a constamment indiqué qu’il s’attendait à ce que Meta soit particulièrement sensible à la possibilité d’une suppression injustifiée de contenu par des membres de ces groupes, sur ces derniers ou les représentant. Comme l’a fait remarquer le Conseil dans la décision relative au « Collier de wampum » ( 2021-012-FB-UA) concernant l’expression artistique de personnes autochtones, il ne suffit pas d’évaluer le rendement de l’application de la politique de discours haineux de Meta sur Facebook sur la population des utilisateurs dans son ensemble, il faut tenir compte des effets sur des groupes particuliers. De même, dans le cas relatif à la « réappropriation de mots arabes », le Conseil a confirmé que « la modération excessive des discours des utilisateurs issus de groupes minoritaires persécutés constitue une menace sérieuse pour leur liberté d’expression » et s’est inquiété de la manière dont les exemptions prévues par les politiques de Meta (dans ce cas, la politique relative aux discours haineux) étaient appliquées à l’expression des groupes marginalisés ( 2022-003-IG-UA).
Les conséquences des choix de Meta se traduisent par des possibilités d’expression disparates offertes aux femmes, aux personnes trans et aux personnes non binaires sur ses plateformes. La politique actuelle de Meta en matière de nudité et d’activités sexuelles des adultes considère les seins et les mamelons féminins comme intrinsèquement sexuels et donc interdits, sauf s’ils ont été ou seront opérés chirurgicalement ou s’ils sont en train d’allaiter. Au lieu de prendre des mesures pour s’assurer que la censure n’a pas d’impact disproportionné sur certains groupes, la politique de Meta consacre et perpétue de tels impacts sur ces groupes.
Ces cas mettent en évidence l’impact disproportionné des choix politiques de Meta sur les personnes qui s’identifient comme LGBTQI+, car le contenu a été identifié plusieurs fois par les classificateurs de nudité et d’activités sexuelles des adultes, bien qu’il ne relève pas du champ d’application de la politique. Le Conseil estime que ces cas sont emblématiques de problèmes plus larges. Par exemple, l’étude de Haimson et al a révélé que les personnes transgenres signalent des niveaux élevés de suppression de contenu et de suppression de comptes, généralement en raison de la nudité et du contenu sexuel.
L’application des choix politiques de Meta a également un impact disproportionné sur les femmes. Une étude de Witt, Suzor et Higgins a révélé que jusqu’à 22 % des images de corps de femmes qui ont été supprimées d’Instagram étaient apparemment des faux positifs. L’impact différentiel sur les corps de femmes a également été noté dans les commentaires publics (voir, par exemple, le commentaire public 10616 du Dr Zahra Stardust).
Cette position par défaut sur la nudité a également un impact important dans les contextes où les femmes peuvent traditionnellement se montrer torse nu. Le Rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression a exhorté les entreprises à s’engager auprès des groupes autochtones du monde entier pour « élaborer de meilleurs indicateurs permettant de prendre en compte le contexte culturel et artistique lors de l’évaluation des contenus présentant de la nudité » (paragraphe 54, A/HRC/38/35).
Outre ces problèmes de non-discrimination liés à la politique, ces cas ont également soulevé des problèmes de non-discrimination liés à l’application. Meta doit garder à l’esprit que les contenus provenant d’utilisateurs qui s’identifient à des groupes marginalisés sont plus exposés au risque de signalement répété ou malveillant, lorsque les utilisateurs signalent des contenus conformes dans le but d’accabler ou de harceler les utilisateurs. Ces questions ont également été soulevées dans plusieurs commentaires publics (voir, par exemple, le commentaire public 10596 de GLAAD et le commentaire public 10628 de la Human Rights Campaign Foundation).
Ces cas ont mis en évidence le fait que des rapports multiples générant des examens multiples peuvent augmenter la probabilité de suppressions à tort. En effet, dans ce cas, la plupart des signalements des utilisateurs ont donné lieu à des examens manuels qui ont conclu que le contenu était conforme, mais le contenu a continué à être signalé jusqu’à ce que les équipes d’examen aient déterminé par erreur qu’il n’était pas conforme et l’aient supprimé.
Meta devrait veiller à développer et à mettre en œuvre des politiques qui contribuent à améliorer toutes ces préoccupations. Il pourrait s’agir de politiques plus uniformes en matière de nudité, qui s’appliqueraient sans discrimination fondée sur le sexe ou l’identité de genre. Elles peuvent également inclure des déterminations plus contextualisées du contenu sexuel, pour autant que ces déterminations ne reposent pas sur des critères discriminatoires.
Le Conseil note que Meta dispose d’une politique spécifique pour traiter les images intimes non consenties dans sa politique sur l’exploitation sexuelle des adultes. L’entreprise a donné la priorité à l’application de ces règles (voir, par exemple, l’introduction de solutions de détection automatique pour empêcher la publication répétée d’images non consenties). Lorsque Meta envisage de modifier son approche de la gestion de la nudité sur la plateforme, elle devrait examiner de près la mesure dans laquelle la politique relative à la nudité et aux activités sexuelles des adultes protège contre le partage d’images non consenties et comprendre si des modifications de la politique relative à l’exploitation sexuelle des adultes ou de son application peuvent être nécessaires pour renforcer son efficacité.
Le Conseil reconnaît également que Meta peut avoir un intérêt légitime à limiter les contenus sexuels ou pornographiques sur sa plateforme. Mais le Conseil estime que les objectifs commerciaux pertinents peuvent et doivent être atteints par des approches qui traitent tous les utilisateurs sans discrimination.
Certains membres du Conseil estiment que Meta devrait chercher à réduire l’impact discriminatoire de ses politiques actuelles en adoptant une politique de nudité adulte qui ne soit pas fondée sur des différences de sexe ou de genre. Ils ont pris note des dispositions de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDR) relatives à l’élimination des stéréotypes sexistes (voir, par exemple, les articles 5 et 10) et de l’engagement explicite de Meta envers la CEDR dans sa politique d’entreprise en matière de droits de l’homme. Ils ont conclu que, dans le contexte de la politique de nudité, ces normes internationales en matière de droits de l’homme et le propre engagement de Meta en faveur de la non-discrimination, soutiennent l’élimination des distinctions stéréotypées. Ce groupe de membres a conclu que l’adoption d’une politique non fondée sur le sexe ou les différences de genre serait la meilleure façon pour Meta d’assumer ses responsabilités en matière de droits de l’homme en tant qu’entreprise, compte tenu de ses valeurs et de ses engagements. Ces membres notent que les normes et les politiques devraient évoluer pour s’attaquer aux conventions qui ont des impacts discriminatoires, car de nombreuses formes de discrimination étaient ou sont encore des conventions sociales répandues.
Il y a eu un certain désaccord entre les membres du Conseil sur ces questions. Certains membres sont d’accord sur le principe que Meta ne doit pas se fonder sur le sexe ou le genre pour limiter l’expression, mais sont profondément sceptiques quant à la capacité de Meta à s’attaquer efficacement aux images intimes non consenties et aux autres préjudices potentiels sans une politique de nudité tenant compte du sexe et du genre. D’autres membres du Conseil estiment que parce que les principes applicables en matière de droits de l’homme sur la non-discrimination autorisent les distinctions fondées sur des caractéristiques protégées tant qu’elles sont « fondées sur des critères raisonnables et objectifs et dans la poursuite d’un but légitime au regard du Pacte », ( Nepomnyashchiy c. Russie, Comité des droits de l’homme, 2018, paragraphe 7.5 (CCPR/C/123/D/2318/2013), une politique de nudité neutre en termes de sexe et de genre n’est pas nécessaire et pourrait causer ou exacerber d’autres préjudices.
Les membres du Conseil qui soutiennent une politique de nudité adulte neutre en termes de sexe et de genre reconnaissent qu’en vertu des normes internationales en matière de droits de l’homme appliquées aux États, des distinctions fondées sur des caractéristiques protégées peuvent être faites sur la base de critères raisonnables et objectifs et lorsqu’elles servent un objectif légitime. Ils ne pensent pas que les distinctions au sein de la politique de nudité de Meta répondent à ce standard. Ils notent en outre que, en tant qu’entreprise, Meta a pris des engagements en matière de droits de l’homme qui sont incompatibles avec une approche qui restreint l’expression en ligne en fonction de la perception du sexe et du genre par l’entreprise.
Le Standard de la communauté relatif à la nudité et aux activités sexuelles des adultes a un impact disproportionné sur les femmes et les utilisateurs LGBTQI+ et repose sur des perceptions subjectives et spéculatives du sexe et du genre qui ne sont pas réalisables lors de la modération de contenu à l’échelle. Compte tenu de la confusion qui règne autour des règles et de leur application, ainsi que de l’impact disproportionné et discriminatoire de la politique actuelle de Meta en matière de nudité et d’activités sexuelles des adultes, le Conseil recommande à Meta de définir des critères clairs, objectifs et respectueux des droits pour régir l’ensemble de sa politique en matière de nudité des adultes, en veillant à ce que toutes les personnes soient traitées conformément aux normes internationales en matière de droits de l’homme, notamment sans discrimination fondée sur le sexe ou l’identité de genre. Meta devrait d’abord mener une évaluation complète de l’impact sur les droits de l’homme afin d’examiner les implications de l’adoption de ces critères, ce qui inclut un engagement largement inclusif des parties prenantes dans divers contextes idéologiques, géographiques et culturels. Dans la mesure où cette évaluation devrait permettre d’identifier tout préjudice potentiel, la mise en œuvre de la nouvelle politique devrait inclure un plan d’atténuation pour y remédier. Le Conseil demande un rapport sur l’évaluation et le plan six mois après la date de publication de cette décision.
9. Décision du Conseil de surveillance
Le Comité de surveillance annule les décisions initiales de Meta de supprimer les deux publications et exige qu’elles soient rétablies.
10. Avis consultatif sur la politique
Politique de contenu
1. Afin de traiter tous les utilisateurs équitablement et de fournir aux modérateurs et au public un standard viable en matière de nudité, Meta doit définir des critères clairs, objectifs et respectueux des droits pour régir l’ensemble de sa politique en matière de nudité et d’activités sexuelles des adultes, en garantissant un traitement de toutes les personnes conforme aux normes internationales en matière de droits de l’homme, notamment sans discrimination fondée sur le sexe ou l’identité de genre. Meta devrait d’abord mener une évaluation complète de l’impact sur les droits de l’homme afin d’examiner les implications de l’adoption de ces critères, ce qui inclut un engagement largement inclusif des parties prenantes dans divers contextes idéologiques, géographiques et culturels. Dans la mesure où cette évaluation devrait permettre d’identifier tout préjudice potentiel, la mise en œuvre de la nouvelle politique devrait inclure un plan d’atténuation pour y remédier.
2. Afin de fournir une plus grande clarté aux utilisateurs, Meta devrait leur fournir davantage d’explications sur ce qui constitue une « offre ou une demande » de rapports sexuels (y compris les liens vers des sites web tiers) et sur ce qui constitue des poses sexuellement suggestives dans les Standards de la communauté publics. Le Conseil considérera que cette recommandation a été suivie lorsqu’une explication de ces termes, accompagnée d’exemples, sera ajoutée au Standard de la communauté relatif à la sollicitation sexuelle.
Mise en application
3. Afin de s’assurer que les critères internes de Meta pour sa politique en matière de sollicitation sexuelle n’entraînent pas la suppression d’un plus grand nombre de contenus que ne l’indique la politique destinée au public et afin d’éviter que des contenus non sexuels ne soient supprimés par erreur, Meta devrait réviser ses conseils internes aux équipes d’examen pour s’assurer que les critères reflètent les règles destinées au public et exigent un lien plus clair entre « l’offre ou la demande » et « l’élément sexuellement suggestif ». Le Conseil considérera que cette recommandation a été mise en œuvre lorsque Meta lui fournira ses règles internes actualisées qui reflètent ces critères révisés.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en science sociale sur six continents ainsi que 3 200 spécialistes nationaux du monde entier, a fourni son expertise sur le contexte socio-politico-culturel. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil.
Retour aux décisions de cas et aux avis consultatifs politiques