Confirmé
Vidéo de harcèlement sexuel en Inde
Le Conseil a confirmé la décision de Meta de restaurer une publication sur Instagram contenant une vidéo d’une femme agressée sexuellement par un groupe d’hommes.
Le Conseil a confirmé la décision de Meta de restaurer une publication sur Instagram contenant une vidéo d’une femme agressée sexuellement par un groupe d’hommes. Le Conseil a estimé que « la marge de tolérance liée à la pertinence » de Meta ne permet pas de résoudre des cas comme celui-ci à grande échelle et que l’entreprise devrait appliquer une exception à sa politique en matière d’exploitation sexuelle des adultes.
À propos du cas
En mars 2022, un compte Instagram se décrivant comme une plateforme dédiée au point de vue des Dalits a publié une vidéo venant d’Inde montrant une femme agressée par un groupe d’hommes. Les personnes « Dalits » étaient auparavant appelées « intouchables » et ont été victimes d’oppression dans le cadre du système des castes. Le visage de la femme n’est pas visible dans la vidéo et elle ne comporte pas de nudité. Le texte accompagnant la vidéo indique qu’une « tribal woman » (femme tribale) a été agressée sexuellement en public, et que la vidéo est devenue virale. Le terme « tribal » désigne les populations autochtones de l’Inde, également appelées Adivasis.
Après qu’un utilisateur a signalé la publication, Meta l’a supprimée car elle enfreignait la politique relative à l’exploitation sexuelle des adultes, qui interdit les contenus qui « dépeignent, menacent ou encouragent la violence sexuelle, l’agression sexuelle ou l’exploitation sexuelle ».
Un employé de Meta a marqué la suppression du contenu via un canal de signalement interne après l’avoir vu sur Instagram. Les équipes internes de Meta ont ensuite examiné le contenu et appliqué une « marge de tolérance liée à la pertinence ». Cela permet à des contenus qui seraient par ailleurs en infraction de rester sur les plateformes de Meta s’ils sont pertinents et dans l’intérêt du public. Meta a restauré le contenu, en plaçant un écran d’avertissement sur la vidéo qui empêche toute personne de moins de 18 ans de la regarder, et a ensuite transmis le cas au Conseil.
Principales observations
Le Conseil estime que la restauration du contenu sur la plateforme avec l’apposition d’un écran d’avertissement est conforme aux responsabilités et aux valeurs de Meta en matière de droits de l’homme.
Le Conseil reconnaît que les contenus montrant des attouchements sexuels non consentis peuvent entraîner un risque important de préjudice, à la fois pour les victimes individuelles et pour un public plus large, par exemple en enhardissant les auteurs et en augmentant l’acceptation de la violence.
En Inde, les Dalits et les Adivasis, en particulier les femmes, sont victimes de graves discriminations et les crimes à leur encontre sont en augmentation. Les réseaux sociaux sont un moyen important de documenter ces violences et discriminations et le contenu de ce cas semble avoir été publié pour sensibiliser l’opinion publique. La publication a donc une valeur d’intérêt public significative et bénéficie d’un haut degré de protection en vertu des normes internationales en matière de droits de l’homme.
Étant donné que la vidéo ne comporte pas de contenu explicite ou de nudité, et que la majorité du Conseil estime que la victime ne peut pas être identifiée, une majorité estime que les avantages d’autoriser la vidéo sur la plateforme, derrière un écran d’avertissement, l’emportent sur le risque de préjudice. Lorsqu’une victime n’est pas identifiable, le risque qu’elle subisse un préjudice est considérablement réduit. L’écran d’avertissement, qui empêche les personnes de moins de 18 ans de voir la vidéo, contribue à protéger la dignité de la victime, ainsi que les enfants et les victimes de harcèlement sexuel contre l’exposition à des contenus perturbants ou traumatisants.
Le Conseil convient que le contenu enfreint la politique de Meta en matière d’exploitation sexuelle des adultes et que la marge de tolérance liée à la pertinence pourrait s’appliquer. Toutefois, reprenant les préoccupations soulevées par le Conseil dans le cas de la « vidéo explicite au Soudan », le Conseil estime que la marge de tolérance liée à la pertinence ne permet pas de traiter des cas tels que celui-ci à l’échelle.
La marge de tolérance liée à la pertinence est rarement utilisée. Au cours de l’année se terminant le 1er juin 2022, Meta ne l’a appliquée que 68 fois dans le monde, un chiffre qui a été rendu public à la suite d’une recommandation du Conseil. Seule une petite partie a été émise en relation avec le Standard de la communauté relatif à l’exploitation sexuelle des adultes. La marge de tolérance liée à la pertinence ne peut être appliquée que par les équipes internes de Meta. Cependant, ce cas montre que le processus de transmission à un niveau hiérarchique supérieur du contenu pertinent vers ces équipes n’est pas fiable. Un employé de Meta a marqué la suppression du contenu via un canal de signalement interne après l’avoir vu sur Instagram.
Le marge de tolérance liée à la pertinence est vague, laisse une grande marge de manœuvre à la personne qui l’applique et ne peut garantir une application cohérente à l’échelle. Cette marge n’inclut pas non plus de critères clairs pour évaluer le préjudice potentiel causé par un contenu qui enfreint la politique sur l’exploitation sexuelle des adultes. Le Conseil estime que les responsabilités de Meta en matière de droits de l’homme l’obligent à fournir des standards plus clairs et des processus d’application plus efficaces pour des cas comme celui-ci. Une exception à la politique est nécessaire, qui peut être appliquée à grande échelle et qui est adaptée à la politique relative à l’exploitation sexuelle des adultes. Cela devrait fournir des règles plus claires pour distinguer les publications partagées pour sensibiliser le public de celles destinées à perpétuer la violence ou la discrimination, et aider Meta à équilibrer les droits concurrents à l’échelle.
Décision du Conseil de surveillance
Le Conseil de surveillance confirme la décision de Meta visant à restaurer la publication avec l’apposition d’un écran d’avertissement.
Le Conseil recommande également à Meta de :
- Inclure une exception au Standard de la communauté relatif à l’exploitation sexuelle des adultes pour les représentations d’attouchements sexuels non consentis. Cette mesure ne serait appliquée que par les équipes internes de Meta et permettrait un contenu où la victime n’est pas identifiable, et dont Meta juge qu’il est partagé pour sensibiliser, qu’il n’est pas partagé dans un contexte sensationnaliste et qu’il n’implique pas de nudité.
- Mettre à jour ses règles internes à l’intention des équipes d’examen de contenu à l’échelle sur les circonstances dans lesquelles il convient de transmettre à un niveau hiérarchique supérieur le contenu examiné dans le cadre du Standard de la communauté relatif à l’exploitation sexuelle des adultes qui peut bénéficier de l’exception susmentionnée.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1.Résumé de la décision
Une majorité du Conseil confirme la décision de Meta de restaurer le contenu sur la plateforme et d’y appliquer un écran d’avertissement. Le Conseil estime toutefois que, même si la marge de tolérance liée à la pertinence pourrait être appliquée en l’espèce, elle ne fournit pas de standard clair ni de processus efficace pour résoudre des cas comme celui-ci à l’échelle. Conformément aux valeurs de Meta et à ses responsabilités en matière de droits de l’homme, Meta devrait ajouter une exception clairement définie dans la politique relative à l’exploitation sexuelle des adultes, qui est appliquée de manière plus cohérente et plus efficace que la marge de tolérance liée à la pertinence. L’exception doit être conçue pour protéger les contenus qui sensibilisent à des questions d’intérêt public et pour aider Meta à équilibrer les risques spécifiques de préjudice présentés par les contenus qui violent la politique relative à l’exploitation sexuelle des adultes. La majorité du Conseil estime que, plutôt que de s’appuyer sur la marge de tolérance liée à la pertinence, il est préférable d’appliquer l’exception recommandée à la politique relative à l’exploitation sexuelle des adultes, ce qui permettrait le contenu dans ce cas. Une minorité estime que cette exception ne s’applique pas au contenu en l’espèce.
2. Description du cas et contexte
En mars 2022, un compte Instagram se décrivant comme une plateforme d’informations dédiée au point de vue des Dalits a publié une vidéo venant d’Inde montrant une femme agressée par un groupe d’hommes. Les Dalits, autrefois appelés « intouchables », sont victimes d’une ségrégation sociale et d’une marginalisation économique en Inde en raison du système de castes du pays, un système hiérarchique de stratification sociale. Dans la vidéo, le visage de la femme n’est pas visible et elle est entièrement vêtue. Le texte accompagnant la vidéo indique en anglais qu’une « tribal woman » (femme tribale) a été agressée et harcelée sexuellement par un groupe d’hommes en public et que la vidéo est devenue par la suite virale. Le terme « tribal » désigne les populations autochtones de l’Inde, qui sont également appelées Adivasis. Le compte qui a publié la vidéo a environ 30 000 followers, principalement situés en Inde. Les femmes dalits et adivasis sont fréquemment la cible d’agressions dans le pays (voir article 8.3.).
Ce contenu a été signalé par un autre utilisateur d’Instagram pour sollicitation sexuelle et envoyé pour examen manuel. Les examinateurs ont déterminé manuellement que ce contenu enfreignait la politique d’exploitation sexuelle des adultes de Meta. Selon cette politique, Meta supprime le contenu qui « menace de violence, de harcèlement ou d’exploitation sexuelle, ou décrit ou encourage ces pratiques ». Après la suppression du contenu, Meta a appliqué une pénalité standard (une pénalité qui s’applique à tous les types d’infraction), une pénalité sévère (une pénalité qui s’applique aux infractions les plus flagrantes, notamment les infractions à la politique relative à l’exploitation sexuelle des adultes) et une limite de 30 jours de fonctionnalités au compte du créateur du contenu. La limite de la fonctionnalité empêchait l’utilisateur de lancer une vidéo en direct.
Le jour où le contenu original a été supprimé, un membre de l’équipe de global operations (opérations globales) de Meta a vu une publication sur son compte Instagram personnel discutant de la suppression du contenu, et a transmis à un niveau hiérarchique supérieur la publication originale. Lorsque le contenu est transmis, il est examiné par des spécialistes en politique et en sécurité au sein de Meta. À la suite de cette transmission à un niveau hiérarchique supérieur, Meta a accordé une marge de tolérance liée à la pertinence, annulé les pénalités, restauré le contenu et placé un écran d’avertissement sur la vidéo alertant les utilisateurs que le contenu de celle-ci pouvait être violent ou explicite. L’écran d’avertissement empêche les utilisateurs âgés de moins de 18 ans de visionner le contenu et oblige tous les autres utilisateurs à cliquer sur l’écran pour visionner la vidéo. Une marge de tolérance liée à la pertinence autorise sur les plateformes de Meta un contenu qui pourrait par ailleurs enfreindre ses politiques si le contenu est pertinent et dans quels cas conserver ce type de contenu dans l’intérêt du public. Ce mécanisme peut être accordé uniquement par des équipes spécialisées au sein de Meta, non par des réviseurs qui examinent manuellement le contenu à grande échelle.
Meta a transmis ce cas au Conseil en indiquant qu’il représentait un défi, car il demande de trouver « un équilibre entre l’autorisation du contenu condamnant l’exploitation sexuelle et le préjudice pouvant être causé par la représentation visuelle du harcèlement sexuel sur [ses] plateformes. »
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil est compétent pour examiner les décisions que Meta lui présente pour examen (article 2, section 1 de la Charte ; article 2, section 2.1.1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
4.Sources d’autorité
Le Conseil de surveillance a pris en compte les autorités et les standards suivants dans sa décision :
I. Décisions du Conseil de surveillance :
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent :
- Décision sur la « vidéo explicite au Soudan » ( 2022-002-FB-MR) : Dans ce cas, qui concernait un contenu explicite publié pour sensibiliser aux violations des droits de l’homme, le Conseil a conclu que « la marge de tolérance liée à la pertinence n’est pas un moyen efficace d’autoriser ce type de contenu sur Facebook à grande échelle ». Il a recommandé à Meta d’inclure une exception dans le Standard de la communauté afin de garantir l’application de cette exception à l’échelle. Le Conseil a également fait valoir que « le manque de clarté quant au moment et à la manière dont la marge de tolérance liée à la pertinence est appliquée est susceptible de favoriser une application arbitraire de cette politique. » Le Conseil a expliqué que les écrans d’avertissement peuvent être une solution adéquate, car ils « n’imposent pas une difficulté excessive aux utilisateurs qui souhaitent voir le contenu, tout en informant les autres utilisateurs de la nature du contenu et en leur permettant de décider de le voir ou non. L’écran d’avertissement protège également de manière adéquate la dignité de la personne représentée et de sa famille.
- Décision sur les « Manifestations en Colombie » : ( 2021-010-FB-UA) : Dans ce cas, le Conseil a recommandé à Meta « d’élaborer et de publier des critères clairs destinés aux examinateurs de contenu afin qu’ils puissent soumettre à un examen supplémentaire les contenus d’intérêt public. » Dans son avis consultatif sur la politique de partage d’informations privées sur le lieu de résidence, le Conseil a réitéré cette recommandation.
- Décision sur le « Breuvage à base d’Ayahuasca » ( 2021-013-IG-UA) : Dans ce cas, le Conseil a décidé que le contenu devait rester en ligne bien que la politique pertinente l’interdise. L’autorisation de ce contenu était conforme aux valeurs et aux responsabilités de Meta en matière de droits de l’homme. Le Conseil a recommandé à Meta de modifier ses politiques afin de s’aligner sur ses valeurs et ses responsabilités en matière de droits de l’homme.
- Décision sur le « Dessin animé de Knin » ( 2022-001-FB-UA) : Dans ce cas, le Conseil a fait valoir que, pour aider les utilisateurs à comprendre comment leur contenu sera traité, Meta doit fournir des informations plus détaillées sur le processus de transmission à un niveau hiérarchique supérieur.
II. Règles de Meta relatives au contenu :
Règles de la communauté Instagram
Les Règles de la communauté Instagram prévoient, sous la rubrique « Respecter la loi », qu’Instagram a « une tolérance zéro lorsqu’il s’agit de partager des contenus sexuels impliquant des mineurs ou de menacer de publier des images intimes d’autres personnes. » Les termes « images intimes » incluent un lien vers les Standards de la communauté Facebook sur l’exploitation sexuelle des adultes dans l’Espace modération de Meta. Les Règles de la communauté ne traitent pas expressément des représentations d’images sexuelles non consenties.
Standards de la communauté Facebook
Dans la justification de la politique Exploitation sexuelle des adultes, Meta reconnaît « l’importance de Facebook en tant que lieu de discussion et d’attention sur la violence et l’exploitation sexuelles. » Par conséquent, elle « permet aux victimes de partager leurs expériences, mais supprime les contenus qui dépeignent, menacent ou encouragent la violence sexuelle, l’agression sexuelle ou l’exploitation sexuelle. » Pour protéger les victimes et les survivants, Meta supprime les « images relatant des incidents de violence sexuelle et les images intimes partagées sans le consentement de la ou des personnes concernées. »
La section « ne pas publier » de ce Standard de la communauté indique que les contenus consistant en « toute forme d’attouchement sexuel non consenti », tels que les « représentations (y compris les photos/vidéos réelles, sauf dans un contexte artistique réel) » sont supprimés de la plateforme. Cette politique indique également que Meta « peut restreindre la visibilité aux personnes de plus de 18 ans et apposer un message d’avertissement sur certaines vidéos de fiction [...] montrant des attouchements sexuels non consentis. »
Dans l’Espace modération, Meta explique que l’application d’une pénalité « dépend de la gravité du contenu, du contexte dans lequel il a été partagé et du moment où il a été publié. » Elle vise à ce que son système de pénalité soit « juste et proportionné ».
Marge de tolérance liée à la pertinence
Définissant lamarge de tolérance liée à la pertinence dans son Espace modération, Meta explique qu’elle autorise « un contenu qui peut enfreindre les Standards de la communauté Facebook ou les Règles de la communauté Instagram, s’il est d’intérêt médiatique et sa visibilité est dans l’intérêt du public." Meta ne prend cette décision « qu’après avoir procédé à un examen approfondi qui évalue l’impact positif pour l’intérêt public par rapport au risque de préjudice », et s’appuie à cet effet « sur les principes universels des droits de l’homme, tels que mentionnés dans notre Politique d’entreprise en matière de droits de l’homme, pour aider à prendre ces décisions ». La politique stipule que « le contenu de toutes les sources, y compris les médias d’actualités, les personnalités politiques ou d’autres personnes, peut faire l’objet d’une marge de tolérance liée à la pertinence » et que « si l’intervenant peut être pris en compte dans le test d’équilibre, nous ne présumons pas que le discours d’une personne est intrinsèquement digne d’intérêt ». Lorsque la marge de tolérance liée à la pertinence est appliquée et que le contenu est restauré, mais qu’il peut être sensible ou dérangeant, la restauration peut inclure un écran d’avertissement.
Lorsqu’elle évalue l’intérêt public par rapport au risque de préjudice, Meta prend en considération les facteurs suivants : le fait que le contenu présente des menaces imminentes pour la santé ou la sécurité publiques ; le fait que le contenu exprime des points de vue actuellement débattus dans le cadre d’un processus politique ; les circonstances propres au pays (par exemple, si une élection est en cours ou si le pays est en guerre) ; la nature du discours, notamment s’il est lié à la gouvernance ou à la politique ; et la structure politique du pays, notamment s’il dispose d’une presse libre.
III. Valeurs de Meta :
Les valeurs de Meta sont détaillées dans l’introduction des Standards de la communauté Facebook. La liberté d’expression y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté a toujours été de créer un espace d’expression et de donner une voix aux personnes. […] Nous souhaitons que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouveraient à redire.
Meta limite la liberté d’expression au service de quatre valeurs, les plus pertinentes en l’espèce étant la sécurité, la confidentialité et la dignité.
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Les formes d’expression menaçantes peuvent intimider les autres personnes, les exclure ou les réduire au silence, et ne sont donc pas autorisées sur Facebook.
La confidentialité : nous nous engageons à protéger la vie privée et les informations. La confidentialité donne la liberté nécessaire pour être soi-même, pour choisir quand et comment partager des informations sur Facebook et pour créer des liens plus facilement.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
IV. Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme en l’espèce s’est appuyée sur les standards des droits de l’homme suivants :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018).
- Le droit à la vie : Article 6, ICCPR.
- Le droit à la vie privée : l’article 17 du PIDCP.
- Le droit à la non-discrimination : l’article 2, paragraphe 1 du PIDCP ; l’article 1 de la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes(CEDR) ; l’observation générale n° 35 sur la violence basée sur le genre à l’égard des femmes, Comité des Nations unies pour l’élimination de la discrimination à l’égard des femmes ; l’observation générale n° 35 sur la lutte contre les discours racistes haineux, Comité pour l’élimination de la discrimination raciale (CEDR).
- Le droit à la santé physique et mentale : l’article 12 du Pacte international relatif aux droits économiques, sociaux et culturels (PIDESC) ;
- Les droits de l’enfant : l’article 3 de la Convention internationale relative aux droits de l’enfant (CIDE) sur l’intérêt supérieur de l’enfant ; Les articles 17 et 19 de la CIDE, sur le droit de l’enfant à être protégé contre toute forme de violence physique ou mentale ; l’observation générale n° 25, Comité des droits de l’enfant, 2021.
5. Soumissions de l’utilisateur
À la suite du renvoi de Meta et de la décision du Conseil d’accepter le cas, l’utilisateur a reçu un message l’informant de l’examen du Conseil et lui donnant la possibilité de faire une déclaration au Conseil. L’utilisateur n’a pas émis de déclaration.
6. Soumissions de Meta
Dans la justification fournie pour ce cas, Meta a expliqué que la légende et le contexte de l’utilisateur qui a publié le contenu indiquaient l’intention de condamner et de sensibiliser à la violence contre les communautés marginalisées. Toutefois, la politique relative à l’exploitation sexuelle des adultes ne prévoit aucune exception à cet égard.
En ce qui concerne sa décision d’appliquer la marge de tolérance liée à la pertinence, Meta a expliqué que la valeur d’intérêt public du contenu était élevée, car le contenu était partagé par un organe de presse qui met à la une les histoires des populations sous-représentées et marginalisées. Meta a déclaré que le contenu semble avoir été partagé avec l’intention de condamner le comportement dans la vidéo et de sensibiliser à la violence basée sur le genre à l’encontre des femmes tribales. Selon Meta, la liberté d’expression des Adivasis et des personnes marginalisées a été historiquement réprimée en Inde et bénéficierait d’une plus grande couverture et visibilité. Meta a également fait valoir que le risque de préjudice était limité, car la représentation n’impliquait pas de nudité manifeste ou d’activité sexuelle explicite, et ne présentait pas de caractère sensationnaliste. Elle a fait valoir que « le cas était exceptionnel car le visage de la victime n’est pas visible et que son identité n’est pas facilement identifiable. »
En réponse aux questions posées par le Conseil, Meta a expliqué que « l’autodescription d’un utilisateur en tant qu’organe de presse est un facteur qui est pris en compte, mais qui n’est pas déterminant, pour décider s’il est traité comme un organe de presse. » Les spécialistes en la matière et les spécialistes du marché régional décident quels utilisateurs peuvent être considérés comme des organes de presse, et ce, sur la base de divers facteurs, notamment leurs connaissances du marché et les classifications précédentes des organes. Meta a fait valoir que sa décision et sa politique sont conformes à ses valeurs et à ses responsabilités en matière de droits de l’homme.
Le Conseil a posé 15 questions à Meta dans ce cas. Meta a répondu à 14 questions et n’a pas répondu à une question. Le Conseil a demandé à Meta de partager avec lui son rapport d’évaluation de l’impact sur les droits de l’homme en Inde, ce que Meta a refusé, invoquant des risques de sécurité. Meta n’a pas expliqué de manière satisfaisante pourquoi le partage du rapport d’évaluation de l’impact sur les droits de l’homme avec le Conseil comporterait des risques pour la sécurité.
7. Commentaires publics
Le Conseil de surveillance a reçu 11 commentaires publics en rapport avec ce cas. Un des commentaires a été soumis par la zone Asie-Pacifique et Océanie, quatre par l’Asie centrale et du Sud, trois par l’Europe, et trois par les États-Unis et le Canada.
Les soumissions ont couvert les thèmes suivants : la marginalisation des Adivasis en Inde ; les relations de pouvoir dans le système des castes ; le potentiel des représentations de la violence à enhardir les auteurs et à contribuer à la violence ; la différence entre la violence non sexuelle et la violence sexuelle et l’importance des évaluations contextuelles en ce qui concerne cette dernière ; le risque que les victimes de harcèlement sexuel soient ostracisées par leur propre communauté ; l’intersectionnalité ; les risques de traumatisme des survivants d’agressions sexuelles ; les effets néfastes des discours haineux sur les réseaux sociaux en Inde ; l’importance des réseaux sociaux en tant qu’outil de sensibilisation à la violence contre les groupes marginalisés ; et l’importance pour Meta de conserver un cache hautement sécurisé des contenus supprimés, accessible aux responsables de police.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8.Analyse du Conseil de surveillance
Le Conseil a examiné la question de la restauration de ce contenu sous 3 angles : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des politiques relatives au contenu de Meta
Le Conseil estime que la marge de tolérance liée à la pertinence pourrait être appliquée dans ce cas, mais elle ne fournit pas de standard clair ou de processus efficace pour évaluer ce type de contenu à grande échelle. Le Conseil recommande donc qu’outre la marge de tolérance liée à la pertinence, Meta inclue une exception à la politique relative à l’exploitation sexuelle des adultes, ce qui permettrait de mettre en place un processus clair et efficace de modération du contenu à l’échelle.
Une majorité du Conseil estime que le contenu dans ce cas devrait être autorisé dans le cadre d’une telle exception, tandis qu’une minorité pense qu’aucune exception ne devrait s’appliquer à ce contenu spécifique et qu’il devrait être retiré de la plateforme.
I.Règles de contenu et mise en application
Le Conseil est d’accord avec l’évaluation de Meta selon laquelle le contenu dans ce cas viole l’interdiction du Standard relatif à l’exploitation sexuelle des adultes concernant les représentations d’attouchements sexuels non consentis.
Une majorité du Conseil est d’accord avec la teneur du raisonnement de Meta pour réintégrer le contenu et pense que la marge de tolérance liée à la pertinence pourrait être appliquée dans ce cas en raison de la forte valeur d’intérêt public du contenu. Cependant, le Conseil estime que la marge de tolérance liée à la pertinence ne constitue pas un standard ou un processus adéquat pour évaluer à l’échelle un contenu tel que la publication dans ce cas, car elle ne garantit pas une application efficace et cohérente.
Le Conseil est d’accord avec l’évaluation de Meta selon laquelle il y a une forte valeur d’intérêt public à conserver ce contenu sur la plateforme, car il sensibilise à la violence contre une communauté marginalisée. Le Conseil convient également que le fait de laisser sur la plateforme des contenus représentant des attouchements sexuels non consentis, y compris des agressions, peut entraîner des risques importants de préjudice (voir la section 8.3 ci-dessous). Le Conseil partage également l’avis de Meta selon lequel, dans les cas où une victime d’attouchements sexuels non consentis est identifiable, le préjudice potentiel est trop important et le contenu doit généralement être supprimé, notamment s’il est publié sans le consentement de la victime.
Dans ce cas, cependant, le Conseil n’est pas d’accord sur le fait que la victime soit identifiable. Une majorité du Conseil estime que la victime n’est pas identifiable. Le visage de la victime n’est pas visible dans la vidéo, qui est filmée de loin et en majeure partie de mauvaise qualité. La légende ne fournit aucune information sur l’identité de la victime. Une minorité estime que le contenu devrait être supprimé de la plateforme, car il existe une possibilité d’identifier la victime. Les spectateurs de la vidéo qui ont une connaissance locale de la zone ou de l’incident peuvent être en mesure d’identifier la victime même si son visage n’est pas visible. Selon une minorité, cette probabilité est d’autant plus élevée que l’incident a été largement rapporté par les médias locaux. La majorité reconnaît les préoccupations de la minorité, mais ne croit pas que la connaissance locale d’un incident devrait, en soi, signifier qu’une victime est « identifiable ».
Le Conseil recommande à Meta d’examiner ses politiques et ses processus en fonction de ses valeurs et de ses responsabilités en matière de droits de l’homme, telles qu’analysées dans les articles 8.2 et 8.3 ci-dessous, et d’ajouter une exception clairement définie dans le Standard relatif à l’exploitation sexuelle des adultes, qui puisse être appliquée de manière plus cohérente et plus efficace que la marge de tolérance liée à la pertinence.
II.Transparence
Suite aux recommandations du Conseil dans les décisions « Manifestations en Colombie » et « Vidéo explicite au Soudan », Meta a fourni davantage d’informations dans son Espace modération sur les facteurs qu’elle prend en compte pour déterminer si la marge de tolérance liée à la pertinence doit être appliquée à un contenu. Elle n’a toutefois pas élaboré ni publié de « critères clairs permettant aux équipes d’examen de contenu de soumettre à un examen supplémentaire les contenus d’intérêt public susceptibles d’enfreindre les Standards de la communauté, mais qui peuvent bénéficier de la marge de tolérance liée à la pertinence », comme l’a recommandé le Conseil dans sa décision sur les « Manifestations en Colombie » et dans son avis consultatif sur le partage d’informations privées sur le lieu de résidence. Le Conseil réitère sa préoccupation quant au fait que Meta devrait fournir davantage d’informations sur le processus de transmission à un niveau hiérarchique supérieur dans le contexte de la marge de tolérance liée à la pertinence.
8.2 Respect des valeurs de Meta
Dans ce cas, comme dans beaucoup d’autres, les valeurs de Meta que sont la « Liberté d’expression », la « Vie privée », la « Sécurité » et la « Dignité » peuvent aller dans des directions différentes.
La sensibilisation aux maltraitances commises à l’encontre des Adivasis répond à la valeur de « Liberté d’expression » et peut également contribuer à protéger la sécurité et la dignité des Adivasis. D’autre part, la publicité autour d’une agression sexuelle peut être malvenue pour la victime ou normaliser le comportement, créant ainsi des impacts négatifs sur la vie privée, la dignité et la sécurité de la victime ou d’autres personnes de sa communauté.
Comme la vidéo en l’espèce n’était pas explicite et que la majorité du Conseil a considéré que la victime n’était pas identifiable, la majorité estime que le fait de laisser la vidéo sur la plateforme est conforme aux valeurs de Meta, prises dans leur ensemble. Une minorité du Conseil soutient cependant que même si la probabilité d’identification de la victime était faible, un risque réel d’identification persiste. Selon lui, le respect de la vie privée, de la dignité et de la sécurité de la victime doit prévaloir, et la vidéo doit être supprimée.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Une majorité du Conseil estime que le maintien du contenu sur la plateforme est conforme aux responsabilités de Meta en matière de droits de l’homme. Meta s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). Sa Politique d’entreprise relative aux droits de l’homme indique que cet engagement inclut le respect du Pacte international relatif aux droits civils et politiques (PIDCP).
Liberté d’expression (article 19 du PIDCP)
Le droit à la liberté d’expression a une portée large. L’article 19, paragraphe 2, du PIDCP offre une protection élevée de l’expression des thèmes politiques (observation générale n° 34, paragraphes 20 et 49). La Convention internationale sur l’élimination de toutes les formes de discrimination raciale (CIEDR) prévoit également une protection contre la discrimination dans l’exercice du droit à la liberté d’expression (article 5). Le Comité sur l’élimination de la discrimination raciale a souligné l’importance de ce droit pour ce qui est d’aider les « groupes vulnérables à rétablir l’équilibre des forces dans la société » et pour proposer « des points de vue différents ou opposés » dans les discussions (recommandation générale n° 35 du CEDR, paragraphe 29). Le contenu dans ce cas semble avoir été partagé pour sensibiliser à la violence à l’encontre des femmes Adivasis en Inde, et, conformément aux standards fournis dans l’observation générale n° 34, bénéficie d’un niveau élevé de protection.
En vertu de l’article 19, paragraphe 3, du PIDCP, les restrictions à l’expression doivent (i) être prévues par la loi, (ii) poursuivre un but légitime, et (iii) être nécessaires et proportionnées. Le PIDCP ne crée pas d’obligations contraignantes pour Meta comme il le fait pour les États, mais ce test en trois parties a été proposé par le rapporteur spécial des Nations unies sur la liberté d’expression comme cadre pour guider les pratiques de modération de contenu des plateformes ( A/HRC/38/35).
I. Légalité (clarté et accessibilité des règles)
Les règles restreignant la liberté d’expression doivent être claires et accessibles afin que les personnes concernées connaissent les règles et puissent les suivre (Observation générale n° 34, paragraphes 24-25). En ce qui concerne Meta, les utilisateurs de ses plateformes et les équipes d’examen chargées de faire respecter les règles devraient être en mesure de comprendre ce qui est autorisé et ce qui est interdit. Dans le cas présent, le Conseil conclut que Meta n’a pas rempli sa responsabilité.
Le Conseil estime que le libellé de la politique relative à la pertinence du contenu est vague et laisse une grande marge de manœuvre à la personne qui l’applique. Comme l’a noté le Conseil dans le cas de la « vidéo explicite au Soudan » (2022-002-FB-MR) , des standards vagues invitent à une application arbitraire et ne permettent pas d’assurer un équilibre adéquat des droits concernés lors de la modération du contenu.
Le Conseil a également attiré à plusieurs reprises l’attention sur le manque de clarté pour les utilisateurs d’Instagram quant aux politiques qui s’appliquent à leur contenu, en particulier, si et quand les politiques Facebook s’appliquent (voir, par exemple, les décisions du Conseil sur les « Symptômes du cancer du sein et nudité » (2020-004-IG-UA), et le cas « Breuvage à base d’ayahuasca » (2021-013-IG-UA)). Le Conseil réitère ici cette préoccupation.
Le Conseil réitère en outre qu’il est absolument nécessaire d’obtenir davantage d’informations sur les standards, les règles internes et les processus qui déterminent quand un contenu doit faire l’objet d’une transmission à un niveau hiérarchique supérieur (voir, par exemple, la décision du Conseil sur le cas des « manifestations en Colombie », le cas de la « vidéo explicite au Soudan » et le cas du « dessin animé de Knin »). Pour que les utilisateurs comprennent si et comment la marge de tolérance liée à la pertinence s’appliquera au contenu, Meta doit fournir des informations plus détaillées sur le processus de transmission à un niveau hiérarchique supérieur.
II.Objectif légitime
En vertu de l’article 19, paragraphe 3, du PIDCP, la liberté d’expression peut être limitée dans le but de protéger « les droits d’autrui ». La politique relative à l’exploitation sexuelle des adultes vise à prévenir les maltraitances, la revictimisation, la stigmatisation sociale, la divulgation de données à caractère personnel et d’autres formes de harcèlement. Elle sert à la protection du droit à la vie (article 6 du PIDCP), du droit à la vie privée (article 17 du PIDCP) et du droit à la santé physique et mentale (article 12 du PIDESC). Elle poursuit également l’objectif de prévenir la discrimination et la violence basée sur le genre (article 2, paragraphe 1 du PIDCP, article 1 du CEDR).
En appliquant l’écran d’avertissement, Meta poursuit l’objectif légitime d’atténuer les préjudices décrits ci-dessus et de protéger les autres utilisateurs. L’avertissement qui apparaît à l’écran vise à protéger les victimes de harcèlement sexuel contre l’exposition à des contenus pouvant les traumatiser davantage, qui sont perturbants et explicites (article 12 du PIDESC). La restriction d’âge poursuit également l’objectif légitime de protéger les enfants contre le contenu nuisible (article 3, 17 et 19 de la CIDE).
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Dans ce cas, une majorité estime que la suppression du contenu ne serait pas nécessaire et proportionnée, mais que l’application d’un écran d’avertissement et d’une restriction d’âge satisfait à ce critère. Une minorité estime que la suppression serait nécessaire et proportionnée. Le Conseil estime que les responsabilités de Meta en matière de droits de l’homme l’obligent à fournir des standards plus clairs et des processus d’application plus efficaces pour autoriser le contenu sur la plateforme dans des cas comme celui-ci. Il recommande donc à Meta d’inclure une exception clairement définie dans le Standard relatif à l’exploitation sexuelle des adultes, ce qui constituerait un meilleur moyen d’équilibrer les droits concurrents à l’échelle. En tant qu’exception générale rarement appliquée, la marge de tolérance liée à la pertinence serait toujours disponible et permettrait à Meta d’évaluer si l’intérêt public l’emporte sur le risque de préjudice, y compris dans les cas où la victime est identifiable.
Décision de laisser le contenu en ligne
Le Conseil reconnaît que ce type de contenu peut entraîner des préjudices considérables. Cela inclut les préjudices causés à la victime qui, si elle est identifiée, pourrait subir une nouvelle victimisation, une stigmatisation sociale, une divulgation des données à caractère personnel et d’autres formes de maltraitance ou de harcèlement (voir PC-10802 (Digital Rights Foundation)). La gravité des préjudices potentiels est élevée lorsque la victime est identifiée. Lorsque la victime ne peut être identifiée, le risque qu’elle subisse un préjudice est considérablement réduit. En l’espèce, la majorité estime que la probabilité que la victime soit identifiée est faible. Même si la victime n’est pas identifiée publiquement, elle peut être lésée en interagissant avec le contenu sur la plateforme, ainsi que par les commentaires et les partages de ce contenu. La majorité estime que l’application de l’écran d’avertissement sur le contenu répond à cette préoccupation.
Le Conseil a également examiné les risques plus généraux. En Inde, les réseaux sociaux ont été critiqués pour la diffusion de discours haineux fondés sur la caste (voir le rapport sur le discours haineux fondé sur la caste du Réseau international de solidarité avec les Dalits, mars 2021). Les contenus en ligne peuvent refléter et renforcer les structures de pouvoir existantes, enhardir les auteurs de violences et inciter à la violence contre les populations vulnérables. Les représentations de la violence à l’encontre des femmes peuvent conduire à des attitudes qui acceptent davantage cette violence. Les commentaires publics soulignent que le harcèlement sexuel est une forme particulièrement cruelle de harcèlement (voir, par exemple, PC-10808 (SAFEnet), PC-10806 (IT for change), PC-10802 (Digital Rights Foundation), PC-10805 (Media Matters for Democracy)).
La majorité du Conseil a trouvé un équilibre entre ces risques et le fait qu’il est important que les organes de presse et les militants puissent s’appuyer sur les réseaux sociaux pour sensibiliser à la violence à l’encontre des communautés marginalisées (voir les commentaires publics PC-10806 (IT for change), PC-10802 (Digital Rights Foundation), PC-10808 (SAFEnet)), en particulier dans un contexte où la liberté des médias est menacée (voir le rapport de Human Rights Watch). En Inde, les Dalits et les Adivasis, en particulier les femmes qui se trouvent à l’intersection de la caste et du genre (voir PC-10806, (IT for Change)), sont victimes de graves discriminations et la criminalité à leur encontre est en augmentation. Les organisations de la société civile signalent des niveaux croissants de discrimination ethnique et religieuse à l’encontre des minorités non hindoues et des castes, ce qui compromet l’égalité de protection de la loi (voir Rapport de Human Rights Watch). Le gouvernement ayant pris pour cible les organes de presse indépendants et les registres publics sous-représentant les crimes commis contre les individus et les communautés adivasis et dalits, les réseaux sociaux sont devenus un moyen important de documenter la discrimination et la violence (voir le rapport de Human Rights Watch et les commentaires publics cités ci-dessus).
Le Conseil n’est finalement pas d’accord sur la question de savoir si, dans ce cas particulier, il existe un risque raisonnable d’identifier la victime. La majorité estime que ce risque est minime et que, par conséquent, l’intérêt de conserver le contenu sur la plateforme l’emporte sur les préjudices potentiels si un écran d’avertissement est appliqué. La minorité estime que le risque restant nécessite de supprimer le contenu de la plateforme.
Écran d’avertissement et restriction d’âge
Le Conseil estime que l’application d’un écran d’avertissement est une « restriction moindre » par rapport à la suppression. Dans ce cas, la majorité estime que l’application d’un écran d’avertissement serait le moyen le moins intrusif d’atténuer les préjudices potentiels infligés par le contenu tout en protégeant la liberté d’expression. Comme l’a constaté le Conseil dans le cas de la « vidéo explicite au Soudan », l’écran d’avertissement « n’impose pas une difficulté excessive à ceux qui souhaitent voir le contenu, tout en informant les autres de la nature du contenu et en leur permettant de décider de le voir ou non. » En outre, il « protège de manière adéquate la dignité de la personne représentée et de sa famille. » La minorité estime qu’un écran d’avertissement n’atténue pas suffisamment les préjudices potentiels et que la gravité de ces préjudices exige la suppression du contenu.
L’écran d’avertissement déclenche également une restriction d’âge, qui vise à protéger les mineurs. L’observation générale n° 25 sur les droits de l’enfant dans le contexte de l’environnement numérique stipule que « les parties doivent prendre toutes les mesures appropriées pour protéger les enfants contre les risques d’atteinte à leur droit à la vie, à la survie et au développement. Les risques liés aux contenus... englobent, entre autres, les contenus violents et sexuels... » (paragraphe 14). Elle indique en outre que les enfants doivent être « protégés contre toutes les formes de violence dans l’environnement numérique » (paragraphe 54, 103). La majorité du Conseil approuve le raisonnement de Meta selon lequel une restriction d’âge concilie l’objectif de protection des mineurs et celui de permettre la visualisation de contenus d’intérêt public.
Conception des politiques et des processus de mise en application
Bien que la majorité soit d’accord avec la décision finale de Meta d’autoriser le contenu sur la plateforme, le Conseil estime que la marge de tolérance liée à la pertinence est un mécanisme inefficace pour être appliqué à grande échelle. Le Conseil estime à l’unanimité que l’autorisation des représentations de la violence sexuelle à l’encontre de groupes marginalisés sur la plateforme doit être fondée sur des politiques claires et accompagnée d’une mise en application suffisamment nuancée. Cela devrait permettre de distinguer les publications comme celle-ci, qui sont partagées dans un but de sensibilisation, des publications partagées pour perpétuer la violence ou la discrimination à l’encontre de ces personnes et communautés. Elle devrait inclure des critères clairs pour évaluer les risques de préjudice présentés par ces contenus, afin d’aider Meta à équilibrer les droits concurrents à l’échelle.
La marge de tolérance liée à la pertinence est un mécanisme inefficace pour modérer le contenu à grande échelle (voir la décision du Conseil sur le cas de la « vidéo explicite au Soudan »). En témoigne le fait que ce mécanisme est utilisé très rarement. D’après Meta, la marge de tolérance liée à la pertinence n’a été appliquée que 68 fois dans toutes les politiques au niveau mondial entre le 1er juin 2021 et le 1er juin 2022. Seule une petite partie a été émise en relation avec le Standard de la communauté relatif à l’exploitation sexuelle des adultes. Ce cas démontre que le processus interne de transmission à un niveau hiérarchique supérieur pour l’application de la marge de tolérance liée à la pertinence n’est pas fiable : le contenu n’a pas été transmis au niveau hiérarchique supérieur par l’un des membres de l’équipe d’examen manuel à l’échelle qui ont initialement examiné le contenu, mais par un membre de l’équipe de global operations (opérations globales). Après avoir pris connaissance de la suppression du contenu sur Instagram, ils ont signalé le problème via un canal de signalement interne. Dans le processus de modération du contenu de Meta, la plupart des contenus sont examinés par des examinateurs externes à l’échelle plutôt que par les équipes spécialisées internes de Meta. Le contenu peut être soumis à un examen supplémentaire par ces équipes internes spécialisées lorsque les examinateurs à l’échelle considèrent que la marge de tolérance liée à la pertinence peut s’appliquer. Toutefois, le processus de transmission à un niveau hiérarchique supérieur n’est efficace que lorsque les membres des équipes d’examen manuel à l’échelle ont des règles claires sur le moment où il faut transmettre le contenu à un niveau hiérarchique supérieur. La marge de tolérance liée à la pertinence est une exception générale, qui peut être appliquée à tout contenu enfreignant l’une des politiques de Meta. Elle ne comprend donc pas de critères permettant d’évaluer ou d’équilibrer les préjudices présentés par les contenus enfreignant la politique relative à l’exploitation sexuelle des adultes en particulier.
Pour protéger la liberté d’expression et permettre aux personnes de sensibiliser au harcèlement sexuel des groupes marginalisés, tout en protégeant les droits de la victime et des communautés marginalisées, un moyen plus efficace serait d’inclure une exception au Standard relatif à l’exploitation sexuelle des adultes, à appliquer « lors de la transmission à un niveau hiérarchique supérieur ». En outre, les équipes d’examen à l’échelle doivent avoir pour instruction de faire remonter le contenu lorsque l’exception est susceptible de s’appliquer, plutôt que de s’appuyer sur la marge de tolérance liée à la pertinence, qui est rarement appliquée (pour un raisonnement similaire, voir la décision du Conseil sur le cas de la « vidéo explicite au Soudan »). Le Conseil recommande donc qu’une exception à la politique relative à l’exploitation sexuelle des adultes soit ajoutée pour les représentations d’attouchements sexuels non consentis. Cela permettrait au contenu violant la politique de rester sur les plateformes de Meta lorsque, sur la base d’une analyse contextuelle, Meta juge que le contenu est partagé pour sensibiliser, que la victime n’est pas identifiable, que le contenu n’implique pas de nudité, qu’il n’est pas partagé dans un contexte sensationnaliste et qu’il comporte donc des risques minimes de préjudice pour la victime. Cette exception ne doit être appliquée qu’au niveau de la transmission à un niveau hiérarchique supérieur, c’est-à-dire par les équipes internes spécialisées de Meta. Meta devrait également fournir des conseils clairs aux équipes d’examen à l’échelle sur le moment où il faut transmettre au niveau hiérarchique supérieur un contenu qui relève potentiellement de cette exception. Cette exception ne fait pas obstacle à l’application de la marge de tolérance liée à la pertinence.
L’inclusion d’une exception à la politique relative à l’exploitation sexuelle des adultes et la mise à jour des règles à l’intention des équipes d’examen à l’échelle permettraient de garantir qu’une évaluation de la transmission à un niveau hiérarchique supérieur fasse partie d’une procédure standard pouvant être déclenchée par les modérateurs à l’échelle dans tous les cas pertinents. Les équipes d’examen à l’échelle continueraient à supprimer les contenus décrivant des attouchements sexuels non consentis, mais transmettraient le contenu à un niveau hiérarchique supérieur dans les cas où l’exception s’applique potentiellement. En s’appuyant sur l’expertise régionale, les spécialistes en politique et en sécurité peuvent alors décider si l’exception s’applique. Si ce n’est pas le cas, ils peuvent décider si des pénalités doivent être imposées et, si oui, lesquelles, conformément à l’objectif de Meta d’appliquer les pénalités de manière proportionnée et équitable. Limiter l’application de l’exception aux équipes spécialisées favorise la cohérence ainsi qu’une prise en compte adéquate des préjudices potentiels.
Non-discrimination
Meta a la responsabilité de respecter l’égalité et la non-discrimination sur ses plateformes (articles 2 et 26 du PIDCP). Dans son observation générale n° 35, le Comité pour l’élimination de la discrimination raciale a souligné la « contribution du discours à la création d’un climat de haine et de discrimination raciales » (paragraphe 5) et le fait que le discours haineux peut « conduire à des violations massives des droits de l’homme » (paragraphe 3).
Le Conseil reconnaît qu’il existe une tension difficile entre l’autorisation de contenu sur la plateforme qui sensibilise à la violence contre les groupes marginalisés et la suppression de contenu qui pourrait potentiellement nuire à la vie privée et à la sécurité d’un individu qui fait partie de ces groupes. Le Conseil estime qu’un potentiel important de préjudice individuel pourrait l’emporter sur les avantages de la sensibilisation au harcèlement sur Instagram. Toutefois, dans le cas présent, la majorité estime que, la victime n’étant pas identifiable et le risque de préjudice individuel étant faible, le contenu doit rester sur la plateforme avec un écran d’avertissement. La minorité estime que le risque n’est pas suffisamment faible et que le contenu doit donc être supprimé.
9. Décision du Conseil de surveillance
Le Conseil confirme la décision de Meta de laisser le contenu sur la plateforme avec un écran d’avertissement.
10. Avis consultatif sur la politique
Politique
1. Meta devrait prévoir une exception au Standard de la communauté relatif à l’exploitation sexuelle des adultes pour les représentations d’attouchements sexuels non consentis lorsque, sur la base d’une analyse contextuelle, Meta juge que le contenu est partagé dans un but de sensibilisation, que la victime n’est pas identifiable, que le contenu n’implique pas de nudité et n’est pas partagé dans un contexte sensationnaliste, entraînant ainsi des risques minimes de préjudice pour la victime. Cette exception ne doit être appliquée que lors de la transmission au niveau hiérarchique supérieur. Le Conseil considérera que cette recommandation a été suivie lorsque le texte du Standard de la communauté sur l’exploitation sexuelle des adultes aura été modifié.
Mise en application
2. Meta devrait mettre à jour ses règles internes à l’intention des équipes d’examen de contenu à l’échelle sur les circonstances dans lesquelles il convient de transmettre à un niveau hiérarchique supérieur le contenu examiné dans le cadre du Standard de la communauté relatif à l’exploitation sexuelle des adultes, y compris les règles pour transmettre au niveau hiérarchique supérieur le contenu montrant des attouchements sexuels non consentis, avec l’exception de politique ci-dessus. Le Conseil considérera que cette recommandation a été suivie lorsque Meta lui communiquera les règles mises à jour à l’intention des équipes d’examen à l’échelle.
*Note de procédure :
les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil était assisté d’un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg. Il avait mobilisé une équipe de plus de 50 experts en sciences sociales sur 6 continents ainsi que 3 200 experts nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil.
Retour aux décisions de cas et aux avis consultatifs politiques