Le Conseil de surveillance présente deux nouveaux cas relatifs à l’utilisation d’images explicites générées par l’IA de personnalités publiques féminines

Aujourd’hui, le Conseil présente 2 nouveaux cas qu’il va examiner. Nous en profitons pour inviter les personnes et les organisations à envoyer des commentaires publics.

Sélection des cas

Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux davantage susceptibles de toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les politiques de Meta.

Les cas que nous présentons aujourd’hui sont les suivants:

Images explicites générées par l’IA de personnalités publiques féminines

2024-007-IG-UA, 2024-008-FB-UA

Appel déposé par un utilisateur pour supprimer le contenu d’Instagram et appel déposé par un utilisateur pour restaurer le contenu sur Facebook

Pour envoyer vos commentaires publics, de façon anonyme si vous le souhaitez, cliquez ici.

Ces cas concernent deux décisions sur le contenu de Meta, une sur Instagram et une sur Facebook, que le Conseil de surveillance prévoit de traiter ensemble. Pour chaque cas, le Conseil décidera si le contenu devrait être autorisé ou non sur Instagram ou Facebook.

Le premier cas concerne une image générée par l’IA d’une femme nue publiée sur Instagram. Cette image a été créée grâce à l’intelligence artificielle (IA) afin de ressembler à une personnalité publique en Inde. Le compte qui a publié ce contenu partage uniquement des images générées par l’IA de femmes indiennes. La majorité des utilisateurs qui ont réagi disposent de comptes basés en Inde, où les deepfakes deviennent un problème récurrent.

Dans le cas présent, un utilisateur a signalé le contenu auprès de Meta pour pornographie. Ce signalement a été automatiquement fermé, car il n’a pas été examiné dans les 48 heures. Le même utilisateur a ensuite fait appel de la décision de Meta de conserver ce contenu, mais le signalement a une nouvelle fois été automatiquement fermé, laissant ainsi le contenu sur la plateforme. L’utilisateur a alors fait appel auprès du Conseil. À la suite de la sélection de ce cas par le Conseil, Meta a déterminé que sa décision de laisser le contenu sur la plateforme était une erreur et a supprimé la publication pour infraction au Standard de la communauté sur l’intimidation et le harcèlement.

Le second cas concerne une image publiée dans un groupe Facebook dédié à la création de contenus IA. Cette image générée par l’IA montre une femme nue dont la poitrine est manipulée par un homme. Elle a été créée par IA afin de ressembler à une personnalité publique américaine, également nommée dans la légende. La majorité des utilisateurs qui ont réagi disposent de comptes basés aux États-Unis.

Dans ce cas, un autre utilisateur avait déjà publié cette image, conduisant à son escalation aux spécialistes de Meta sur la politique ou en la matière qui ont décidé de supprimer le contenu pour infraction à la politique sur l’intimidation et le harcèlement, notamment pour « images truquées ou dessins sexualisés désobligeants ». L’image a été ajoutée à une banque de services de correspondance de contenu multimédia, qui fait partie du système de mise en application automatisée de Meta qui trouve et supprime automatiquement les images qui ont déjà été identifiées par des équipes d’examen manuel comme enfreignant les règles de Meta. Dans ce cas, l’image avait donc déjà été considérée comme étant en infraction des Standards de la communauté Facebook et supprimée. L’utilisateur à l’origine du contenu a déposé un appel, mais le signalement a été automatiquement fermé. L’utilisateur a alors fait appel auprès du Conseil.

Le Conseil a sélectionné ces cas afin d’évaluer l’efficacité des politiques de Meta et ses pratiques de mise en application pour résoudre les images explicites générées par l’IA. Ce cas s’aligne sur la priorité stratégique en matière de genre du Conseil.

Le Conseil aimerait recevoir des commentaires publics sur les points suivants:

  • La nature et la sévérité des préjudices que la pornographie deepfake induit, notamment la façon dont ces préjudices affectent les femmes, en particulier les personnalités publiques.
  • Les informations contextuelles sur l’utilisation et la prévalence de la pornographie deepfake dans le monde, notamment aux États-Unis et en Inde.
  • Les stratégies que Meta peut mettre en place pour résoudre la pornographie deepfake sur ses plateformes, y compris les politiques et les processus de mise en application susceptibles d’être les plus efficaces.
  • La mise en application de Meta de sa règle sur les « images truquées ou dessins sexualisés désobligeants » dans la politique sur l’intimidation et le harcèlement, en particulier l’utilisation des banques de services de correspondance de contenu multimédia.
  • Les difficultés liées à la dépendance à des systèmes automatisés qui ferment automatiquement les appels dans les 48 heures si aucun examen n’a été mené.

Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. Le Conseil apprécie tout commentaire public proposant des recommandations pertinentes pour ces cas.

Commentaires publics

Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur les cas mentionnés aujourd’hui et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant le lien ci-dessus. Veuillez noter que les commentaires publics peuvent être envoyés de façon anonyme. Les commentaires publics seront ouverts jusqu’au mardi 30 avril à 23 h 59 de votre heure locale, soit pendant une période de 14 jours.

Afin de respecter les droits et réduire les risques d’éventuel harcèlement contre les femmes qui apparaissent dans ces publications, le Conseil exige que les commentaires publics ne nomment pas ni ne partagent aucune information privée sur des tiers ou ne spéculent sur l’identité des personnes que l’on voit dans le contenu des cas présents.

Et après?

Au cours des prochaines semaines, les membres du Conseil délibéreront sur ces cas. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site Web du Conseil de surveillance.

Pour recevoir les dernières nouvelles lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.

Retour Aux Actualités