Le Conseil de surveillance présente 2 cas : la vidéo retouchée du président Biden et la publication sur les armes liée au conflit soudanais
10 octobre 2023
Aujourd’hui, le Conseil présente 2 nouveaux cas qu’il va examiner. Nous en profitons pour inviter les personnes et les organisations à envoyer des commentaires publics.
Sélection des cas
Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux pouvant potentiellement toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les politiques de Meta.
Les cas que nous présentons aujourd’hui sont les suivants :
Vidéo retouchée du président Biden
2023-029-FB-UA
Appel pour supprimer un contenu de Facebook
Pour envoyer vos commentaires publics, de façon anonyme si vous le souhaitez, cliquez ici.
Le 29 octobre 2022, le président Biden est allé voter en personne lors des élections de mi-mandat de 2022 aux États-Unis, accompagné de sa petite-fille adulte, qui votait pour la première fois. Après avoir voté, ils ont échangé des stickers « J’ai voté ». Le président Biden a positionné un autocollant sur sa petite-fille, au-dessus de sa poitrine, selon ses instructions, et l’a embrassée sur la joue. Ce moment a été filmé.
En mai 2023, un utilisateur de Facebook a publié une version retouchée de 7 secondes de ce clip. La séquence a été retouchée de sorte qu’elle tourne en boucle, répétant le moment où la main du président Biden entre en contact avec la poitrine de sa petite-fille. La vidéo retouchée est accompagnée d’un court extrait de la chanson « Simon Says » de Pharoahe Monch, dont les paroles sont « Girls rub on your titties » (les filles se frottent à vos seins). La légende qui accompagne la vidéo indique que le président Biden est un « sick pedophile » (pédophile malade) pour avoir touché la poitrine de sa petite-fille de la manière dont il le fait. Elle met également en cause les personnes qui ont voté pour lui, affirmant qu’elles sont « mentalement malades ».
Une personne a signalé le contenu à Meta, mais l’entreprise n’a pas supprimé la publication. L’utilisateur à l’origine du signalement a fait appel et un examen manuel a confirmé la décision de ne pas supprimer le contenu. Au début du mois de septembre 2023, la publication avait été vue moins de 30 fois et n’avait pas été partagée. Cette même personne a alors fait appel auprès du Conseil de surveillance, affirmant que la vidéo avait été manipulée.
Après que le Conseil a sélectionné ce cas, Meta a confirmé que sa décision de laisser le contenu sur la plateforme était correcte. Selon l’évaluation de Meta, le Standard de la communauté relatif au contenu multimédia manipulé ne justifiait pas le retrait du contenu, car il ne s’applique qu’aux vidéos générées par l’intelligence artificielle ou à celles dans lesquelles une personne est montrée en train de prononcer des mots qu’elle n’a pas prononcés. Meta a décidé que les Standards de la communauté relatifs à la désinformation ou à l’intimidation et au harcèlement ne s’appliquaient pas non plus dans ce cas. En outre, le contenu n’a pas été examiné par des médias de vérification indépendants dans le cadre du programme de vérification des informations de Meta, bien que Meta ait reconnu que la couverture médiatique disponible indique que la vidéo a été retouchée.
Le Conseil a choisi ce cas pour évaluer si les politiques de Meta couvrent de manière adéquate les vidéos retouchées qui pourraient induire les personnes en erreur en leur faisant croire que les personnalités politiques ont pris des mesures, en dehors de leur discours, qu’elles n’ont pas prises. Ce cas relève des priorités du Conseil en matière d’élections et d’espace civique, de mise en application automatisée des politiques et de sélection des contenus.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Les recherches sur les tendances en ligne de l’utilisation de contenus vidéo retouchés ou manipulés pour influencer la perception des personnalités politiques, en particulier aux États-Unis.
- L’adéquation des politiques de Meta en matière de désinformation, y compris en ce qui concerne le contenu multimédia manipulé, pour répondre aux défis actuels et futurs dans ce domaine, en particulier dans le contexte des élections.
- Les responsabilités de Meta en matière de droits humains lorsqu’il s’agit de contenu vidéo qui a été retouché pour créer une impression trompeuse d’une personnalité publique, et la manière dont elles devraient être comprises en tenant compte des développements de l’intelligence artificielle générative.
- Les défis et les recommandations en matière d’authentification du contenu vidéo à grande échelle, y compris par le recours à l’automatisation.
- Les recherches sur l’efficacité des réponses alternatives à la désinformation politique ou à la désinformation au-delà de la suppression de contenu, telles que les programmes de vérification des informations ou l’étiquetage (également connus sous le nom de « traitements des informations »). En outre, les recherches sur la manière d’éviter les préjugés dans ces réponses.
Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
Publication sur les armes liée au conflit soudanais
2023-028-FB-UA
Appel pour restaurer un contenu de Facebook
Pour envoyer vos commentaires publics, de façon anonyme si vous le souhaitez, cliquez ici.
Pour consulter cette annonce en arabe, cliquez ici.
لقراءة هذا الإعلان باللغة العربية، انقر هنا
En juin 2023, un utilisateur de Facebook a publié l’illustration d’une balle, avec des notes en arabe identifiant ses différents composants. La légende de la publication, également en arabe, donne des instructions sur la manière de vider la cartouche d’une arme à feu de sa balle et d’en utiliser les composants pour créer un dispositif de type cocktail Molotov : un simple produit incendiaire, généralement dans une bouteille, qui peut être facilement fabriqué. Une note supplémentaire indique comment jeter l’engin en toute sécurité. La légende mentionne également « la victoire du peuple soudanais » et des « forces armées du peuple ». Le contenu n’a été vu que quelques fois avant d’être supprimé par Meta.
Le contenu fait référence au pays d’origine de l’utilisateur, le Soudan. En avril 2023, des combats ont éclaté dans la capitale du pays entre les forces armées soudanaises et le groupe paramilitaire des Forces de soutien rapide (FSR). D’autres groupes ont depuis rejoint le conflit armé, qui a fait des milliers de morts et forcé plus de 4 millions de personnes à fuir.
Le jour où le contenu a été publié, un « classificateur de discours hostile » appliquant 3 des Standards de la communauté Facebook (discours haineux, violence et incitation, et intimidation et harcèlement) a déterminé qu’il enfreignait l’un d’entre eux. La publication a été supprimée par Meta pour avoir enfreint le Standard de la communauté Facebook relatif à la violence et à l’incitation. À la suite de cette suppression, Meta a appliqué au profil du créateur du contenu un avertissement standard et une limite imposée pendant 3 jours, ce qui l’a empêché d’interagir avec des groupes et de créer ou de rejoindre des salons de messagerie. L’utilisateur a immédiatement fait appel de la décision de Meta. Un examen manuel a alors évalué la publication. Meta a confirmé qu’il avait eu raison de supprimer le contenu dans un premier temps, mais cette fois-ci pour violation de la politique relative aux biens et services restreints. L’utilisateur a alors fait appel auprès du Conseil.
Après que le Conseil a porté l’affaire à l’attention de Meta, l’entreprise a déterminé que sa décision initiale de supprimer le contenu en vertu du Standard de la communauté relatif à la violence et à l’incitation était correcte. En vertu de cette politique, Meta supprime les contenus qui contiennent des instructions sur « la manière de fabriquer ou d’utiliser des explosifs » ou « la manière de fabriquer ou d’utiliser des armes s’il est prouvé que l’objectif est de blesser gravement ou de tuer des personnes ».
Le Conseil a sélectionné ce cas pour évaluer les politiques de Meta en matière de contenu relatif aux armes et les pratiques de mise en application de l’entreprise dans le contexte de conflits. Ce cas relève de l’une des 7 priorités stratégiques du Conseil, les « situations de crise et de conflit ».
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Des informations sur le contexte sociopolitique du Soudan et sur les communautés de la diaspora soudanaise, sur le conflit en cours dans le pays et sur le risque de préjudice hors ligne causé par un contenu similaire à celui de ce cas.
- Comment le droit international humanitaire (également connu sous le nom de droit des conflits armés) devrait éclairer les responsabilités de Meta en matière de modération des contenus liés aux armes dans le contexte des conflits armés.
- La mise en application par Meta de ses politiques de contenu pour les déclarations en langue arabe relatives à la situation au Soudan, ainsi que l’utilisation par l’entreprise de l’automatisation pour faire respecter ses règles.
- L’impact de la modération du contenu sur la capacité des utilisateurs à interagir dans des discussions en ligne sur les conflits armés au Soudan et ailleurs, et les responsabilités de Meta en matière de droits humains dans ce contexte.
Dans ses décisions, le Conseil peut fournir des recommandations en matière de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
Commentaires publics
Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur les cas mentionnés aujourd’hui et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant les liens ci-dessus. Veuillez noter que les commentaires publics peuvent être envoyés de façon anonyme. Les commentaires publics seront ouverts jusqu’au mardi 24 octobre à 23 h 59 de votre heure locale, soit pendant une période de 14 jours.
Et après ?
Au cours des prochaines semaines, les membres du Conseil délibéreront sur ces cas. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site web du Conseil de surveillance. Pour recevoir les dernières nouvelles lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.