Le Conseil de surveillance maintient la décision de Meta dans le cas de la vidéo retouchée du président des États-Unis Joe Biden
5 février 2024
Le Conseil de surveillance a maintenu la décision de Meta de laisser en ligne une vidéo retouchée qui donnait l’impression que Joe Biden, le président des États-Unis, touchait la poitrine de sa petite-fille de manière inappropriée, avec une légende le traitant de « pedophile » (pédophile). La publication Facebook n’enfreint pas la politique de Meta en matière de médias manipulés, qui s’applique uniquement aux vidéos créées via l’intelligence artificielle (IA) et au contenu montrant des personnes en train de dire des mots qu’elles n’ont pas dits. La vidéo de cette publication n’ayant pas été créée via l’IA et montrant Joe Biden en train de faire quelque chose qu’il n’a pas fait (et non pas en train de dire des mots qu’il n’a pas dits), elle ne va pas à l’encontre de cette politique. De plus, il est évident que cette séquence vidéo a été retouchée, et il est donc peu probable qu’elle amène une « personne moyenne » à croire qu’elle est authentique, l’une des principales caractéristiques des médias manipulés selon Meta. Le Conseil a toutefois exprimé son inquiétude face à la politique actuelle de Meta en matière de médias manipulés, qu’il trouve incohérente, peu convaincante et improprement axée sur la façon dont le contenu a été créé plutôt que sur les préjudices qu’elle vise à prévenir (par exemple, dans le cadre d’élections). Meta doit revoir cette politique rapidement, en particulier à l’approche des élections présidentielles de 2024 aux États-Unis.
À Propos du Cas
En mai 2023, une personne a publié sur Facebook une séquence vidéo de sept secondes tirée d’une véritable vidéo de Joe Biden filmée en octobre 2022, lorsque ce dernier est allé voter en personne lors des élections de mi-mandat. Dans la vidéo originale, le président des États-Unis collait un sticker « I Voted » (A voté) sur la poitrine de sa petite-fille, qui votait alors pour la première fois, puis l’embrassait sur la joue. Dans cette séquence vidéo, publiée un peu plus de six mois plus tard, les images ont été retouchées. Le moment où la main du président entre en contact avec la poitrine de sa petite-fille a été mis en boucle pour donner l’impression qu’il la touchait de manière appropriée. La bande-son de la vidéo retouchée était un extrait de la chanson « Simon Says » de Pharoahe Monch, « Girls rub on your titties » (Les filles, frottez vos seins), et la légende de la publication proclamait que Joe Biden était un « sick pedophile » (malade pédophile) et que les personnes ayant voté pour lui étaient « mentally unwell » (mentalement dérangées). D’autres publications contenant la même séquence vidéo retouchée, mais pas la même bande-son ni la même légende, sont devenues virales en janvier 2023.
Une autre personne a signalé la publication à Meta en tant que discours haineux, mais ce signalement a été immédiatement clôturé par l’entreprise, sans aucun examen. La personne à l’origine du signalement a alors fait appel de la décision de Meta, ce qui a donné lieu a un examen manuel, mais il a été conclu que le contenu n’était pas en infraction et devait être laissé en ligne. Cette personne a donc fait appel auprès du Conseil.
Principales observations
Le Conseil est d’accord avec Meta sur le fait que le contenu n’enfreint pas la politique en matière de médias manipulés de l’entreprise, parce que la vidéo n’a pas été retouchée via l’IA et ne montre pas Joe Biden en train de dire des mots qu’il n’a pas dits. La politique actuelle interdit uniquement les vidéos retouchées montrant des personnes en train de dire des mots qu’elles n’ont pas dits (et non pas en train de faire quelque chose qu’elles n’ont pas fait) et s’applique seulement aux vidéos créées via l’IA. Selon Meta, l’une des principales caractéristiques des « médias manipulés » est qu’ils pourraient tromper une personne « moyenne » en l’amenant à croire qu’ils sont authentiques et originaux. Dans ce cas, la mise en boucle de l’une des parties de la vidéo est une retouche évidente.
Le Conseil considère toutefois que la politique de Meta en matière de médias manipulés est peu convaincante, incohérente et confuse, et qu’elle n’indique pas clairement les préjudices qu’elle vise à prévenir. En résumé, cette politique doit être révisée.
La politique en question, qui s’applique uniquement au contenu vidéo retouché ou généré par l’IA, ainsi qu’au contenu qui montre des personnes en train de dire des mots qu’elles n’ont pas dits, est trop restreinte. Meta devrait étendre sa politique au contenu audio et au contenu qui montre des personnes en train de faire quelque chose qu’elles n’ont pas fait. Le Conseil n’est pas non plus convaincu par le fait que ces règles se concentrent sur les techniques utilisées pour créer le contenu. Les spécialistes et les commentaires publics s’accordent à dire que le contenu non modifié par l’IA est courant, la plupart des téléphones permettant de retoucher le contenu, et n’en est pas moins trompeur. La politique ne devrait donc pas traiter le « deepfake » différemment du contenu retouché d’autres manières (« cheap fake »).
Le Conseil reconnaît que Meta peut prendre des mesures nécessaires et proportionnés pour éviter les préjudices hors ligne causés par les médias manipulés, notamment afin de protéger le droit de vote et la participation aux affaires publiques. Cependant, sa politique actuelle ne fournit aucun détail sur les préjudices qu’elle cherche à prévenir. Meta doit revoir sa politique rapidement et y indiquer clairement quels sont ces préjudices, en particulier car 2024 sera une année au nombre record d’élections.
La légalité de cette politique a également été mise en doute. Meta l’a publiée à deux endroits : en tant que politique autonome et au sein de son Standard de la communauté en matière de désinformation. Mais ces deux ressources sont formulées différemment et suivent une logique distincte. Elles doivent être clarifiées et toute erreur doit être corrigée.
Le Conseil considère également que dans la plupart des cas, Meta peut prévenir le préjudice causé par la non-authenticité d’un contenu audio ou audiovisuel à travers des mesures moins restrictives que la suppression du contenu. Par exemple, l’entreprise pourrait ajouter des étiquettes au contenu trompeur afin d’indiquer qu’il a été retouché, en fournissant du contexte sur son authenticité. Meta utilise déjà des étiquettes dans le cadre de son programme de vérification tierce, mais si une telle mesure était introduite pour cette politique, elle devrait l’être sans passer par des médias de vérification tiers et sur l’ensemble de la plateforme.
La décision du Conseil de surveillance
Le Conseil de surveillance a confirmé la décision de Meta de laisser la publication en ligne.
Le Conseil recommande à Meta de :
- Revoir sa politique en matière de médias manipulés afin de l’étendre au contenu audio et audiovisuel ainsi qu’au contenu montrant des personnes en train de faire quelque chose qu’elles n’ont pas fait (et de dire des mots qu’elles n’ont pas dits), et ce, quelle que soit la façon dont le contenu a été créé ou retouché.
- Définir clairement dans une politique unifiée en matière de médias manipulés les préjudices qu’elle vise à prévenir, au-delà de leur caractère trompeur, comme la perturbation du droit de vote et de la participation aux affaires publiques.
- Ne plus supprimer les médias manipulés s’il n’existe aucune autre infraction aux politiques, mais y ajouter une étiquette indiquant que le contenu a été retouché et pourrait être trompeur. Cette étiquette pourrait être ajoutée au contenu multimédia (par exemple, au bas d’une vidéo) plutôt qu’à la publication tout entière, puis appliquée à toutes les répétitions de ce contenu multimédia sur les plateformes de Meta.
Pour en savoir plus
Pour lire l’intégralité de la décision, cliquez ici.
Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.