Un nouveau cas met en cause un faux appel audio impliquant un truquage des élections au Kurdistan irakien
27 février 2025
Le Conseil annonce aujourd’hui qu’il va examiner un nouveau cas. Dans ce cadre, nous invitons individus et organisations à soumettre des commentaires publics en cliquant sur le bouton ci-dessous.
Sélection des cas
Comme nous ne pouvons pas entendre tous les appels, le Conseil accorde la priorité aux cas susceptibles d’affecter de nombreux utilisateurs à l’échelle internationale, qui revêtent une extrême importance dans le débat public ou qui soulèvent des questions essentielles par rapport aux politiques de Meta.
Le cas que nous annonçons aujourd’hui est le suivant :
Un appel audio prétendrait vouloir truquer les élections au Kurdistan irakien
2025-019-FB-UA
Appels d’un utilisateur pour supprimer du contenu
Soumettez un commentaire public en cliquant sur le bouton ci-dessous.
.بۆ خوێندنەوەی ئەم بەیانە بە شێوەزاری کوردی سۆرانی، تکایە لێرە کرتە بکە
Pour lire cette annonce en sorani, cliquez ici.
Un peu plus d'une semaine avant les élections parlementaires organisées le 20 octobre 2024 au Kurdistan irakien, un célèbre organe de presse local a publié un clip audio sur sa page Facebook. La séquence, qui durait pratiquement deux minutes, ressemblait à une conversation téléphonique entre deux personnes. Par un jeu de superposition d'images, le clip mettait en scène Bafel Talabani, le président du parti Union patriotique du Kurdistan (PUK), et son frère, Qubad Talabani, Vice-Premier Ministre du gouvernement régional du Kurdistan et lui-même membre du PUK. La légende de la publication précisait qu'il s'agissait d'une « conversation enregistrée » entre les frères où il était question de « truquer les élections » et où ils évoquaient leurs « plans sinistres » pour la région du Kurdistan. L'organe de presse auteur de la publication est affilié au Parti démocratique du Kurdistan (KDP), le principal parti politique adverse dans la région. Les sources d'informations politiquement indépendantes sont rares en réalité au Kurdistan irakien, où la plupart des organes de presse sont étroitement liés à des partis politiques.
La séquence audio est ponctuée d'une voix-off en anglais (audible, contrairement à la bande son originale), avec des sous-titres en kurde et en anglais. Dans une discussion sans détours au sujet des prochaines élections, l'un des hommes se targue d'obtenir à coup sûr « au moins 30 sièges » et de n'avoir donc besoin d'aucun vote. Il exprime également son intention de « se débarrasser » des « 11 sièges » que le KDP aurait prétendument « toujours utilisés à son avantage ». Il précise que « cela sera un juste retour des choses ». Son interlocuteur approuve, insistant toutefois sur la nécessité de montrer que ces sièges ont été légitimement obtenus puisque le parti adverse sait, sans pouvoir toutefois le prouver, qu'ils bénéficient du soutien de Bagdad et de leur « voisin » dans le cadre des élections. Le compte de l'organe de presse sur lequel a été publiée cette séquence est suivi par environ 4 000 000 d'abonnés.
Invoquant le Standard de la communauté de Meta relatif aux fausses informations, un utilisateur a signalé cette publication, mais l'entreprise a décidé de la maintenir sur sa page Facebook. Meta a indiqué au Conseil avoir ajouté sur d'autres publications similaires ou virales, y compris sur le clip audio d'origine, une mention indiquant que le contenu pouvait avoir été créé ou modifié par des moyens numériques afin de donner l'impression d'être authentique, conformément à son approche consistant à étiqueter les contenus manipulés publiés sur les réseaux sociaux. À la suite d'une évaluation transmise à Meta par une agence de presse implantée en dehors des frontières du Kurdistan, l'entreprise a jugé probable que la séquence audio ait été créée ou modifiée par des moyens numériques au vu du ton guidé de la conversation et de l'absence de rythme (habituellement perceptible dans une conversation naturelle). Meta a également consulté un partenaire de confiance qui a décelé des signaux techniques et contextuels forts, suggérant l'origine numérique de la séquence. Meta a précisé qu'il n'avait pas ajouté la mention sur toutes les publications relayant le clip audio afin d'éviter le risque de faux positifs (un étiquetage erroné de contenu visant à discréditer le clip), ce qui explique probablement pourquoi la publication a été maintenue en ligne dans ce cas sans la moindre mention. Meta a également informé le Conseil qu'aucune traduction de cette mention n'était disponible en langue kurde.
L’utilisateur qui a signalé la publication a fait appel de la décision de Meta de conserver ce contenu sur Facebook. Après avoir été débouté, il a décidé de faire appel devant le Conseil, arguant que la séquence audio avait été générée par l'IA, publiée dans un contexte de campagne électorale « sensible » et exploitée pour « nuire à la réputation d'un parti ». L'organe de presse auteur de la publication a, par ailleurs, transmis un communiqué au Conseil, expliquant que cette séquence audio avait été partagée sur les réseaux dans le cadre de sa couverture de l'actualité, « sans opinion ni commentaire sur le contenu proprement dit » et dans le but de « simplement relayer une actualité locale ». L'organe de presse a précisé que la séquence audio avait été publiée par un parti politique et que son but était de publier des informations « exactes ».
Le Conseil a sélectionné ce cas dans le but d'examiner la question de modérer d'éventuelles informations erronées et des supports potentiellement manipulés dans un contexte électoral. Ce cas est l'occasion d'évaluer l'approche adoptée par Meta vis-à-vis des publications susceptibles de renfermer de fausses allégations, en particulier en présence de contenu ayant été potentiellement créé ou modifié par des moyens numériques. Ce cas s’inscrit dans le cadre de la priorité stratégique du Conseil liée aux élections et à l’espace civique.
Le Conseil aimerait recevoir des commentaires publics sur ce qui suit :
- Le contexte sociopolitique au Kurdistan irakien, en particulier autour des élections d'octobre 2024, et le rôle que jouent les fausses informations, la propagande et les supports manipulés.
- La relation des organismes de presse avec les représentants politiques et les partis politiques au Kurdistan irakien.
- L'impact des contenus manipulés et trompeurs en Irak et, plus largement, sur l'accès aux informations et la participation à la vie publique.
- Les risques d’une application excessive de sanctions sur les supports prétendument manipulés et les impacts négatifs potentiels sur les droits à la liberté d’expression des auteurs et de leurs audiences.
- La recherche d'approches les plus efficaces pour gérer les préjudices liés à la manipulation d'informations dans le contexte d'élections.
Dans le cadre de ses décisions, le Conseil peut émettre des recommandations sur les politiques de Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre dans un délai de 60 jours. Aussi le Conseil encourage-t-il à l’envoi de commentaires publics qui suggèrent des recommandations pertinentes dans ce cas-ci.
Commentaires publics
Si vous ou votre organisation estimez que votre point de vue est opportun et qu’il pourrait aider le Conseil à prendre une décision dans le cas annoncé aujourd’hui, vous pouvez soumettre vos contributions en cliquant sur le bouton ci-dessous. Veuillez noter que les commentaires publics peuvent être envoyés de manière anonyme. Le délai de soumission des commentaires publics est de 14 jours ; il prendra fin le jeudi 13 mars à 23 h 59, heure du Pacifique (PST).
Prochaines étapes
Au cours des prochaines semaines, les membres du Conseil délibéreront sur ce cas. Lorsque le Conseil aura statué sur ces cas, nous publierons sa décision sur la page Décisions.