Le Conseil de surveillance annule la décision du Meta dans l’affaire de la vidéo d’un prisonnier des Forces de Soutien Rapide du Soudan

Le Conseil de surveillance a annulé la décision initiale de Meta de conserver une vidéo qui représentait des hommes armés des Forces de soutien rapide (FSR) soudanaises alors qu’ils détenaient une personne à l’arrière d’un véhicule militaire. La vidéo enfreint aussi bien le Standard de la communauté sur les personnes et les organisations dangereuses que celui sur les attaques coordonnées et la promotion d’actes criminels. Le Conseil constate avec inquiétude que Meta n’est pas intervenue suffisamment vite pour supprimer le contenu, qui représente un prisonnier de guerre et qui fait part d’un soutien à un groupe considéré comme dangereux par l’entreprise. Ce manquement met en lumière les problèmes plus graves qui se posent quant à la façon de modérer efficacement les contenus lors de conflits armés et à la manière dont les publications qui dévoilent l’identité d’une prisonnier de guerre sont examinées. Le Conseil appelle Meta à concevoir une solution exploitable à grande échelle afin de détecter proactivement les contenus qui dévoilent l’identité des prisonniers de guerre au cours d’un conflit armé.

À propos du cas

Le 27 août 2023, un utilisateur de Facebook a publié une vidéo d’hommes armés au Soudan qui détenaient une personne à l’arrière d’un véhicule militaire. Un arabophone se présente en tant que membre des FSR et affirme que le groupe a capturé un ressortissant étranger, probablement un combattant associé aux Forces armées soudanaises (FAS). L’homme indique ensuite que le prisonnier sera remis aux chefs des FSR et que le groupe a l’intention de trouver et de capturer les haut-gradés des FAS ainsi que tous les ressortissants étrangers des FAS au Soudan. La vidéo comprend des remarques dénigrantes sur les ressortissants étrangers et les leaders des autres nations qui soutiennent les FAS. La légende qui l’accompagne indique en arabe : « we know that there are foreigners fighting side by side with the devilish Brotherhood brigades » (nous savons que des étrangers se battent aux côtés des brigades infernales des Frères musulmans).

En avril 2023, un conflit armé a éclaté au Soudan entre les FSR, un groupe paramilitaire, et les FAS, les forces armées du gouvernement officiel. Quelque 7,3 millions de personnes ont été déplacées à cause de ce conflit, et plus de 25 millions souffrent d’une grave insécurité alimentaire. Les organisations des droits humains au Soudan ont rapporté que les FSR détenaient plus de 5000 personnes dans des conditions inhumaines. Des rapports indiquent que les deux camps ont commis des crimes de guerre et des crimes contre l’humanité. Meta considère que les FSR tombent sous le coup de son Standard de la communauté sur les personnes et les organisations dangereuses.

Peu de temps après la publication de la vidéo, trois utilisateurs de Facebook l’ont signalée. Toutefois, en raison de la faible gravité du contenu (probabilité qu’il enfreigne les standards de la communauté) et de sa viralité limitée (nombre de vues), les systèmes n’ont pas jugé qu’il devait faire l’objet d’un examen manuel prioritaire, et la publication n’a pas été supprimée. L’un des utilisateurs a fait appel, mais son signalement a été classé sans suite à cause des règles d’automatisation de Meta liées au COVID-19. Ce même utilisateur a alors interjeté appel auprès du Conseil de surveillance. Après que le Conseil a porté le cas à l’attention de Meta, l’entreprise a supprimé la publication Facebook au titre de son Standard de la communauté sur les personnes et les organisations dangereuses. Elle a également infligé une sanction standard et une sanction sévère au profil de la personne qui avait publié la vidéo.

Principales observations

Le contenu enfreint le Standard de la communauté de Meta sur les personnes et les organisations dangereuses parce qu’il fait part d’un soutien à un groupe considéré par l’entreprise comme une organisation dangereuse de niveau 1, spécifiquement pour ses actions visant à « canaliser des informations ou des ressources, y compris des communications officielles » au nom de l’organisation. L’homme qui intervient dans la vidéo se présente comme un membre des FSR, décrit ses activités, parle des actions entreprises par le groupe et nomme directement son commandant, Mohamed Hamdan Dagalo. Le Conseil estime qu’il est nécessaire et proportionné de supprimer ce contenu, qui inclut des menaces à l’encontre de quiconque défie les FSR ou s’y oppose.

Dans de précédentes décisions, le Conseil a souligné l’inquiétude que lui inspire le manque de transparence de la liste des personnes et des organisations considérées comme dangereuses par Meta. Compte tenu de la situation au Soudan, où les FSR exercent de facto une influence ou un contrôle sur certaines parties du pays, les civils qui comptent sur Facebook, y compris sur les canaux de communication des FSR, pour obtenir des informations essentielles en matière d’aide humanitaire et de sécurité pourraient être exposés à de plus grands risques à cause des restrictions imposées à ces canaux de communication.

En outre, le Conseil est d’avis que ce contenu enfreint la politique sur les attaques coordonnées et la promotion d’actions criminelles parce qu’il représente un prisonnier parfaitement visible et décrit dans la vidéo comme un « foreign captive » (ressortissant étranger captif) associé aux FAS. La politique de Meta interdit la divulgation de l’identité d’un prisonnier de guerre au cours d’un conflit armé. Il est nécessaire de supprimer la vidéo au titre des dispositions spécifiques du droit humanitaire international qui protègent les personnes détenues lors d’un conflit armé. Le Conseil s’inquiète de voir que ce contenu n’a pas été détecté et supprimé pour infraction aux règles de Meta contre la divulgation de l’identité des prisonniers de guerre. Ce manquement est probablement dû au fait que, pour le moment, cette règle n’est appliquée qu’à la suite d’une remontée, ce qui signifie que les équipes de modération manuelle à grande échelle ne peuvent pas intervenir elles-mêmes. En effet, cette règle ne peut être appliquée que si le contenu problématique est porté à l’attention des équipes de Meta chargées exclusivement des remontées par d’autres moyens, par exemple, par l’intermédiaire de partenaires de confiance ou si le contenu fait l’objet d’une large couverture médiatique.

Enfin, le Conseil constate également avec inquiétude que Meta n’a pas supprimé le contenu immédiatement ou peu de temps après sa publication. Les systèmes automatisés de Meta n’ont pas détecté d’infraction dans cette vidéo, ce qui dénote un problème de mise en application plus sérieux. Le Conseil estime que des changements doivent avoir lieu afin qu’un plus grand nombre de contenus soutenant des organisations dangereuses puissent être transmis aux équipes d’examen manuel lorsqu’ils sont liés à des conflits armés.

La décision du Conseil de surveillance

Le Conseil de surveillance a annulé la décision initiale de Meta de conserver la vidéo.

Le Conseil recommande à Meta de :

  • Concevoir une solution exploitable à grande échelle pour appliquer sa politique sur les attaques coordonnées et la promotion d’actions criminelles afin d’interdire la divulgation de l’identité des prisonniers de guerre dans le cadre d’un conflit armé. L’entreprise doit mettre sur pied une équipe spécialisée qui sera avant tout chargée d’identifier de manière proactive les contenus qui révèlent l’identité de prisonniers de guerre en période de conflit.
  • Auditer les données d’entraînement utilisées dans son classificateur de contenu vidéo pour déterminer s’il dispose d’exemples suffisamment diversifiés de publications qui apportent un soutien à des organisations qualifiées de dangereuses dans le cadre de conflits armés, notamment du point de vue de la langue, du dialecte, de la région ou du conflit.
  • Ajouter, dans ses Standards de la communauté qui mentionnent les listes d’organisations terroristes étrangères et de terroristes internationaux spécifiquement désignés établies par les États-Unis, un hyperlien vers lesdites listes.

Pour en savoir plus

Pour lire l’intégralité de la décision, cliquez ici.

Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez ici.

Retour Aux Actualités