Renversé
Vidéo d’un prisonnier des Forces de soutien rapide au Soudan
Le Conseil de surveillance a annulé la décision initiale de Meta de conserver une vidéo qui représentait des hommes armés des Forces de soutien rapide (FSR) soudanaises alors qu’ils détenaient une personne à l’arrière d’un véhicule militaire.
Résumé
Le Conseil de surveillance a annulé la décision initiale de Meta de conserver une vidéo qui représentait des hommes armés des Forces de soutien rapide (FSR) soudanaises alors qu’ils détenaient une personne à l’arrière d’un véhicule militaire. La vidéo enfreint aussi bien le standard de la communauté sur les organismes et les individus dangereux que celui sur les attaques coordonnées et la promotion d’actes criminels. Le Conseil constate avec inquiétude que Meta n’est pas intervenue suffisamment vite pour supprimer le contenu, qui représente un prisonnier de guerre et qui fait part d’un soutien à un groupe considéré comme dangereux par l’entreprise. Ce manquement met en lumière les problèmes plus graves qui se posent quant à la façon de modérer efficacement les contenus lors de conflits armés et à la manière dont les publications qui dévoilent l’identité d’un prisonnier de guerre sont examinées. Le Conseil appelle Meta à concevoir une solution exploitable à grande échelle afin de détecter proactivement les contenus qui dévoilent l’identité des prisonniers de guerre au cours d’un conflit armé.
À propos du cas
Le 27 août 2023, un utilisateur de Facebook a publié une vidéo d’hommes armés au Soudan qui détenaient une personne à l’arrière d’un véhicule militaire. Un arabophone se présente en tant que membre des FSR et affirme que le groupe a capturé un ressortissant étranger, probablement un combattant associé aux Forces armées soudanaises (FAS). L’homme indique ensuite que le prisonnier sera remis aux chefs des FSR et que le groupe a l’intention de trouver et de capturer les hauts gradés des FAS ainsi que tous les ressortissants étrangers des FAS au Soudan. La vidéo comprend des remarques dénigrantes sur les ressortissants étrangers et les leaders des autres nations qui soutiennent les FAS. La légende qui l’accompagne indique en arabe : « we know that there are foreigners fighting side by side with the devilish Brotherhood brigades » (nous savons que des étrangers se battent aux côtés des brigades infernales des Frères musulmans).
En avril 2023, un conflit armé a éclaté au Soudan entre les FSR, un groupe paramilitaire, et les FAS, les forces armées du gouvernement officiel. Quelque 7,3 millions de personnes ont été déplacées à cause de ce conflit, et plus de 25 millions souffrent d’une grave insécurité alimentaire. Les organisations des droits humains au Soudan ont rapporté que les FSR détenaient plus de 5000 personnes dans des conditions inhumaines. Des rapports indiquent que les deux camps ont commis des crimes de guerre et des crimes contre l’humanité. Meta considère que les FSR tombent sous le coup de son standard de la communauté sur les organismes et les individus dangereux.
Peu de temps après la publication de la vidéo, trois utilisateurs de Facebook l’ont signalée. Toutefois, en raison de la faible gravité du contenu (probabilité qu’il enfreigne les standards de la communauté) et de sa viralité limitée (nombre de vues), les systèmes n’ont pas jugé qu’il devait faire l’objet d’un examen manuel prioritaire, et la publication n’a pas été supprimée. L’un des utilisateurs a fait appel, mais son signalement a été classé sans suite à cause des règles d’automatisation de Meta liées au COVID-19. Ce même utilisateur a alors interjeté appel auprès du Conseil de surveillance. Après que le Conseil a porté le cas à l’attention de Meta, l’entreprise a supprimé la publication Facebook au titre de son standard de la communauté sur les organismes et les individus dangereux. Elle a également infligé une sanction standard et une sanction sévère au profil de la personne qui avait publié la vidéo.
Principales observations
Le contenu enfreint le standard de la communauté de Meta sur les organismes et les individus dangereux parce qu’il fait part d’un soutien à un groupe considéré par l’entreprise comme un organisme dangereux de niveau 1, spécifiquement pour ses actions visant à « canaliser des informations ou des ressources, y compris des communications officielles » au nom de l’organisme. L’homme qui intervient dans la vidéo se présente comme un membre des FSR, décrit ses activités, parle des actions entreprises par le groupe et nomme directement son commandant, Mohamed Hamdan Dagalo. Le Conseil estime qu’il est nécessaire et proportionné de supprimer ce contenu, qui inclut des menaces à l’encontre de quiconque défie les FSR ou s’y oppose.
Dans de précédentes décisions, le Conseil a souligné l’inquiétude que lui inspire le manque de transparence de la liste des organismes et des individus considérés comme dangereux par Meta. Compte tenu de la situation au Soudan, où les FSR exercent de facto une influence ou un contrôle sur certaines parties du pays, les civils qui comptent sur Facebook, y compris sur les canaux de communication des FSR, pour obtenir des informations essentielles en matière d’aide humanitaire et de sécurité pourraient être exposés à de plus grands risques à cause des restrictions imposées à ces canaux de communication.
En outre, le Conseil est d’avis que ce contenu enfreint la politique sur les attaques coordonnées et la promotion d’actions criminelles parce qu’il représente un prisonnier parfaitement visible et décrit dans la vidéo comme un « foreign captive » (ressortissant étranger captif) associé aux FAS. La politique de Meta interdit la divulgation de l’identité d’un prisonnier de guerre au cours d’un conflit armé. Il est nécessaire de supprimer la vidéo au titre des dispositions spécifiques du droit international humanitaire qui protègent les personnes détenues lors d’un conflit armé. Le Conseil s’inquiète de voir que ce contenu n’a pas été détecté et supprimé pour infraction aux règles de Meta contre la divulgation de l’identité des prisonniers de guerre. Ce manquement est probablement dû au fait que, pour le moment, cette règle n’est appliquée qu’à la suite d’une escalation, ce qui signifie que les équipes de modération manuelle à grande échelle ne peuvent pas intervenir elles-mêmes. En fait, cette règle ne peut être appliquée que si le contenu problématique est porté à l’attention des équipes de Meta chargées exclusivement des escalations par d’autres moyens, par exemple, par l’intermédiaire de partenaires de confiance ou si le contenu fait l’objet d’une large couverture médiatique.
Enfin, le Conseil constate également avec inquiétude que Meta n’a pas supprimé le contenu immédiatement ou peu de temps après sa publication. Les systèmes automatisés de Meta n’ont pas détecté d’infraction dans cette vidéo, ce qui dénote un problème de modération plus sérieux. Le Conseil estime que des changements doivent avoir lieu afin qu’un plus grand nombre de contenus soutenant des organismes dangereux puissent être transmis aux équipes de modération manuelle lorsqu’ils sont liés à des conflits armés.
Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de conserver la vidéo.
Le Conseil recommande à Meta ce qui suit :
- Concevoir une solution exploitable à grande échelle pour appliquer sa politique sur les attaques coordonnées et la promotion d’actions criminelles afin d’interdire la divulgation de l’identité des prisonniers de guerre dans le cadre d’un conflit armé. L’entreprise doit mettre sur pied une équipe spécialisée qui sera avant tout chargée d’identifier de manière proactive les contenus qui révèlent l’identité de prisonniers de guerre en période de conflit.
- Auditer les données d’entraînement utilisées dans son classificateur de contenu vidéo pour déterminer s’il dispose d’exemples suffisamment diversifiés de publications qui apportent un soutien à des organismes qualifiés de dangereux dans le cadre de conflits armés, notamment du point de vue de la langue, du dialecte, de la région ou du conflit.
- Ajouter, dans ses standards de la communauté qui mentionnent les listes d’organisations terroristes étrangères et de terroristes internationaux spécifiquement désignés établies par les États-Unis, un hyperlien vers lesdites listes.
* Les résumés de cas donnent un aperçu du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision initiale de Meta de conserver une vidéo qui représente des hommes armés, qui disent être des membres des Forces de soutien rapide (FSR), alors qu’ils détiennent une personne à l’arrière d’un véhicule militaire. Les membres des FSR décrivent le captif, dont la tête est parfaitement visible, comme un ressortissant étranger associé aux Forces armées soudanaises (FAS). Meta considère que les FSR tombent sous le coup de son standard de la communauté sur les organismes et les individus dangereux. Après que le Conseil a sélectionné le cas, Meta a réexaminé sa décision initiale et a supprimé la vidéo pour infraction à son standard de la communauté sur les organismes et les individus dangereux, qui interdit tout « soutien » aux entités désignées, en particulier dont les actions visent à « canaliser des informations ou des ressources, y compris des communications officielles, au nom d’une entité ou d’un évènement désignés ». La publication enfreignait également la politique de Meta sur les attaques coordonnées et la promotion d’actions criminelles, au titre de laquelle il est interdit de divulguer l’identité d’un prisonnier de guerre au cours d’un conflit armé (dans ce cas-ci, la personne détenue dans le véhicule). Le Conseil s’inquiète de constater que Meta n’a pas supprimé le contenu suffisamment rapidement, ce qui pourrait dénoter des problèmes plus sérieux liés à l’efficacité d’application de ses politiques en période de conflit armé.
2. Description du cas et contexte
Le 27 août 2023, un utilisateur de Facebook a publié une vidéo d’hommes armés au Soudan qui détenaient une personne à l’arrière d’un véhicule militaire. Dans la vidéo, un homme, qui n’est pas l’auteur de la publication, se présente en arabe en tant que membre des FSR, un groupe paramilitaire. Il affirme que le groupe a capturé un ressortissant étranger, probablement un combattant associé aux FAS, et qu’il a l’intention de le remettre aux chefs des FSR. L’homme indique également que le groupe entend trouver les hauts gradés des FAS et leurs associés étrangers au Soudan, qu’il capturera quiconque s’oppose aux FSR et qu’il reste loyal envers son commandant, Mohamed Hamdan Dagalo. La vidéo comprend des remarques dénigrantes sur les ressortissants étrangers et les leaders des autres nations qui soutiennent les FAS.
La vidéo est accompagnée d’une légende, également en arabe, qui se traduit comme suit : « we know that there are foreigners from our evil neighbor fighting side by side with the devilish Brotherhood brigades » (nous savons que des étrangers issus du pays voisin diabolique se battent aux côtés des brigades infernales des Frères musulmans). Peu de temps après la publication de la vidéo, l’utilisateur a modifié la légende. La légende modifiée se traduit ainsi : « we know that there are foreigners fighting side by side with the devilish Brotherhood brigades » (nous savons que des étrangers se battent aux côtés des brigades infernales des Frères musulmans). La publication a recueilli moins de 100 réactions, 50 commentaires et 50 partages, alors que son auteur a quelque 4000 amis et 32 000 followers.
D’autres utilisateurs de Facebook ont signalé le contenu peu après sa publication, mais les systèmes n’ont pas jugé qu’il devait faire l’objet d’un examen manuel prioritaire, et la publication n’a pas été supprimée. L’un de ces utilisateurs a fait appel de la décision de Meta, mais son appel a de nouveau été classé sans suite sans avoir été examiné. Ce même utilisateur a alors interjeté appel auprès du Conseil de surveillance. Après que celui-ci a porté le cas à l’attention de Meta en octobre 2023 et que les spécialistes de cette dernière l’ont examiné, l’entreprise a supprimé la publication de Facebook en vertu de sa politique sur les organismes et les individus dangereux. Une fois le contenu supprimé, Meta a infligé deux sanctions au profil de la personne qui l’a publié. La première, une sanction sévère, est synonyme de pénalités différentes et plus lourdes que la deuxième, une sanction standard. L’accumulation de sanctions standard peut augmenter le degré de sévérité des pénalités. Lorsque le contenu publié enfreint les règles plus strictes de Meta, telles que sa politique sur les organismes et les individus dangereux, l’entreprise peut infliger d’autres restrictions plus sévères en plus des restrictions standard. Par exemple, il est possible que les personnes qui utilisent ses plateformes ne puissent plus créer de publicités ni utiliser Facebook Live pendant des durées déterminées.
Le Conseil a tenu compte du contexte suivant pour prendre une décision dans ce cas-ci.
Le conflit au Soudan a débuté en avril 2023 et oppose les FAS, les forces armées du gouvernement reconnu par la communauté internationale, dirigées par le Général Abdel Fattah al-Burhan, et les FSR, un groupe paramilitaire mené par Mohamed Hamdan Dagalo, plus connu sous le nom de « Hemedti ». Peu après le début du conflit, les FAS ont qualifié les FSR de groupe rebelle et ont ordonné sa dissolution. La guerre qui déchire le pays a été qualifiée de conflit armé non international. En novembre 2023, selon Sudan War Monitor, les FSR contrôlaient la majorité du Darfour-Occidental, la zone autour de la capitale Khartoum et certaines parties du Kordofan du Nord et du Kordofan de l’Ouest, tandis que les FAS contrôlaient la majorité de la vallée du Nil ainsi que les provinces et les ports orientaux du pays.
Le département du Trésor des États-Unis a sanctionné Abdelrahim Hamdan Dagalo, figure de proue des FSR et frère de Mohamed Hamdan Dagalo, le 6 septembre 2023. De son côté, Meta avait déjà qualifié les FSR d’organisation terroriste de niveau 1 près d’un mois plus tôt, le 11 août 2023, au titre de sa politique sur les organismes et les individus dangereux. Au moment de la publication de cette décision, Meta considère toujours les FSR comme telle.
Selon les Nations Unies, environ 7,3 millions de personnes ont été déplacées depuis avril 2023 en raison du conflit, les femmes et les enfants représentant la moitié de ce chiffre. Plus de 25 millions de personnes, parmi lesquelles plus de 14 millions d’enfants, souffrent d’une grave insécurité alimentaire et ont besoin d’aide humanitaire. Les actes de violence et de violence sexuelle, le harcèlement, l’exploitation sexuelle et le trafic à caractère sexiste se sont tous multipliés. Selon des estimations, les épidémies et le déclin du système de soins de santé ont provoqué la mort de quelque 6000 personnes dans tout le Soudan. En octobre 2023, le Conseil des droits de l’homme des Nations Unies a adopté une résolution pour établir de toute urgence une mission d’enquête internationale indépendante au Soudan. Celle-ci a pour objectif d’investiguer et de déterminer la véracité et les circonstances des infractions présumées au droit international humanitaire et des violations supposées des droits humains qui ont eu lieu au cours du conflit. Les organisations soudanaises des droits humains ont rapporté que les FSR détenaient plus de 5000 personnes dans des conditions dégradantes et inhumaines à Khartoum, la capitale du pays, ne leur accordant qu’un accès limité aux biens de première nécessité, essentiels à la dignité humaine.
Selon plusieurs sources, notamment la Cour pénale internationale et le département d’État américain, des rapports indiquent qu’aussi bien les membres des FAS que ceux des FSR ont commis un génocide, des crimes contre l’humanité et des crimes de guerre au Soudan. En outre, les rapports mentionnent que les FSR et les milices alliées ont perpétré des crimes de guerre en ciblant la communauté ethnique masalit au Soudan et à la frontière avec le Tchad. Les spécialistes du Moyen-Orient et de l’Afrique du Nord consultés par le Conseil ont souligné les rapports selon lesquels les deux parties au conflit sont également responsables de nombreux actes de maltraitance à l’encontre des personnes prisonnières : conditions de détention inhumaines, détentions illégales et arbitraires, ciblage ethnique, violence sexuelle, meurtres et utilisation d’otages en tant que boucliers humains.
Selon les experts consultés par le Conseil, comme Meta considère les FSR comme un organisme dangereux, la diffusion d’informations à son sujet, y compris les narratifs nuisibles, est limitée. Cependant, cela a également encouragé les FSR à explorer d’autres tactiques de partage des informations, par exemple l’utilisation de pages et de comptes individuels non officiels, y compris pour publier du contenu à propos des personnes détenues. Il est ainsi plus difficile pour les observateurs de surveiller ou de contrer de manière efficace les activités du groupe. Les spécialistes ont également fait remarquer que cette désignation des FSR contribue à une asymétrie de l’information et gêne l’accès des civils aux informations. Par exemple, les civils sont moins susceptibles de recevoir de nouvelles informations des FSR à propos des conditions de sécurité dans certaines zones sur les plateformes de Meta (cf. commentaire public de l’Observatoire des médias citoyens, PC-24020).
Les civils et les médias soudanais comptent sur les plateformes de réseaux sociaux, en particulier sur Facebook, pour obtenir des informations cruciales et actuelles sur les développements sociaux, politiques, militaires et humanitaires, ainsi que pour diffuser ces informations au-delà des frontières du Soudan ; pour trouver des itinéraires afin de se mettre en sécurité au sein du pays ou pour fuir le Soudan ; pour trouver des informations primordiales sur les opérations militaires ou sur les explosions de violence afin d’en savoir plus sur les actions militaires en cours à certains endroits et pour trouver refuge ou accueillir les personnes qui fuient ces opérations (cf. commentaire public de l’Observatoire des médias citoyens, PC-24020) ; pour trouver de l’aide humanitaire et médicale ; et pour trouver des informations sur les otages et les prisonniers de guerre.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil a le pouvoir d’examiner la décision de Meta à la suite d’un appel interjeté par la personne qui a précédemment signalé un contenu laissé sur la plateforme (article 2, section 1 de la Charte) ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 de la Charte ; article 4 de la Charte). Lorsque Meta s’engage à donner suite aux recommandations, le Conseil surveille leur mise en œuvre.
4. Sources d’autorité et conseils
Les standards suivants et les précédents ont éclairé l’analyse du Conseil dans ce cas :
I. Décisions du Conseil de surveillance
- Citation nazie
- Bureau des affaires de communication du Tigré
- Vidéo de prisonniers de guerre arméniens
- Inquiétude pendjabie concernant le RSS en Inde
- Isolement d’Öcalan
- Négationnisme
- Publication sur les armes liée au conflit soudanais
- Avis consultatif Référence à des personnes dangereuses désignées sous le terme « chahid »
II. Règles de Meta relatives au contenu
L’analyse du Conseil s’est appuyée sur l’engagement de Meta en faveur de la liberté d’expression, que l’entreprise qualifie de « primordial », et sur ses valeurs de sécurité, de vie privée et de dignité.
Après que le Conseil a décidé d’examiner ce cas, Meta a supprimé le contenu en raison du soutien qu’elle apportait à une entité désignée, conformément à sa politique sur les organismes et les individus dangereux. Le contenu enfreignait également la politique sur les attaques coordonnées et la promotion d’actions criminelles, qui régit la publication d’images de prisonniers de guerre identifiables en période de conflit armé. Comme Meta l’a indiqué au Conseil précédemment, lorsque le contenu enfreint plusieurs politiques, l’entreprise applique une pénalité proportionnelle à la violation la plus grave. Dans ce cas-ci, Meta a considéré que l’infraction à la politique sur les organismes et les individus dangereux était la plus grave.
Organismes et individus dangereux
Comme le stipule la justification de la politique sur les organismes et les individus dangereux, afin d’éviter et d’empêcher tout danger réel, les organismes ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur ses plateformes. Meta évalue ces entités selon leur comportement en ligne et hors ligne, et plus particulièrement selon les liens qu’elles entretiennent avec la violence. Au moment de la publication du contenu en question dans ce cas-ci, la politique interdisait les « les éloges, les soutiens techniques et les représentations » des entités reconnues comme dangereuses par Meta.
L’expression « soutiens techniques » recouvrait le fait de « canaliser des informations ou des ressources, y compris des communications officielles, au nom d’une entité ou d’un évènement désignés » en « cit[ant] directement une entité désignée sans légende qui condamne ses propos, ouvre une discussion neutre à ce sujet ou fait partie d’un reportage ».
Le 29 décembre 2023, Meta a mis à jour ses règles relatives aux « soutiens techniques ». La version mise à jour stipule que Meta supprime « les glorifications, les soutiens et les représentations d’entités de niveau 1 ». Meta a ajouté deux sous-catégories : « soutien substantiel » et « autre type de soutien ». Le fait de « canaliser des informations ou des ressources » est désormais considéré comme un « autre type de soutien ».
Attaques coordonnées et promotion d’actions criminelles
D’après sa justification, le standard de la communauté sur les attaques coordonnées et la promotion des actions criminelles vise à « empêcher le préjudice hors ligne et les usurpations d’identité » en interdisant « la facilitation, l’organisation, la promotion ou l’admission de certaines activités criminelles ou nuisibles visant des personnes, des entreprises, des biens ou des animaux ». Ce standard de la communauté interdit la « divulgation d’identité : dévoiler l’identité d’une personne et risquer de la mettre en danger ». Parmi les groupes protégés de la « divulgation d’identité », la politique liste les « prisonniers de guerre, dans le contexte d’un conflit armé ».
III. Responsabilités de Meta en matière de droits humains
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations Unies en 2011, établissent un cadre de travail volontaire pour les responsabilités en matière de droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique relative aux droits humains au sein de l’entreprise, dans laquelle elle a réaffirmé son engagement à respecter les droits humains conformément aux PDNU. De manière significative, les PDNU imposent une responsabilité accrue aux entreprises opérant dans un contexte de conflit (« Entreprises, droits humains et régions touchées par des conflits : vers une action renforcée », A/75/212).
L’analyse du Conseil sur les responsabilités de Meta en matière de droits humains en l’espèce s’est appuyée sur les normes internationales suivantes :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations Unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019), le rapport de la Rapporteuse spéciale des Nations Unies sur la désinformation et la liberté d’opinion et d’expression pendant les conflits armés : A/77/288 ; le rapport du HCDH sur la protection juridique internationale des droits de l’homme dans les conflits armés (2011).
- Le droit à la vie : l’article 6 du PIDCP.
- Le droit à la liberté et à la sécurité de la personne : l’article 9 du PIDCP.
- Le droit de ne pas être soumis à la torture ou à des traitements inhumains ou dégradants : l’article 7 du PIDCP.
- Le droit à la vie privée : l’article 17 du PIDCP.
- Le droit à être traité humainement en détention : l’article 10 du PIDCP.
- La protection des prisonniers de guerre contre les traitements dégradants et humiliants, y compris contre les insultes et la curiosité publique : l’article 3 commun aux Conventions de Genève et le protocole II additionnel ; l’article 13, paragraphe 2 de la Convention de Genève (III), Commentaires des Conventions de Genève(III), Comité international de la Croix-Rouge (CICR), 2020 ; l’observation générale n° 31, Comité des droits de l’homme, 2004.
5. Soumissions de l’utilisateur
L’utilisateur qui a fait appel de la décision de l’entreprise de conserver le contenu a indiqué que la publication incluait des informations trompeuses, des scènes violentes et des menaces proférées par les FSR à Khartoum, la capitale du Soudan. L’utilisateur a demandé la suppression du contenu parce que celui-ci représente un danger pour les personnes au Soudan.
6. Soumissions de Meta
Meta a informé le Conseil que sa décision initiale de conserver le contenu était due à ses systèmes automatisés, qui n’avaient pas transmis le contenu aux équipes de modération manuelle. D’après l’Espace modération de Meta, les signalements sont généralement classés par ordre de priorité en fonction de différents facteurs : gravité de l’infraction présumée, viralité du contenu et probabilité qu’il enfreigne les Standards de la communauté. Les signalements qui sont systématiquement considérés comme moins urgents que d’autres restent dans la file d’attente jusqu’à ce qu’ils soient classés sans suite au bout de 48 heures. Peu après la publication du contenu en question dans ce cas-ci, trois utilisateurs de Facebook l’ont signalé quatre fois pour « terrorisme », « discours haineux » et « violence ». En raison de la faible gravité du contenu et de sa viralité limitée, ces signalements n’ont pas été transmis aux équipes de modération manuelle, et la publication a été conservée sur la plateforme. L’un de ces utilisateurs a fait appel de la décision de Meta de conserver le contenu. Selon l’entreprise, cet appel a été automatiquement classé sans suite en raison de ses politiques d’automatisation liées au COVID-19, que Meta a mises en place au début de la pandémie en 2020 afin de réduire le nombre de signalements envoyés à ses équipes de modération manuelle tout en laissant ouverts les signalements potentiellement « à haut risque » (cf. décision Négationnisme). En raison du classement sans suite du contenu, celui-ci n’a pas fait l’objet d’une remontée aux spécialistes du sujet ou des politiques concernés. Il n’a donc pas été réexaminé.
Meta a expliqué qu’elle avait décidé de supprimer la publication après que le Conseil s’était saisi du cas parce qu’elle enfreignait son standard de la communauté sur les organismes et les individus dangereux. Meta a conclu qu’en publiant une vidéo qui représente un membre autoproclamé des FSR qui parle des activités de l’organisation sans l’accompagner d’une légende qui « condamne ses propos, ouvre une discussion neutre à ce sujet ou fait partie d’un reportage », l’utilisateur enfreignait les règles sur les « soutiens techniques » en « canalis[ant] des informations » à propos d’une entité désignée de niveau 1. Aussi l’entreprise a-t-elle supprimé ce contenu de la plateforme.
Le Conseil a posé 13 questions par écrit à Meta. Les questions concernaient les mesures de modération prises par Meta pour le contenu lié au conflit au Soudan, les systèmes automatisés et les modèles de classification, les processus relatifs à la désignation des organismes et des individus dangereux, la justification avancée pour qualifier les FSR d’organisation terroriste de niveau 1 et les conséquences de cette décision sur l’accès aux informations au Soudan. Meta a répondu à toutes les questions.
7. Commentaires publics
Le Conseil de surveillance a reçu 16 commentaires publics répondant aux critères de soumission. Dix d’entre eux ont été publiés du Moyen-Orient et d’Afrique du Nord, trois venaient d’Europe, un d’Amérique latine et des Caraïbes, un d’Afrique subsaharienne et un des États-Unis et du Canada. Pour consulter les commentaires publics soumis accompagnés d’un consentement à la publication, cliquez ici.
Les soumissions recouvraient les thèmes suivants : le traitement des otages, des détenus et des civils par les FSR ; les actes de maltraitance et de violence présumés commis par les FSR dans la région ; les risques inhérents à l’exposition de détenus et d’otages identifiables sur les réseaux sociaux ; l’utilisation que les FSR font des réseaux sociaux ; l’importance des réseaux sociaux pour les civils au Soudan ; les conséquences de la désignation des FSR par Meta sur l’accès aux informations au Soudan ; et la manière dont Meta répartit les contenus à des fins de modération automatisée ou manuelle en période de conflit.
8. Analyse du Conseil de surveillance
Le Conseil a examiné si ce contenu devait être supprimé en analysant les politiques de contenu de Meta, ses responsabilités en matière de droits humains et ses valeurs. Le Conseil a également évalué les implications de ce cas-ci sur l’approche plus globale de la gouvernance du contenu par Meta.
Il a sélectionné ce cas-ci parce qu’il lui donnait la possibilité d’explorer la manière dont les entreprises de réseaux sociaux doivent assurer un accès aux informations dans les pays, comme le Soudan, où les informations peuvent être vitales au cours d’un conflit, en particulier pour les civils ; toutefois, des organismes dangereux peuvent également utiliser ces plateformes pour poursuivre leurs objectifs violents et faire peser de réels dangers.
En outre, ce cas permet au Conseil d’évaluer la façon dont Meta protège les détenus lors de conflits armés conformément au droit international humanitaire. Ce cas relève de deux priorités stratégiques du Conseil : principalement « Situations de crise et de conflit », mais également « Application des règles et traitement du contenu automatisés ».
8.1 Respect des politiques relatives au contenu de Meta
I. Règles relatives au contenu
Standard de la communauté sur les organismes et les individus dangereux
Le Conseil estime que le contenu dans ce cas-ci enfreint la politique sur les organismes et les individus dangereux parce qu’il soutient une organisation qui, selon Meta, relève du niveau 1.
L’entreprise a informé le Conseil qu’elle avait supprimé le contenu dans ce cas-ci parce qu’il apportait un « soutien technique » à une organisation terroriste de niveau 1. Elle a expliqué que l’expression « soutiens techniques » recouvre le fait de « canaliser des informations ou des ressources, y compris des communications officielles, au nom d’une entité […] désigné[e] » en « cit[ant] directement une entité désignée sans légende qui condamne ses propos, ouvre une discussion neutre à ce sujet ou fait partie d’un reportage ». Dans ce cas-ci, la vidéo représente une personne qui dit être membre des FSR, parle des activités des FSR et des actions qu’elles vont entreprendre, et nomme le commandant des FSR.
Par ailleurs, les règles internes de Meta fournissent des exemples non exhaustifs d’éléments écrits ou visuels qui indiquent un soutien technique. Il s’agit notamment des publications dont « le contenu inclut (ou prétend inclure) un leader, un porte-parole ou un membre connu ou autoproclamé d’une entité désignée qui parle de l’organisation ou de sa cause ».
Le 29 décembre 2023, Meta a mis à jour sa règle relative au « soutien technique » dans la politique sur les organismes et les individus dangereux. La version mise à jour stipule que Meta supprime « les glorifications, les soutiens et les représentations d’entités de niveau 1 ». Bien que Meta ait remplacé « soutien technique » par « soutien », cela n’a aucune influence sur l’analyse de ce cas-ci ou sur la manière dont Meta modérerait le contenu concerné.
Politique sur les attaques coordonnées et la promotion d’actions criminelles
Le Conseil estime que le contenu enfreint également le standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles.
La politique de Meta interdit de dévoiler l’identité d’un prisonnier de guerre au cours d’un conflit armé. Selon Meta, cette politique n’est appliquée qu’à la suite d’une escalation et ne prévoit pas d’exception pour le contenu qui sensibilise à la situation des prisonniers de guerre ou qui condamne la manière dont ils sont traités. Meta définit un prisonnier de guerre comme « un membre de forces armées qui a été capturé ou qui est tombé entre les mains de l’opposant pendant ou directement après un conflit armé ». Le Conseil comprend que cette règle s’applique de la même façon aux conflits armés internationaux et aux conflits armés non internationaux.
Dans ce cas-ci, le Conseil est d’avis que la vidéo représente un individu identifiable décrit par les membres armés des FSR qui l’ont détenu comme un « foreign captive » (ressortissant étranger captif) associé aux FAS, le principal opposant des FSR dans le conflit qui déchire actuellement le Soudan. Aussi le contenu enfreint-il la politique et doit-il être supprimé.
8.2 Respect des responsabilités de Meta en matière des droits humains
Liberté d’expression (article 19 du PIDCP)
L’article 19 du Pacte international relatif aux droits civils et politiques prévoit une large protection de la liberté d’expression, en particulier de l’expression politique. Ce droit inclut la « liberté de rechercher, de recevoir et de répandre des informations et des idées de toute espèce ». Ces droits doivent être respectés pendant les conflits armés actifs et continuer à informer les responsabilités de Meta en matière de droits humains, parallèlement aux règles du droit international humanitaire qui se renforcent et se complètent mutuellement et qui s’appliquent pendant de tels conflits (observation générale n°31, Comité des droits de l’homme, 2004, paragraphe 11 ; Commentaire sur les PDNU, Principe 12 ; cf. également le rapport A/77/288 de la Rapporteuse spéciale des Nations Unies sur la désinformation et la liberté d’opinion et d’expression pendant les conflits armés, paragraphes 33 à 35 (2022) ; et le rapport du HCDH sur la protection juridique internationale des droits de l’homme dans les conflits armés (2011), p. 59).
La Rapporteuse spéciale des Nations Unies sur la liberté d’expression a déclaré que « [l]ors des conflits armés, les populations sont extrêmement vulnérables et ont particulièrement besoin d’une information précise et fiable afin de garantir leur sécurité et leur bien-être. Pourtant, c’est précisément dans ces situations que leur liberté d’expression et d’opinion, qui comprend "la liberté de chercher, de recevoir et de répandre des informations et des idées de toute espèce" est la plus entravée par les circonstances de la guerre, par les parties au conflit et par les autres acteurs qui manipulent et restreignent l’information à des fins politiques, militaires et stratégiques » (rapport A/77/288, paragraphe 1). Le Conseil reconnaît l’importance de garantir aux personnes le libre partage d’informations relatives aux conflits, notamment lorsque les réseaux sociaux sont la principale source d’informations, tout en s’assurant que le contenu susceptible d’inciter ou d’alimenter la violence hors ligne est supprimé.
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité consacré par la législation internationale relative aux droits humains exige que les règles utilisées pour limiter la liberté d’expression soient claires et accessibles par le public (observation générale n° 34, paragraphe 25). Les restrictions de l’expression doivent être formulées avec suffisamment de précision pour permettre aux individus d’adapter leur conduite en conséquence (ibid). En ce qui concerne Meta, l’entreprise doit fournir des indications aux utilisateurs et aux utilisatrices sur les contenus autorisés ou non sur la plateforme. En outre, les règles qui limitent la liberté d’expression « ne peu[ven]t pas conférer aux personnes chargées de [leur] application un pouvoir illimité » et doivent « énoncer des règles suffisamment précises pour permettre aux personnes chargées de leur application d’établir quelles formes d’expression sont légitimement restreintes et quelles formes d’expression le sont indûment » (A/HRC/38/35, paragraphe 46).
Organismes et individus dangereux
Le Rapporteur spécial des Nations Unies sur la liberté d’expression a fait part de ses inquiétudes liées aux règles des plateformes de réseaux sociaux qui interdisent de « faire l’éloge » et « d’apporter un appui », considérant que les termes sont « excessivement vague[s] » (A/HRC/38/35, paragraphe 26). Le Conseil a critiqué par le passé le manque de clarté de la politique sur les organismes et les individus dangereux. Meta ne partage pas avec le public la liste des entités qu’elle considère comme dangereuses au titre de cette politique. L’entreprise explique qu’elle choisit les entités qui ont été désignées par le gouvernement des États-Unis comme des Organisations terroristes étrangères (en anglais, FTO) ou des Terroristes internationaux spécialement désignés (en anglais, SDGT). Bien que la liste complète des organismes terroristes de niveau 1 de Meta soit établie par l’entreprise et qu’elle ne se limite pas aux entités désignées par les États-Unis, le Conseil comprend qu’une part substantielle de ces organismes figurent sur les listes FTO et SDGT. Les listes du gouvernement des États-Unis sont publiques ; toutefois, les Standards de la communauté de Meta ne font que référence aux FTO et aux SDGT sans fournir de liens vers ces listes. Le Conseil recommande donc à Meta d’ajouter des hyperliens qui redirigeraient vers les listes FTO et SDGT dans ses Standards de la communauté afin d’améliorer leur transparence et leur clarté pour les utilisateurs et les utilisatrices.
Cela étant, les FSR impliquées dans ce cas-ci n’ont pas été portées sur les listes des États-Unis, ce qui signifie que le public ne peut pas savoir que Meta a qualifié de dangereuse l’une des parties au conflit. En raison de ce manque de transparence sur la désignation d’organismes, le public risque de ne pas savoir si son contenu est susceptible d’enfreindre les règles. Dans sa décision Citation nazie, le Conseil a recommandé à Meta de « [f]ournir une liste publique des organisations et des personnes désignées comme "dangereuses" en vertu du Standard de la communauté sur les [organismes et les individus dangereux] ». Meta a refusé de mettre en œuvre cette recommandation après avoir évalué sa faisabilité.
Le Conseil constate avec inquiétude qu’en raison de la situation au Soudan, le fait que Meta considère les FSR comme une organisation terroriste de niveau 1, ainsi que le manque de transparence autour de cette désignation, signifie que les personnes au Soudan ne sont pas au courant qu’une partie au conflit ne peut avoir aucune présence sur la plateforme, ce qui risque d’avoir des répercussions disproportionnées sur l’accès aux informations au Soudan sans que les utilisateurs et les utilisatrices soient au courant. Le Conseil estime que Meta devrait faire preuve de plus de transparence lorsqu’elle prend des décisions dans des régions touchées par des conflits armés et caractérisées par un espace civique restreint, où les sources d’information fiables auxquelles les civils ont accès sont limitées, la liberté de la presse est menacée et la société civile est fragilisée. Compte tenu de l’influence de facto des FSR et du contrôle qu’elles exercent sur certaines parties du pays (cf. section 2) et du fait que les civils soudanais dépendent de Facebook pour accéder à des informations vitales en matière de sécurité et d’aide humanitaire, y compris celles qui sont publiées sur les canaux de communication des FSR, le Conseil trouve que les conséquences imprévisibles du manque de transparence de Meta en matière de désignation des parties au conflit exposent la population à des risques supplémentaires pour son intégrité physique.
Dans son avis consultatif Référence à des personnes dangereuses désignées sous le terme « chahid », le Conseil aborde le problème de transparence que posent les listes d’entités désignées de Meta. Dans sa recommandation n° 4, le Conseil conseille instamment à Meta d’« [e]xpliquer plus en détail la procédure de désignation des entités et des évènements ». L’entreprise devrait également « publier des informations agrégées sur le nombre total d’entités dans chaque niveau de sa liste de désignation, ainsi que le nombre d’entités ajoutées et supprimées l’année passée » (recommandation n° 4 de l’avis consultatif Référence à des personnes dangereuses désignées sous le terme « chahid »). Le Conseil attire de nouveau l’attention sur cette recommandation et insiste sur la nécessité de faire preuve de plus de transparence.
Selon une minorité du Conseil, bien que Meta n’ait pas annoncé publiquement qu’elle considérait les FSR comme dangereuses, les actes de maltraitance (notamment les crimes de guerre et les crimes contre l’humanité présumés) qu’elles ont commis sont bien connus et ont fait l’objet de nombreux signalements à mesure que le conflit s’intensifiait (cf. section 2). Le public ayant connaissance de ces actes de maltraitance, il aurait pu raisonnablement s’attendre à ce que le partage de contenu enregistré ou diffusé par les FSR risquait d’enfreindre les Standards de la communauté de Meta.
Compte tenu de la situation particulière au Soudan, le Conseil conclut que la règle appliquée dans ce cas-ci, l’interdiction des « soutiens techniques » en « canalis[ant] des informations ou des ressources, y compris des communications officielles, au nom d’une entité ou d’un évènement désignés », est clairement expliquée dans la politique de Meta sur les organismes et les individus dangereux, peut être facilement consultée par les utilisateurs et les utilisatrices et, donc, répond aux critères de légalité. Le Conseil tire la même conclusion en ce qui concerne les nouvelles règles relatives au « soutien » publiées par Meta le 29 décembre 2023, dans lesquelles le terme « soutiens techniques » est remplacé par « soutien ». Le Conseil fait remarquer que, bien que Meta ait ajouté deux sous-catégories, « soutien substantiel » et « autre type de soutien », la règle liée au fait de « canaliser des informations ou des ressources » figurant désormais sous « autre type de soutien», celle-ci n’avait en elle-même pas changé de manière significative.
Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles
Le Conseil estime que la règle de Meta qui interdit « la divulgation de l’identité des prisonniers de guerre » est suffisamment claire et accessible au public, et satisfait donc aux critères du principe de légalité.
II. Objectif légitime
Toute limitation de la liberté d’expression doit poursuivre l’une des fins légitimes énumérées dans le PIDCP, qui incluent la sécurité nationale, l’ordre public et le respect des droits d’autrui.
D’après sa justification, la politique sur les organismes et les individus dangereux s’efforce « d’éviter et d’empêcher tout danger réel » et n’autorise pas « les organismes ou individus qui revendiquent des objectifs violents ou qui sont impliqués dans des activités violentes ne sont pas les bienvenus sur Meta ». Le Conseil de surveillance a précédemment reconnu que la politique sur les organismes et les individus dangereux avait pour objectif de protéger les droits d’autrui, y compris le droit à la vie, à la sécurité des personnes, et à l’égalité et à la non-discrimination (article 19, paragraphe 3 du PIDCP ; cf. également les décisions Inquiétude pendjabie concernant le RSS en Inde et Citation nazie). Le Conseil a également déterminé par le passé que l’objectif de la politique sur les organismes et les individus dangereux, qui est d’empêcher tout danger réel, est une fin légitime (cf. la décision Isolement d’Öcalan.
La politique sur les attaques coordonnées et la promotion d’actions criminelles poursuit l’objectif légitime de protéger les droits d’autrui (article 19, paragraphe 3 du PIDCP), y compris le droit à la vie, à la vie privée et à la protection contre la torture ou les traitements cruels, inhumains ou dégradants. Dans ce cas-ci, la légitimité de l’objectif qui sous-tend l’interdiction de représenter des prisonniers de guerre identifiables découle des règles du droit international humanitaire qui appellent à protéger la vie, la vie privée et la dignité des prisonniers de guerre (article 3 commun aux Conventions de Genève ; cf. également la décision Vidéo de prisonniers de guerre arméniens) et du fait que les hostilités au Soudan ont été qualifiées de conflit armé (cf. section 2).
III. Nécessité et proportionnalité
Toutes les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché et elles doivent être proportionnées à l’intérêt à protéger » (observation générale n° 34, paragraphe 34). Les entreprises de réseaux sociaux doivent envisager une série de réponses possibles au contenu problématique au-delà de la suppression afin de s’assurer que les restrictions sont étroitement adaptées (A/74/486, paragraphe 51).
Comme le Conseil l’a auparavant souligné dans la décision Bureau des affaires de communication du Tigré, les PDNU imputent une responsabilité plus élevée aux entreprises qui interviennent dans des situations conflictuelles. Dans sa décision Vidéo de prisonniers de guerre arméniens, le Conseil a estimé que « [d]ans une situation de conflit armé, l’analyse du Conseil sur la liberté d’expression s’appuie sur les règles plus précises du droit international humanitaire ».
Organismes et individus dangereux
Le Conseil estime qu’il est nécessaire et proportionné de supprimer le contenu dans ce cas-ci. En effet, il est nécessaire d’interdire du contenu qui cite directement un membre autoproclamé d’un organisme désigné, impliqué dans de nombreux actes de violence à l’encontre de civils, lorsqu’aucune légende ne condamne ses propos, n’ouvre de discussion neutre à ce sujet ou n’indique que la publication fait partie d’un reportage. Dans ce cas-ci, la vidéo publiée représente un membre des FSR qui décrit les activités et les projets du groupe et qui menace quiconque s’y oppose ou le défie. La diffusion de ce genre d’informations au nom d’un organisme désigné sur Facebook, surtout si l’on tient compte du conflit armé qui sévit au Soudan et des nombreux actes de violence, crimes de guerre et crimes contre l’humanité perpétrés par les FSR (cf. section 2), pourrait représenter un risque accru de préjudices réels. Dans de telles circonstances, aucune mesure n’impliquant pas la suppression du contenu ne serait à la hauteur du danger encouru, et la suppression est le moyen le moins restrictif de protéger les droits d’autrui.
Le Conseil constate avec inquiétude que Meta n’a pas supprimé le contenu immédiatement ou peu de temps après sa publication et qu’elle n’a agi qu’après que le Conseil a choisi de statuer sur ce cas, soit deux mois plus tard. Meta a informé le Conseil qu’en dépit du signalement du contenu par plusieurs utilisateurs, ses systèmes automatisés ne lui avaient accordé qu’un faible score, ce qui signifie qu’ils n’ont pas jugé qu’il devait être examiné en priorité par ses équipes de modération manuelle. Les systèmes automatisés de Meta s’appuient sur diverses fonctionnalités pour déterminer la mesure à prendre envers un contenu donné, notamment des classificateurs basés sur l’apprentissage automatique qui attribuent un score en fonction de la probabilité de la violation, de sa gravité potentielle et de la viralité du contenu. Si du contenu est placé dans la file d’attente pour être examiné, ces fonctionnalités peuvent également servir à accorder la priorité à certaines publications ou à déterminer dans quel ordre celles-ci doivent être examinées. Selon Meta, le contenu dans ce cas-ci n’a pas été priorisé parce que les systèmes de l’entreprise n’ont pas détecté de violation dans la vidéo et ont déterminé que le contenu n’avait été vu qu’un petit nombre de fois. Par conséquent, la publication a été classée sans suite une fois la période de 48 heures écoulée. Dans le cas de cette vidéo, deux classificateurs axés sur les problématiques croisées sont intervenus pour prédire la sévérité de l’infraction ; ils ont tous les deux généré un score faible. Le Conseil constate avec inquiétude que les erreurs de détection automatisée commises par Meta dans ce cas-ci peuvent masquer des problèmes plus graves, en particulier en ce qui concerne l’incapacité des classificateurs à identifier un contenu qui soutient les FSR, une entité désignée dont la présence sur la plateforme est interdite, et qui représente un membre autoproclamé de cette entité, le tout sans légende pour condamner, ouvrir de discussion neutre ou indiquer que le contenu fait partie d’un reportage. En réponse à la question du Conseil, qui souhaitait savoir ce qui avait empêché les classificateurs de détecter la violation dans ce cas-ci, Meta a reconnu qu’elle n’avait pas pu déterminer les raisons exactes pour lesquelles la publication avait reçu un faible score.
Le Conseil en conclut que Meta devrait prendre les mesures nécessaires pour améliorer ses outils de détection et de priorisation automatisés en auditant les données d’entraînement utilisées dans son classificateur de contenu vidéo afin de déterminer s’il dispose d’exemples suffisamment diversifiés de publications qui apportent un soutien à des organismes qualifiés de dangereux dans le cadre de conflits armés, notamment du point de vue de la langue, du dialecte, de la région ou du conflit. Meta doit s’assurer que ce changement permette à un plus grand nombre de publications de faire l’objet d’un examen manuel. Cela nécessitera sans doute une augmentation de la capacité de Meta à effectuer des examens manuels afin de garantir que l’entreprise est à même de répondre au volume croissant de contenus qui nécessitent un examen au cours d’un conflit. Cet ajustement aidera l’entreprise à calibrer la manière dont ses systèmes automatisés réagissent aux défis que représentent les conflits armés, à mieux détecter les contenus qui impliquent des organismes dangereux dans ces contextes et à prendre des mesures à leur encontre. Il permettra donc d’améliorer l’efficacité de ses efforts de modération.
En outre, le Conseil estime que Meta n’a pas réussi à mettre en place un mécanisme durable pour appliquer ses politiques de contenu de manière adéquate pendant la guerre au Soudan. Dans le cas Publication sur les armes liée au conflit soudanais, Meta a expliqué qu’elle n’avait pas sur pied de Centre pour l’intégrité des opérations produits (IPOC) pour le Soudan, qui permet de réagir aux menaces en temps réel, parce que ses procédures actuelles lui permettaient de « gérer les risques liés au contenu identifiés ». Meta était d’une opinion similaire dans ce cas-ci. Par le passé, le Conseil a recommandé que, « [p]our améliorer l’application de ses politiques de contenu pendant les périodes de conflit armé, Meta devrait évaluer la faisabilité de la mise en place d’un mécanisme interne durable offrant l’expertise, la capacité et la coordination nécessaires pour examiner et répondre efficacement au contenu pendant la durée d’un conflit » (cf. la recommandation n° 2 de la décision Bureau des affaires de communication du Tigré). En août 2023, Meta a informé le Conseil qu’elle avait mis sur pied « une équipe pour étudier la question de la coordination en temps de crise et assurer la supervision des opérations connexes pendant toute la durée des crises imminentes et émergentes. Nous avons depuis lors recruté le personnel nécessaire et sommes en train de préparer cette équipe à assumer ses responsabilités opérationnelles avant, pendant et après des évènements et des élections à haut risque. Toute la logistique ad hoc a été organisée, et l’équipe sera pleinement active au travers de toutes les régions dans les mois à venir. Nous continuerons à améliorer ses processus opérationnels à mesure que nous faisons face à des incidents lors des conflits et que nous évaluons l’efficacité de cette structure. Nous considérons désormais que cette recommandation a bien été suivie et ne fournirons plus d’informations à son propos. » Cependant, en réponse à une question du Conseil, Meta a reconnu qu’elle n’avait pas mis en place ce mécanisme pour le conflit au Soudan alors même qu’elle considère avoir suivi la recommandation.
Standard de la communauté sur les attaques coordonnées et la promotion d’actions criminelles
La nécessité et la proportionnalité de la suppression de ce contenu au titre de la politique sur la divulgation de l’identité des prisonniers de guerre sont basées sur les dispositions plus spécifiques du droit international humanitaire (cf. Vidéo de prisonniers de guerre arméniens). L’article 3 commun aux Conventions de Genève interdit « les atteintes à la dignité des personnes, notamment les traitements humiliants et dégradants » des détenus au cours des conflits armés internationaux et non internationaux. L’article 13 de la Convention de Genève (III) interdit les actes de violence ou d’intimidation à l’encontre des prisonniers de guerre, y compris les insultes et la curiosité publique. Le droit international humanitaire n’autorise la divulgation publique des images de prisonniers de guerre que dans certaines circonstances limitées. Comme le CICR le fait remarquer dans ses conseils à la presse, si un « intérêt public impérieux » ou « les intérêts vitaux » du prisonnier de guerre le requièrent, des images de celui-ci peuvent être publiées, à titre exceptionnel et à condition que la dignité du prisonnier concerné soit assurée. Lorsqu’un prisonnier est représenté dans des situations humiliantes ou dégradantes, son identité doit être masquée « par des moyens appropriés, tels que le floutage, la pixellisation ou encore l’obscurcissement des visages et des étiquettes de nom » (CICR, Commentaires sur l’article 13, p. 1627). Bien que le Conseil reconnaisse que des outils en ligne permettent aux utilisateurs et aux utilisatrices d’anonymiser le contenu sensible lié aux prisonniers de guerre, Meta ne fournit à l’heure actuelle aucun moyen de flouter ou d’obscurcir le visage des prisonniers de guerre dans les contenus vidéo publiés sur sa plateforme.
Ces interdictions prévues par le droit international humanitaire, ainsi que leurs exceptions rigoureusement définies, servent à protéger les détenus au cours des conflits. Comme le Conseil l’a indiqué dans le cas Vidéo de prisonniers de guerre arméniens, l’interdiction de partager des images de prisonniers de guerre « est conforme aux objectifs du droit international humanitaire » et, « [l]orsque le contenu révèle l’identité ou la localisation de prisonniers de guerre, le retrait sera généralement proportionné, compte tenu de la gravité des préjudices qui peuvent en résulter ».
Dans ce cas-ci, la suppression de la publication était nécessaire au titre des dispositions du droit international humanitaire et étant donné les risques que pose le conflit au Soudan. Comme indiqué dans la section 2 ci-dessus, depuis le début du conflit, les FSR ont détenu des milliers de civils, de membres des FAS et de personnes suspectées de leur apporter du soutien. Des rapports font état de nombreuses infractions au droit international humanitaire, les prisonniers étant détenus dans des conditions inhumaines et dégradantes, maltraités, voire tués. Dans de telles circonstances, et puisqu’aucun motif impérieux relatif aux droits humains n’autorise ce contenu à rester sur la plateforme, sa suppression est nécessaire et proportionnée pour assurer la dignité et la sécurité du prisonnier.
Le Conseil constate avec inquiétude (compte tenu des dangers potentiels et des risques accrus inhérents à un conflit armé) que le contenu n’a pas été détecté et supprimé pour infraction à la règle de Meta qui interdit la divulgation de l’identité des prisonniers de guerre. Cet échec de modération est probablement dû au fait que ladite règle ne s’applique à l’heure actuelle qu’à la suite d’une escalation, ce qui signifie que les équipes chargées de l’examen des contenus à grande échelle ne peuvent pas l’appliquer. Dans sa décision Vidéo de prisonniers de guerre arméniens, le Conseil a déterminé que « la règle exigeant un contexte supplémentaire pour être appliquée, et donc une escalation vers les équipes internes avant qu’elle ne puisse être appliquée, est nécessaire, parce que déterminer si une personne représentée est un prisonnier de guerre identifiable dans le contexte d’un conflit armé requiert l’avis d’un spécialiste ». Cependant, depuis que cette décision a été publiée, le Conseil a appris que les équipes de modération à grande échelle de Meta n’avaient pas reçu pour instruction et n’avaient pas les moyens d’identifier les contenus qui enfreignent les politiques de l’entreprise qui ne s’appliquent qu’à la suite d’une escalation, comme la règle concernée dans ce cas-ci. En d’autres termes, cette règle ne peut être appliquée que si le contenu problématique est porté à l’attention des équipes de Meta chargées exclusivement des escalations par d’autres moyens, par exemple, par l’intermédiaire de partenaires de confiance ou si le contenu fait l’objet d’une large couverture médiatique.
Dans la pratique, cela signifie qu’une quantité significative de contenus qui révèlent l’identité de prisonniers de guerre sont probablement laissés sur la plateforme. Cela suscite des inquiétudes supplémentaires sur la précision des outils de détection automatisés de Meta étant donné que les politiques applicables uniquement à la suite d’une escalation ne produisent pas suffisamment de décisions manuelles pour pouvoir entraîner un classificateur automatisé.
Par conséquent, bien que le Conseil trouve que la règle qui interdit la divulgation de l’identité des prisonniers de guerre au cours d’un conflit armé est nécessaire, il estime que la manière dont Meta applique cette politique n’est pas adéquate pour que l’entreprise puisse assumer ses responsabilités en matière de droits des prisonniers de guerre. Pour veiller à ce que les droits des détenus en vertu du droit international humanitaire soient efficacement protégés, l’entreprise doit développer une solution exploitable à grande échelle afin d’appliquer cette politique. Meta doit mettre en place un processus ou un protocole spécial pour identifier de manière proactive ce genre de contenu au cours d’un conflit armé.
Accès au recours
Meta a informé le Conseil que l’appel dans ce cas-ci avait été automatiquement classé sans suite en raison de ses politiques d’automatisation liées au COVID-19, ce qui signifie que le contenu est resté sur la plateforme. Dans sa décision Négationnisme, le Conseil a recommandé à Meta de « confirmer publiquement si elle a définitivement cessé d’appliquer les politiques d’automatisation liées au COVID-19 mises en place pendant la pandémie ». Le Conseil a appris avec inquiétude que les politiques d’automatisation liées au COVID-19 de Meta, justifiées par la réduction temporaire des effectifs de modération manuelle à cause de la pandémie, étaient toujours en place. Il recommande une nouvelle fois à Meta d’informer le public quand ses effectifs de modération manuelle seront de nouveau au complet.
9. Décision du Conseil de surveillance
Le Conseil de surveillance a annulé la décision initiale de Meta de laisser le contenu sur la plateforme.
10. Recommandations
Mise en application
1. Pour assurer une protection efficace des détenus en vertu du droit international humanitaire, Meta doit concevoir une solution exploitable à grande échelle pour appliquer sa politique sur les attaques coordonnées et la promotion d’actions criminelles afin d’interdire la divulgation de l’identité des prisonniers de guerre dans le cadre d’un conflit armé. Meta doit établir un protocole pour la durée d’un conflit et mettre sur pied une équipe spécialisée qui sera avant tout chargée d’identifier de manière proactive les contenus qui révèlent l’identité de prisonniers de guerre en période de conflit.
Le Conseil considérera que cette recommandation a bien été suivie lorsque Meta lui transmettra des données sur la capacité de ce protocole à détecter les contenus qui divulguent l’identité des prisonniers de guerre pendant un conflit armé et qu’elle continuera à l’informer de l’efficacité de ce protocole tous les six mois.
2. Pour améliorer ses outils de détection et de priorisation automatisés des contenus qui enfreignent potentiellement sa politique sur les organismes et les individus dangereux et mieux transmettre lesdits contenus aux équipes de modération manuelle, Meta doit auditer les données d’entraînement utilisées dans son classificateur de contenu vidéo afin de déterminer s’il dispose d’exemples suffisamment diversifiés de publications qui apportent un soutien à des organismes qualifiés de dangereux dans le cadre de conflits armés, notamment du point de vue de la langue, du dialecte, de la région ou du conflit.
Le Conseil considérera que cette recommandation a bien été suivie lorsque Meta lui fournira les résultats détaillés de son audit et une liste des améliorations nécessaires que l’entreprise entend mettre en œuvre en conséquence.
3. Pour améliorer la clarté de ses politiques, Meta doit ajouter, dans ses standards de la communauté qui mentionnent les listes d’organisations terroristes étrangères et de terroristes internationaux spécifiquement désignés établies par les États-Unis, un hyperlien vers lesdites listes.
Le Conseil estimera que cette recommandation a été suivie lorsque ces modifications auront été apportées au Standard de la communauté.
Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par la majorité du Conseil. Les décisions du Conseil ne représentent pas nécessairement les opinions personnelles de tous les membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Le Conseil a bénéficié de l’aide de Duco Advisors, une société de conseil spécialisée dans la géopolitique, la confiance et la sécurité, ainsi que la technologie. Memetica, une organisation qui effectue des recherches open source sur les tendances des réseaux sociaux, a également fourni une analyse. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment 350 langues et travaillent dans 5000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques