Renversé
Poème russe
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook comparant l’armée russe en Ukraine aux nazis et citant un poème qui appelle à tuer les fascistes.
Cette décision est disponible à la fois en russe (via l’onglet « Langue », auquel vous pouvez accéder dans le menu situé en haut de l’écran), en letton (ici) et en ukrainien (ici).
Lai iepazītos ar lēmumu latviski, spied šeit.
Щоб прочитати це рішення українською мовою, натисніть тут.
Résumé du cas
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook comparant l’armée russe en Ukraine aux nazis et citant un poème qui appelle à tuer les fascistes. Il a également annulé la conclusion de Meta selon laquelle l’image, de ce qui semble être un cadavre, figurant dans la publication violait la politique relative au contenu violent et explicite. Meta avait appliqué un écran d’avertissement à l’image au motif qu’elle violait la politique. Ce cas soulève des questions importantes sur la modération du contenu dans les situations de conflit.
À propos du cas
En avril 2022, un utilisateur de Facebook en Lettonie a publié une image de ce qui semble être un cadavre, face contre terre, dans une rue. Aucune blessure n’est visible. Meta a confirmé au Conseil que la personne a été abattue à Boutcha, en Ukraine.
Le texte russe qui accompagne l’image soutient que les atrocités présumées commises par les soldats soviétiques en Allemagne pendant la Seconde Guerre mondiale étaient justifiées par le fait qu’ils vengeaient les crimes que les soldats nazis avaient commis en URSS. Il établit un lien entre l’armée nazie et l’armée russe en Ukraine, affirmant que l’armée russe « became fascist. » (est devenue fasciste.)
La publication cite des atrocités présumées commises par l’armée russe en Ukraine et affirme que « after Bucha, Ukrainians will also want to repeat... and will be able to repeat. » (après Boutcha, les Ukrainiens voudront aussi reproduire... et pourront reproduire) Il se termine en citant le poème « Kill him ! » (Tuez-le !) du poète soviétique Konstantin Simonov, dont les vers suivants : « kill the fascist... Kill him! Kill him! Kill! » (Tuez le fasciste...Tuez-le ! Tuez-le ! Tuez !)
La publication a été signalée par un autre utilisateur de Facebook et supprimée par Meta pour avoir violé son Standard de la communauté relatif au discours haineux. Lorsque le Conseil a sélectionné le cas, Meta a constaté que la publication avait été supprimée à tort et l’a ensuite restaurée. Trois semaines plus tard, elle a appliqué un écran d’avertissement à l’image en vertu de sa Politique de contenu violent et explicite.
Principales observations
Le Conseil estime que la suppression de la publication et l’application ultérieure de l’écran d’avertissement ne sont pas conformes aux Standards de la communauté Facebook, aux valeurs de Meta ou à ses responsabilités en matière de droits de l’homme.
Le Conseil constate que, plutôt que de lancer des accusations générales selon lesquelles « Russian soldiers are Nazis, » (les soldats russes sont des nazis), la publication soutient qu’ils ont agi comme des nazis à une époque et dans un lieu précis, et établit des parallèles historiques. La publication cible également les soldats russes en raison de leur rôle de combattants, et non en raison de leur nationalité. Dans ce contexte, ni les responsabilités de Meta en matière de droits de l’homme ni son Standard de la communauté relatif au discours haineux ne protègent les soldats contre les allégations d’actes répréhensibles flagrants ou n’empêchent les comparaisons provocantes entre leurs actions et les évènements passés.
Le Conseil souligne l’importance du contexte pour évaluer si un contenu incite à la violence. Dans le cas présent, le Conseil estime que les citations du poème « Kill him! » (Tuez-le !) sont une référence artistique et culturelle employée comme un dispositif rhétorique. Lorsqu’elles sont lues dans le contexte de l’ensemble du message, le Conseil estime que les citations sont utilisées pour décrire un état d’esprit, plutôt que pour l’encourager. Elles mettent en garde contre les cycles de violence et le risque que l’histoire se répète en Ukraine.
Les règles internes de Meta à l’intention des modérateurs précisent que l’entreprise interprète son Standard de la communauté relatif à la violence et l’incitation de manière à autoriser de telle(s) « référence(s) neutre(s) à un résultat potentiel » et « avis consultatif(s) ». Toutefois, cela n’est pas expliqué dans les Standards de la communauté publics. De même, la politique relative au contenu violent et explicite interdit les images représentant une mort violente. Les règles internes à l’intention des modérateurs décrivent la manière dont Meta détermine si une mort semble violente, mais cela ne figure pas dans la politique publique.
Dans ce cas, la majorité du Conseil estime que l’image de la publication ne comporte pas d’indicateurs clairs de violence qui, selon les règles internes de Meta destinées aux modérateurs, justifieraient l’utilisation d’un écran d’avertissement.
Dans l’ensemble, le Conseil estime que cette publication est peu susceptible d’exacerber la violence. Cependant, il note qu’il existe des complexités supplémentaires dans l’évaluation du discours violent dans des situations de conflit international où le droit international permet de cibler des combattants. L’invasion russe de l’Ukraine est internationalement reconnue comme illégale. Le Conseil exhorte Meta à réviser ses politiques afin de prendre en considération les circonstances d’une intervention militaire illégale.
Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de supprimer la publication et sa conclusion ultérieure que l’image contenue dans la publication violait la politique de contenu violent et explicite, conduisant Meta à appliquer un écran d’avertissement.
Le Conseil recommande à Meta de :
- Modifier le Standard de la communauté public relatif à la violence et l’incitation pour préciser, sur la base de l’interprétation de la politique par Meta, qu’elle autorise le contenu qui fait une « référence neutre à un résultat potentiel. »
- Inclure une explication de la façon dont elle détermine si une image dépeint « la mort violente d’une personne », dans le Standard de la communauté public relatif au contenu violent et explicite.
- Évaluer la faisabilité de l’introduction d’outils permettant aux utilisateurs adultes de décider de voir ou non le contenu explicite et, le cas échéant, de le voir avec ou sans écran d’avertissement.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Le Conseil de surveillance annule la décision initiale de Meta de supprimer une publication sur Facebook traitant du conflit en Ukraine Le contenu, qui est en langue russe et a été publié en Lettonie, comprend une image photographique montrant une rue avec une personne allongée par terre, probablement décédée. Cette photographie est accompagnée d’un texte. Le texte comprend des citations d’un poème bien connu du poète soviétique Konstantin Simonov appelant à la résistance contre les envahisseurs allemands pendant la Seconde Guerre mondiale, et il sous-entend que les envahisseurs russes jouent en Ukraine un rôle similaire à celui que les soldats allemands ont joué en URSS. Après que le Conseil a sélectionné cette publication pour examen, Meta a changé sa position et a restauré le contenu sur la plateforme. Le contenu soulève d’importantes questions de définition en vertu des politiques de Meta en matière de discours haineux et de violence et d’incitation. Quelques semaines après avoir décidé de restaurer la publication, Meta a appliqué un écran d’avertissement sur la photo. La majorité du Conseil estime que l’image photographique ne viole pas la politique sur le contenu violent et explicite, car l’image ne comporte pas d’indicateurs visuels clairs de violence, tels que décrits dans les règles internes de Meta à l’intention des modérateurs de contenu, qui justifieraient l’utilisation de l’écran d’avertissement
2. Description du cas et contexte
En avril 2022, une personne utilisant Facebook en Lettonie a publié une photo et un texte en russe dans son fil d’actualité. La publication a été vue environ 20 000 fois, partagée environ 100 fois, et a reçu près de 600 réactions et plus de 100 commentaires.
La photo montre une personne allongée par terre, probablement décédée, dans la rue, à côté d’un vélo renversé. Aucune blessure n’est visible. Le texte commence ainsi : « they wanted to repeat and repeated. » (ils ont voulu reproduire et ont reproduit). La publication fait état des crimes qui auraient été commis par des soldats soviétiques en Allemagne pendant la Seconde Guerre mondiale. La publication indique que ces crimes ont été excusés au motif que les soldats se vengeaient des horreurs infligées à l’URSS par les nazis. Elle compare alors la Seconde Guerre mondiale à l’invasion de l’Ukraine et affirme que l’armée russe « became fascist » (est devenue fasciste). La publication indique qu’en Ukraine, l’armée russe « rape[s] girls, wound[s] their fathers, torture[s] and kill[s] peaceful people » (viole des filles, blesse leurs pères, torture et tue des personnes innocentes). Pour conclure, la publication fait état que « after Bucha, Ukrainians will also want to repeat... and will be able to repeat » (après Boutcha, les Ukrainiens voudront... et pourront reproduire) de telles actions. À la fin de la publication, cette personne partage des extraits du poème « Kill him! » (Tuez-le !) du poète soviétique Constantin Simonov, notamment les vers « Kill the fascist so he will lie on the ground’s backbone, not you » (Tuez le fasciste pour que ce soit lui qui soit au sol, pas vous), « Kill at least one of them as soon as you can » (Tuez-en au moins un dès que vous le pouvez) et « Kill him! Kill him! Kill! » (Tuez-le ! Tuez-le ! Tuez !)
Le jour même où le contenu a été publié, une autre personne l’a signalé comme « violent et explicite ». Après examen manuel, Meta a supprimé le contenu pour infraction à son Standard de la communauté en matière de discours haineux. Quelques heures plus tard, la personne ayant publié le contenu a fait appel, et lors d’un deuxième examen manuel, il a été estimé que le contenu enfreignait la même politique.
Cette personne a alors fait appel auprès du Conseil de surveillance. À la suite de la sélection de cet appel pour examen par le Conseil le 31 mai 2022, Meta a conclu que sa décision de supprimer le contenu était une erreur et l’a rétabli. Le 23 juin 2022, 23 jours après la restauration du contenu et conformément à son Standard de la communauté en matière de contenu violent et explicite, Meta a appliqué un écran d’avertissement à la photographie de la publication, au motif qu’elle montrait la mort violente d’une personne. L’écran d’avertissement indique que le « contenu est sensible ». Le contenu de cette photographie peut être « violent et explicite », et donne aux utilisateurs deux options : « En savoir plus » et « Voir la photo ».
Le contexte des faits suivant est pertinent pour la décision du Conseil et est basé sur des recherches commandées par le Conseil :
- L’invasion russe de l’Ukraine a été reconnue comme illégale par l’Assemblée générale des Nations unies le 2 mars 2022 (A/RES/ES-11/1).
- Michelle Bachelet, Haut-Commissaire des Nations unies aux droits de l’homme, a exprimé son inquiétude face à des « questions sérieuses et troublantes concernant de possibles crimes de guerre, de graves violations du droit international humanitaire et de graves violations du droit international des droits de l’homme » en Ukraine.
- Dans les cultures post-soviétiques, le terme « fasciste » fait souvent référence aux nazis allemands, notamment dans le contexte de la Seconde Guerre mondiale. Cependant, la définition du terme « fasciste » n’est plus directement associée aux nazis allemands. En Russie et en Ukraine, le terme est devenu confus en raison de discussions politiques où le terme « fasciste » a été utilisé pour stigmatiser des opposants dans différentes parties du spectre politique.
- « They wanted to repeat and repeated, » (Ils ont voulu reproduire et ils ont reproduit), la première phrase de la publication de l’utilisateur, est une référence à « [w]e can repeat » (nous pouvons reproduire), un slogan populaire en russe, qui est utilisé par certaines personnes pour faire référence à la victoire soviétique contre les nazis pendant la Seconde Guerre mondiale. L’utilisateur fait également allusion à ce slogan lorsqu’il déclare « after Bucha, Ukrainians will also want to repeat... and will be able to repeat » (après Boutcha, les Ukrainiens voudront aussi reproduire... et pourront reproduire) les actions de l’armée russe.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts). Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
Lorsque le Conseil sélectionne des cas comme celui-ci, où Meta reconnaît qu’elle a commis une erreur, le Conseil examine la décision initiale dans le but de mieux comprendre pourquoi des erreurs se produisent et de formuler des observations ou des recommandations qui peuvent contribuer à réduire le nombre d’erreurs et à améliorer les procédures équitables et transparentes.
4. Sources d’autorité
Le Conseil de surveillance a pris en compte les autorités et les standards suivants dans sa décision :
I. Décisions du Conseil de surveillance :
Les décisions antérieures les plus pertinentes du Conseil de surveillance comprennent :
- Cas du « Bureau des affaires de communication du Tigré » ( 2022-006-FB-MR). Dans ce cas, le Conseil a confirmé la décision de Meta de supprimer le contenu après avoir conclu que, compte tenu du profil de l’utilisateur (un ministère d’un gouvernement régional), du langage adopté (un appel explicite à tuer les soldats qui ne se rendent pas) et de la couverture de la page (environ 260 000 followers), il y avait un risque élevé que le message puisse entraîner d’autres violences.
- Cas de la « vidéo explicite au Soudan » ( 2022-002-FB-MR). Dans ce cas, le Conseil a recommandé à Meta de : (i) modifier le Standard de la communauté relatif au contenu violent et explicite pour autoriser les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation des violations des droits de l’homme ; et (ii) entreprendre un processus de développement de politique établissant des critères visant à identifier les vidéos de personnes décédées ou non lorsqu’elles sont partagées à des fins de sensibilisation ou d’attestation des violations des droits de l’homme.
II. Règles de Meta relatives au contenu :
En vertu du Standard de la communauté relatif aux discours haineux, Meta n’autorise pas les discours « violents » ou « déshumanisants » qui visent des personnes ou des groupes en raison de leurs caractéristiques protégées. La politique stipule que le « discours déshumanisant » comprend les « comparaisons, les généralisations ou les déclarations comportementales non qualifiées à ou sur... des criminels violents et sexuels. » La politique ne s’applique explicitement pas aux déclarations comportementales qualifiées. Les groupes décrits comme « ayant commis des crimes violents ou des délits sexuels » ne sont pas protégés contre les attaques en vertu de la politique relative aux discours haineux.
En vertu du Standard de la communauté relatif à la violence et l’incitation, Meta n’autorise pas les « menaces pouvant conduire à la mort (et autres formes de violence de haute gravité) » où le terme « menace » est défini comme, entre autres, des « appels à la violence de haute gravité » et des « déclarations prônant la violence de haute gravité. » Les règles internes de Meta pour les examinateurs de contenu précisent que l’entreprise interprète cette politique pour autoriser le contenu contenant des déclarations avec une « référence neutre à un résultat potentiel d’une action ou un avis consultatif. »
En vertu du Standard de la communauté relatif au contenu violent et explicite, des « images qui montrent la mort violente d’une ou plusieurs personnes à la suite d’un accident ou d’un meurtre » sont masquées par un écran d’avertissement.
III. Valeurs de Meta :
Meta a décrit les valeurs de Facebook, « Liberté d’expression », « Dignité » et « Sécurité », dans l’introduction des Standards de la communauté. Cette décision fera référence à ces valeurs dans la mesure où elles sont pertinentes pour la décision.
IV. Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations unies (UNGP), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme en l’espèce s’est appuyée sur les standards des droits de l’homme suivantes :
- Les droits à la liberté d’opinion et d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), observation générale n° 34 du Comité des droits de l’homme,2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018), A/74/486 (2019) et A/HRC/44/49/Add.2 (2020) ; le rapport du Haut-Commissaire des Nations unies aux droits de l’homme : A/HRC/22/17/Add.4 (2013).
- Égalité et non-discrimination : Article 2, para. 1, PIDCP.
- Droit à la sécurité physique : Article 9 du PIDCP.
- Droit à la vie : Article 6 du PIDCP.
5. Soumissions de l’utilisateur
Dans son appel au Conseil, la personne à l’origine de la publication déclare que la photo qu’elle a partagée est la « most innocuous » (plus anodine) de toutes les images montrant les « crimes of the Russian army in the city of Bucha » (crimes de l’armée russe dans la ville de Boutcha), « where dozens of dead civilians lie on the streets. » (où des dizaines de civils gisent dans les rues). Elle ajoute que sa publication n’incite pas à la violence et concerne à la fois « past history and the present » (le passé et le présent). Elle souligne également que le poème était à l’origine dédié à la « struggle of Soviet soldiers against the Nazis » (lutte des soldats soviétiques contre les nazis) et que sa publication visait à montrer comment « the Russian army became an analogue of the fascist army » (l’armée russe est devenue un équivalent de l’armée fasciste). Dans son appel, elle dit être journaliste et avance qu’il est important que le public sache ce qu’il se passe, en particulier en temps de guerre.
6. Soumissions de Meta
Dans la justification que Meta a fournie au Conseil, l’entreprise a analysé le contenu de ce cas au regard de trois politiques différentes, en commençant par le discours haineux. Meta a surtout insisté sur les raisons pour lesquelles l’entreprise est revenue sur sa décision initiale, plutôt que d’expliquer comment elle en était arrivée à cette décision. Selon Meta, affirmer que des soldats russes ont commis des crimes dans le cadre du conflit Russie-Ukraine ne constitue pas une attaque au sens de la politique relative au discours haineux, car les « déclarations comportementales qualifiées » sont autorisées sur la plateforme. Meta a également expliqué que le fascisme est une idéologie politique, et que le simple fait d’associer l’armée russe à une certaine idéologie politique ne constitue pas une attaque car « l’armée russe est une institution et n’est donc pas un groupe ou un sous-ensemble de caractéristiques protégées relevant de la politique relative au discours haineux (à la différence des soldats russes, qui sont des personnes). » Enfin, Meta a indiqué que les différents extraits du poème « Kill him! » (Tuez-le !) cités dans le texte de la publication (par exemple, « kill a fascist, » « kill at least one of them, » « kill him! » [tuez un fasciste, tuez-en au moins un, tuez-le !]) font référence aux « nazis » dans le contexte de la Seconde Guerre mondiale, et les nazis ne sont pas un groupe protégé.
Meta a également analysé au regard de sa politique relative à la violence et l’incitation. À cet égard, Meta a expliqué que le fait de déclarer « Ukrainians will also want to repeat… and will be able to repeat » (que les Ukrainiens voudront aussi reproduire... et pourront reproduire) après les évènements de Boutcha ne constitue pas une incitation à la violence. Meta a affirmé qu’il s’agit d’une « référence neutre à un résultat potentiel », ce que l’entreprise interprète comme étant autorisé par la politique relative à la violence et l’incitation. Meta a également déclaré que la citation du poème de Simonov était un moyen de sensibiliser la population à la possibilité que l’histoire se répète en Ukraine. Enfin, l’entreprise a expliqué que le fait de prôner la violence contre des individus couverts par la politique relative aux personnes et organisations dangereuses, telles que les nazis (appelées « fascistes » dans le poème de Simonov), est autorisé par le Standard de la communauté relatif à la violence et à l’incitation.
Meta a ensuite expliqué qu’un écran d’avertissement et des restrictions d’âge appropriées ont été appliqués à la publication en vertu de sa politique relative au contenu violent et explicite, car l’image incluse dans le contenu montre la mort violente d’une personne. Meta a confirmé que l’image représente une personne qui a été abattue à Boutcha, en Ukraine.
En réponse aux questions du Conseil, Meta a fourni des explications supplémentaires sur les initiatives qu’elle a développées dans le contexte du conflit en Ukraine. Meta a toutefois confirmé qu’aucune de ces initiatives n’était pertinente pour la suppression initiale du contenu dans ce cas ou la décision de le restaurer avec un écran d’avertissement. L’entreprise a ajouté qu’elle a pris plusieurs mesures conformes aux Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme pour assurer une diligence raisonnable en période de conflit. Ces étapes comprenaient des interactions avec la société civile ukrainienne et russe, ainsi qu’avec les médias indépendants russes, afin d’obtenir un avis sur l’impact des mesures adoptées par Meta au début du conflit.
Le Conseil a posé 11 questions à Meta, et Meta a répondu à toutes ces questions de manière complète.
7. Commentaires publics
Le Conseil de surveillance a reçu huit commentaires publics en rapport avec ce cas. Trois commentaires provenaient d’Europe, quatre des États-Unis et du Canada, et un autre d’Amérique latine et des Caraïbes. Les commentaires portaient sur les thèmes suivants : les conflits armés internationaux ; l’importance du contexte dans la modération du contenu ; le rôle des journalistes dans les situations de conflit ; la documentation des crimes de guerre ; et l’expression artistique.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8. Analyse du Conseil de surveillance
Le Conseil a d’abord examiné si le contenu était autorisé par les politiques relatives au contenu de Meta, interprété si nécessaire au regard des valeurs de la plateforme, puis a évalué si le traitement du contenu était conforme aux responsabilités de l’entreprise en matière de droits de l’homme.
Ce cas a été sélectionné par le Conseil car la suppression de cette publication a soulevé d’importantes préoccupations concernant l’expression artistique et les références culturelles réaffectées dans de nouveaux contextes qui risquent potentiellement d’inciter à la violence dans des situations de conflit. Les espaces d’expression en ligne sont considérablement importants pour les personnes touchées par la guerre et les entreprises de médias sociaux doivent accorder une attention particulière à la protection de leurs droits. Ce cas démontre la manière dont un manque d’analyse contextuelle, qui est courant dans la modération de contenu à l’échelle, peut empêcher les utilisateurs d’exprimer des opinions concernant les conflits et de faire des parallèles historiques provocants.
8.1 Respect des politiques relatives au contenu de Meta
Le Conseil estime que le contenu en question ne viole pas le Standard de la communauté relatif aux discours haineux ou à la violence et à l’incitation. La majorité du Conseil estime que le contenu ne viole pas le Standard de la communauté relatif au contenu violent et explicite.
I. Discours haineux
La politique de Meta en matière de discours haineux interdit les attaques basées sur des caractéristiques protégées, notamment la nationalité. La profession bénéficie de « certaines protections » lorsqu’elle est mentionnée en même temps qu’une caractéristique protégée. Les règles internes de l’entreprise destinées aux modérateurs précisent en outre que les « sous-ensembles quasi-protégés », notamment les groupes définis par une caractéristique protégée plus une profession (par exemple, les soldats russes), ont généralement droit à une protection contre les attaques de niveau 1 du discours haineux. Ces attaques comprennent, entre autres, le « discours violent » et le « discours déshumanisant sous forme de comparaisons, de généralisations ou de déclarations comportementales non qualifiées » « à ou sur... des criminels violents et sexuels. » La politique de Meta en matière de discours haineux n’offre pas de protection aux « groupes décrits comme ayant commis des crimes violents ou des délits sexuels. »
Les affirmations générales selon lesquelles les soldats russes ont une tendance à commettre des crimes pourraient, selon le contenu et le contexte, violer la politique de Meta en matière de discours haineux. De telles affirmations pourraient tomber sous le coup de l’interdiction du « discours déshumanisant » en vertu de la politique, sous la forme de « déclarations comportementales non qualifiées. » La politique de Meta fait la distinction entre : (i) l’attribution d’un mauvais caractère ou de traits indésirables à un groupe en raison de son ethnicité, de son origine nationale ou d’autres caractéristiques protégées (c’est ce que Meta entend par « généralisations ») ; (ii) la critique des membres d’un groupe sans contexte (c’est ce que Meta entend par « déclarations comportementales non qualifiées ») ; et (iii) la critique des membres d’un groupe pour leur comportement passé (c’est ce que Meta entend par « déclarations comportementales qualifiées »). Dans ce cas, les affirmations concernant les soldats russes envahisseurs sont faites dans le contexte de leurs actions dans le conflit en Ukraine, et non de manière générale.
La question ici est de savoir si la comparaison par l’utilisateur des soldats russes aux fascistes allemands de l’époque de la Seconde Guerre mondiale, et son affirmation qu’ils ont violé des femmes, tué leurs pères, et tué et torturé des personnes innocentes, a violé la politique de Meta en matière de discours haineux. Meta et le Conseil ont tous deux conclu que la publication ne constitue pas un discours violent ou déshumanisant en vertu de la politique sur les discours haineux, mais pour des raisons différentes. C’est la seule partie de la politique sur les discours haineux qui a été identifiée comme étant pertinente pour cette publication.
Meta affirme que la publication ne constitue pas une violation, car les déclarations incriminantes sont dirigées contre l’armée russe, qui est une institution, et non contre les soldats russes, qui sont des personnes. Le Conseil estime que cette distinction ne se vérifie pas en l’espèce, puisque l’utilisateur se réfère indifféremment à l’« armée » et aux « soldats ».
Toutefois, le Conseil estime que l’accusation de l’utilisateur selon laquelle les soldats russes ont commis des crimes comparables à ceux des nazis dans le contexte de l’invasion de l’Ukraine par la Russie est autorisée. En effet, l’attribution d’actions spécifiques (par exemple, « they began to really take revenge – rape girls, cut their fathers, torture and kill peaceful people of peaceful outskirts Kyiv » [ils ont commencé à vraiment se venger, violer des filles, couper leurs pères, torturer et tuer des personnes pacifiques de la banlieue de Kiev]) et la comparaison des actions des soldats russes en Ukraine avec d’autres armées connues pour avoir commis des crimes de guerre (par exemple, « the Russian army, after 70 years, completely repeated itself in Germany and the German [army] in Ukraine, [l’armée russe, après 70 ans, s’est complètement répétée en Allemagne et l’[armée] allemande en Ukraine]) sont des déclarations qualifiées, liées à un comportement observé pendant un conflit spécifique.
Le Conseil estime donc que la comparaison des actions des soldats russes dans un contexte spécifique aux crimes des nazis est autorisée par les Standards de la communauté, indépendamment du fait qu’une comparaison générique aux nazis soit ou non autorisée. Selon les règles internes de Meta, le matériel qui pourrait autrement constituer un discours haineux ne viole pas la politique s’il vise des groupes « décrits comme ayant commis des crimes violents ou des délits sexuels. » De manière plus générale, le fait de signaler des cas de violation des droits de l’homme dans un contexte particulier, même si ces personnes sont identifiées par référence à leur origine nationale, ne constitue pas une violation de la politique relative aux discours haineux.
Le Conseil estime en outre que les différents extraits du poème « Kill him! » (Tuez-le !) cités dans le contenu (par exemple, « kill a fascist » (tuez un fasciste), « kill at least one of them » (tuez-en au moins un), « kill him ! » (tuez-le !) ne doivent pas être considérés comme un discours violent car, lorsqu’ils sont lus avec le reste du message, le Conseil comprend que l’utilisateur attire l’attention sur le cycle de la violence, plutôt que d’inciter à la violence.
Enfin, le Conseil conclut que les soldats russes sont visés dans la publication en raison de leur rôle de combattants, et non de leur nationalité. Il ne s’agit pas d’attaques dirigées contre un groupe en raison de ses caractéristiques protégées. Il s’ensuit que le contenu n’est pas un discours haineux, car aucune caractéristique protégée n’est concernée.
II. Violence et incitation
Dans le cadre de la politique sur la violence et l’incitation, Meta supprime les « appels à la violence de haute gravité », les « déclarations préconisant la violence de haute gravité » et les « déclarations d’aspirations ou conditionnelles visant à commettre des violences de haute gravité », entre autres types d’expression. Les règles internes de l’entreprise pour les modérateurs précisent en outre que Meta interprète ce Standard de la communauté pour autoriser le contenu contenant des déclarations avec une « référence neutre à un résultat potentiel d’une action ou un avis consultatif. » En outre, les règles internes expliquent que le « contenu qui condamne ou sensibilise aux menaces violentes » est également autorisé dans le cadre de la politique relative à la violence et l’incitation. Cela s’applique au contenu qui cherche « clairement à informer et à sensibiliser d’autres personnes sur un sujet ou une question spécifique ; ou le contenu qui parle de l’expérience d’une personne d’être la cible d’une menace ou d’une violence », notamment les signalements des universités et des médias.
Meta a expliqué au Conseil qu’elle a décidé de restaurer ce contenu parce que la publication ne faisait pas l’apologie de la violence. Meta qualifie la déclaration de l’utilisateur selon laquelle « Ukrainians will also want to repeat … and will be able to repeat » (les Ukrainiens voudront aussi répéter ... et pourront répéter) après les évènements de Boutcha de référence neutre à un résultat potentiel, ce que l’entreprise interprète comme étant autorisé par la politique relative à la violence et l’incitation. Meta a également déclaré que la citation du poème de Simonov était un moyen de sensibiliser la population à la possibilité que l’histoire se répète en Ukraine. Enfin, en signalant le fait que le poème de Simonov est dirigé contre les fascistes allemands, elle note que le fait de prôner la violence contre des individus couverts par la politique relative aux personnes et organisations dangereuses, telles que les nazis, est autorisé par le Standard de la communauté relatif à la violence et à l’incitation.
Le Conseil est en partie convaincu par ce raisonnement. Il convient que la phrase « Ukrainians will also want to repeat... and will be able to repeat » (Les Ukrainiens voudront aussi répéter... et seront capables de répéter) n’appelle ni ne préconise la violence. Littéralement lue, cette partie de la publication indique simplement que les Ukrainiens pourraient bien réagir aussi violemment aux actions de l’armée russe que les Soviétiques à celles des nazis. En d’autres termes, il s’agit d’une « référence neutre à un résultat potentiel », autorisée selon l’interprétation de Meta de la politique relative à la violence et l’incitation, précisée dans les règles internes fournies aux modérateurs de contenu.
Le Conseil estime également que les extraits au langage violent du poème « Kill him! » (Tuez-le !) cités dans l’article ci-dessus, peuvent être lus comme une description, et non un encouragement, d’un état d’esprit. Lus conjointement avec la totalité de la publication, notamment l’image photographique, les extraits font partie d’un message plus large mettant en garde contre le risque que l’histoire se répète en Ukraine. Ils constituent une référence artistique et culturelle employée comme un moyen rhétorique par l’utilisateur pour transmettre son message. Par conséquent, le Conseil conclut que cette partie du contenu est également autorisée par les règles internes de Meta.
Le Conseil conclut toutefois que Meta manque de réalisme lorsqu’elle analyse la publication comme s’il s’agissait d’un simple appel à la violence contre les nazis. L’utilisateur indique clairement qu’il considère que les soldats russes en Ukraine aujourd’hui sont comparables aux Allemands en Russie pendant la Seconde Guerre mondiale. Si l’on considère que la publication, avec ses citations du poème de Simonov, fait référence à des soldats qui commettent aujourd’hui des atrocités contre des civils, il y a un risque que les lecteurs le lisent comme un appel à la violence contre les soldats russes aujourd’hui. Le Conseil est néanmoins d’accord avec la conclusion de Meta selon laquelle la publication n’enfreint pas le Standard relatif à la violence et à l’incitation, car sa signification première, dans son contexte, est une mise en garde contre un cycle de violence.
III. Contenu violent et explicite
En vertu de sa politique relative au contenu violent et explicite, Meta ajoute des étiquettes d’avertissement au contenu « afin que les utilisateurs soient conscients de la nature explicite ou violente avant de cliquer pour le voir. » C’est le cas pour les « images qui montrent la mort violente d’une ou de plusieurs personnes à la suite d’un accident ou d’un meurtre. » Dans ses règles internes destinées aux modérateurs de contenu, Meta qualifie d’« indicateurs d’une mort violente » les images explicites des « suites d’une mort violente où la victime semble morte ou visiblement frappée d’incapacité, et où il existe des indicateurs visuels supplémentaires de violence », tels que du « sang ou des blessures sur le corps, du sang entourant la victime, un corps gonflé ou décoloré, ou des corps excavés des débris. » Les règles internes expliquent en outre que les corps sans aucun « indicateur visible de mort violente » ou sans « au moins un indicateur de violence » ne doivent pas être considérés comme une représentation d’une « mort violente ».
La photo du contenu montre une rue avec une personne allongée par terre. Aucune blessure n’est visible. Meta a pu confirmer au Conseil que la personne a été abattue à Boutcha, en Ukraine. Le Conseil fait remarquer que les modérateurs de contenu travaillant à l’échelle n’auraient pas nécessairement accès à ce type d’informations. La majorité du Conseil estime que la politique sur le contenu violent et explicite n’a pas été violée, car l’image ne comporte pas d’indicateurs visuels clairs de violence, tels que décrits dans les règles internes de Meta pour les modérateurs de contenu. Par conséquent, la majorité conclut qu’un écran d’avertissement n’aurait pas dû être appliqué.
Compte tenu du contexte du conflit armé en Ukraine et des débris représentés dans l’image, une minorité du Conseil estime que le contenu viole effectivement la politique relative au contenu violent et explicite.
IV. Mesures de mise en application
Le contenu a été signalé par un utilisateur pour contenu violent et explicite, mais a été supprimé en vertu de la politique relative aux discours haineux. Il n’a été restauré qu’après avoir été porté à l’attention de Meta par le Conseil. En réponse aux questions du Conseil, Meta a expliqué que le contenu du cas n’a pas été transmis à des spécialistes des politiques ou des sujets pour un examen supplémentaire. « Transféré pour examen » signifie qu’au lieu que la décision soit réexaminée par des modérateurs de contenu effectuant un examen à l’échelle, elle est envoyée à une équipe interne de Meta qui est responsable de la politique ou du domaine concerné.
8.2 Respect des valeurs de Meta
Le Conseil estime que la suppression du contenu et le placement d’un écran d’avertissement sur l’image incluse dans ce contenu ne sont pas conformes aux valeurs de Meta.
Le Conseil se montre préoccupé par la situation des civils russes et par les effets possibles d’un discours violent visant les Russes en général. Cependant, dans le cas présent, le Conseil trouve que le contenu ne présente pas un réel risque pour les valeurs de « Dignité » et de « Sécurité » de ces personnes, qui l’ont emporté sur la valeur de « Liberté d’expression », en particulier dans un contexte où Meta devrait s’assurer que les utilisateurs touchés par la guerre sont en mesure de discuter de ses implications.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Le Conseil estime que la décision initiale de Meta de supprimer le contenu et sa décision d’appliquer un écran d’avertissement au contenu étaient toutes deux incompatibles avec les responsabilités de Meta en matière de droits de l’homme en tant qu’entreprise. Meta s’est engagée à respecter les droits de l’homme en vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (PDNU). La Politique d’entreprise relative aux droits de l’homme de Facebook indique que ceci inclut le Pacte international relatif aux droits civils et politiques (PIDCP).
Liberté d’expression (article 19 du PIDCP)
Le droit à la liberté d’expression a une portée large. L’article 19, paragraphe 2, du PIDCP accorde une protection particulière à l’expression, notamment à l’expression artistique, sur les questions politiques et les commentaires sur les affaires publiques, ainsi qu’aux discussions sur les droits de l’homme et les revendications historiques ( Observation générale n° 34, paragraphes 11 et 49). La protection s’applique également aux expressions qui peuvent être considérées comme « profondément offensantes » (Observation générale n° 34, paragraphe11). Le contenu analysé par le Conseil dans le cas présent contient un langage inapproprié. Toutefois, il s’agit d’un discours politique qui attire l’attention sur les violations des droits de l’homme dans un contexte de guerre.
En l’occurrence, le contenu comprenait des citations d’un poème de guerre bien connu, que l’utilisateur a utilisé comme référence culturelle provocante pour informer et avertir son audience des conséquences potentielles des actions des soldats russes en Ukraine. Le Rapporteur spécial des Nations unies pour la liberté d’expression a souligné que l’expression artistique comprend « les histoires fictives et non fictives qui informent, détournent ou provoquent » ( A/HRC/44/49/Add.2, paragraphe 5).
En vertu de l’article 19 du PIDCP, lorsqu’un État impose des limitations à la liberté d’expression, celles-ci doivent remplir des critères de légalité, d’objectif légitime ainsi que de nécessité et de proportionnalité (article 19, paragraphe 3, PIDCP). Le Rapporteur spécial des Nations unies pour la liberté d’expression a encouragé les entreprises de médias sociaux à suivre ces principes lors de la modération de la liberté d’expression en ligne ( A/HRC/38/35, paragraphes 45 et 70).
I. Légalité (clarté et accessibilité des règles)
Le principe de légalité exige que les règles utilisées par les États pour limiter la liberté d’expression soient claires et accessibles (observation générale n° 34, paragraphe 25). Le Comité des droits de l’homme a en outre observé que les règles « ne peuvent pas conférer aux personnes chargées de leur application un pouvoir illimité de décider de la restriction de la liberté d’expression » (observation générale n° 34, paragraphe 25). Les individus doivent disposer de suffisamment d’informations pour déterminer si et comment leur liberté d’expression peut être limitée de manière à pouvoir adapter leur comportement en conséquence. Si l’on applique ce principe aux règles de Meta relatives au contenu sur Facebook, les utilisateurs devraient pouvoir comprendre ce qui est autorisé et ce qui ne l’est pas.
Les deux articles des règles internes de Meta sur la manière d’appliquer le Standard de la communauté relatif à la violence et à l’incitation constituent des éléments particulièrement pertinents pour la conclusion à laquelle sont parvenus Meta et le Conseil, à savoir que le contenu doit rester sur Facebook. Tout d’abord, Meta interprète cette politique pour autoriser les messages qui avertissent de la possibilité de violence par des tiers, s’il s’agit de déclarations avec « une référence neutre à un résultat potentiel d’une action ou un avis consultatif. » Ensuite, les contenus autrement violents sont autorisés s’ils « condamnent ou sensibilisent aux menaces violentes. » Le Conseil relève toutefois que ces règles internes ne sont pas incluses dans le langage public du Standard de la communauté relatif à la violence et l’incitation. Cela pourrait laisser croire aux utilisateurs qu’un contenu tel que la publication dans ce cas est en infraction, alors qu’il ne l’est pas. Meta doit intégrer ces articles dans le langage public de la politique sur la violence et l’incitation, et ce, afin qu’il soit suffisamment clair pour les utilisateurs. Le Conseil est conscient que le fait de publier plus de détails sur les politiques de contenu de Meta pourrait permettre aux utilisateurs mal intentionnés de contourner plus facilement les Standards de la communauté. Le Conseil considère toutefois que le besoin de clarté et de spécificité prévaut sur la crainte que certains utilisateurs puissent tenter de « déjouer le système. » Si les utilisateurs ne savent pas que les « références neutres à un résultat potentiel », les « avis consultatifs », la « condamnation » ou la « sensibilisation » aux menaces violentes sont autorisées, ils peuvent éviter d’initier ou de participer à des discussions d’intérêt public sur les plateformes de Meta.
Le Conseil est également préoccupé par le fait que dans ce cas, la décision de Meta d’appliquer un écran d’avertissement est incompatible avec ses règles internes à l’intention des modérateurs de contenu. En outre, l’interprétation par Meta de la politique relative au contenu violent et explicite peut ne pas être claire pour les utilisateurs. Meta devrait chercher à clarifier, dans le langage public de la politique, la façon dont l’entreprise interprète la politique, et comment elle détermine si une image « montre la mort violente d’une ou plusieurs personnes à la suite d’un accident ou d’un meurtre », dans le contexte d’un conflit, selon les règles internes de Meta à l’intention des modérateurs de contenu.
De plus, Meta a informé le Conseil qu’aucun message n’a été envoyé à l’utilisateur qui a signalé le contenu à l’origine pour l’informer que l’entreprise avait par la suite restauré le message. Cela soulève des problèmes de légalité, car le manque d’informations pertinentes pour les utilisateurs peut interférer avec « la capacité de l’individu à contester les actions du contenu ou à donner suite aux plaintes liées au contenu » ( A/HCR/38/35, paragraphe 58). Le Conseil fait remarquer que le fait de notifier aux rapporteurs les mesures d’application prises à l’encontre du contenu qu’ils ont signalé, ainsi que le Standard de la communauté pertinent appliqué, aiderait les utilisateurs à mieux comprendre et à suivre les règles de Meta.
II. Objectif légitime
Toute restriction de la liberté d’expression doit également poursuivre « un objectif légitime ». Le Conseil a précédemment reconnu que le Standard de la communauté relatif au discours haineux poursuit l’objectif légitime de protéger les droits d’autrui (Observation générale n° 34, paragraphe 28), notamment les droits à l’égalité et à la non-discrimination fondée sur l’ethnicité et la nationalité (article 2, paragraphe 1, PIDCP). Protéger les Russes visés par la haine est donc un objectif légitime. Toutefois, le Conseil estime que la protection des « soldats » contre les allégations d’actes répréhensibles n’est pas un objectif légitime, lorsqu’ils sont visés en raison de leur rôle de combattants pendant une guerre, et non en raison de leur nationalité ou d’une autre caractéristique protégée ; la critique d’institutions telles que l’armée ne devrait pas être interdite (Observation générale n° 34, paragraphe 38).
Le Standard relatif à la violence et l’incitation, convenablement formulé et appliqué, poursuit l’objectif légitime de protéger les droits d’autrui. Dans le contexte de ce cas, cette politique vise à prévenir l’escalade de la violence qui pourrait conduire à des atteintes à la sécurité physique (article 9, PIDCP) et à la vie (article 6, PIDCP) des personnes dans les zones touchées par le conflit russo-ukrainien.
Le Conseil note qu’il existe des complexités supplémentaires dans l’évaluation du discours violent dans le contexte de la résistance armée face à une invasion. L’invasion russe de l’Ukraine est internationalement reconnue comme illégale (A/RES/ES-11/1), et le recours à la force en tant que légitime défense contre de tels actes d’agression est autorisé (article 51, Charte des Nations unies). Dans un contexte de conflit armé international, le droit international humanitaire sur le comportement des parties aux hostilités permet de prendre légalement pour cible des combattants actifs au cours d’un conflit armé. Ce n’est pas le cas des personnes qui ne participent plus activement aux hostilités, notamment les prisonniers de guerre (article 3 de la Convention de Genève relative au traitement des prisonniers de guerre). Lorsque la violence est elle-même légale en vertu du droit international, les discours incitant à cette violence présentent des considérations différentes qui doivent être examinées séparément. Même si le Conseil a jugé que le contenu en l’espèce n’était pas en infraction, il exhorte Meta à réviser ses politiques afin de prendre en considération les circonstances d’une intervention militaire illégale.
En ce qui concerne la décision de l’entreprise d’appliquer un écran d’avertissement sur la photographie, Meta note que la politique de contenu violent et explicite vise à promouvoir un environnement propice à une participation diversifiée en limitant le « contenu qui glorifie la violence ou célèbre la souffrance ou l’humiliation d’autrui. » Le Conseil convient que cet objectif est légitime dans le contexte de l’objectif de Meta de promouvoir une plateforme inclusive.
III. Nécessité et proportionnalité
Le principe de nécessité et de proportionnalité stipule que les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection ; elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » (Observation générale n° 34, paragraphe 34).
Le Conseil est généralement guidé, pour évaluer les risques posés par les contenus violents ou haineux, par le test des six facteurs décrit dans le Plan d’action de Rabat, qui traite de l’appel à la haine nationale, raciale ou religieuse qui constitue une incitation à l’hostilité, à la discrimination ou à la violence. En l’espèce, le Conseil estime que, malgré le contexte de conflit armé en cours et les références culturelles chargées employées par l’utilisateur, il est peu probable que le message, à savoir une mise en garde contre un cycle de violence, entraîne un préjudice. Le Conseil conclut que la suppression initiale du contenu n’était pas nécessaire. En outre, la majorité du Conseil estime que l’écran d’avertissement n’était pas non plus nécessaire, tandis que la minorité du Conseil estime qu’il était à la fois nécessaire et proportionnel.
Au vu des facteurs pertinents en l’espèce, le Conseil conclut qu’en dépit du contexte de l’invasion illégale de l’Ukraine par la Russie, où un discours potentiellement incendiaire pourrait accroître les tensions, l’intention évidente de l’utilisateur (sensibiliser à la guerre et à ses conséquences), le ton réfléchi adopté en citant un poème de guerre, et la prolifération d’autres communications concernant les évènements horribles en Ukraine, signifient que le contenu n’est pas susceptible de contribuer de manière significative à l’exacerbation de la violence.
La majorité du Conseil conclut que l’utilisation d’un écran d’avertissement entrave la liberté d’expression et n’est pas une réponse nécessaire dans ce cas, car l’image photographique ne présente pas d’indicateurs visuels clairs de violence, tels que décrits dans les règles internes de Meta à l’intention des modérateurs de contenu, qui justifieraient l’utilisation de l’écran d’avertissement. Les entreprises de médias sociaux doivent envisager une série de réponses possibles au contenu problématique afin de s’assurer que les restrictions sont étroitement adaptées ( A/74/486, paragraphe 51). À cet égard, le Conseil estime que Meta devrait développer davantage les outils de personnalisation afin que les utilisateurs puissent décider de voir les contenus explicites sensibles avec ou sans avertissement sur Facebook et sur Instagram.
Une minorité du Conseil estime que l’écran d’avertissement était une mesure nécessaire et proportionnée qui était adaptée de manière appropriée pour encourager la participation et la liberté d’expression. Cette minorité estime que, eu égard à la dignité des personnes décédées, en particulier dans le contexte d’un conflit armé, et aux effets possibles des images représentant la mort et la violence sur un grand nombre d’utilisateurs, Meta peut pécher par prudence en ajoutant des écrans d’avertissement sur des contenus tels que celui analysé.
9. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de retirer le contenu, et la décision ultérieure de Meta selon laquelle la politique relative au contenu violent et explicite a été violée, ce qui a conduit l’entreprise à appliquer un écran d’avertissement sur l’image photographique de la publication.
10. Avis consultatif sur la politique
Politique de contenu
1. Meta devrait ajouter au langage public de son Standard de la communauté relatif à la violence et à l’incitation le fait que la société interprète la politique pour autoriser le contenu comportant des déclarations avec « une référence neutre à un résultat potentiel d’une action ou un avis consultatif » et le contenu qui « condamne ou sensibilise aux menaces violentes ». Le Conseil s’attend à ce que cette recommandation, si elle est suivie, oblige Meta à mettre à jour le langage public de la politique sur la violence et l’incitation pour refléter ces inclusions.
2. Meta devrait ajouter au langage public de son Standard de la communauté relatif au contenu violent et explicite des détails tirés de ses règles internes sur la façon dont l’entreprise détermine si une image « montre la mort violente d’une ou plusieurs personnes à la suite d’un accident ou d’un meurtre ». Le Conseil s’attend à ce que cette recommandation, si elle est suivie, oblige Meta à mettre à jour le langage destiné au public du Standard de la communauté relatif au contenu violent et explicite pour refléter cette inclusion.
Mise en application
3. Meta devrait évaluer la faisabilité de la mise en application d’outils de personnalisation qui permettraient aux utilisateurs de plus de 18 ans de décider de voir des contenus sensibles explicites avec ou sans écran d’avertissement, à la fois sur Facebook et Instagram. Le Conseil s’attend à ce que cette recommandation, si elle est suivie, oblige Meta à publier les résultats d’une évaluation de faisabilité.
*Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en sciences sociales sur six continents ainsi que 3 200 spécialistes nationaux du monde entier. Duco Advisers, une société de conseil qui se concentre sur les recoupements entre la géopolitique, la confiance, la sécurité et la technologie, a également prêté assistance au Conseil. L’entreprise Lionbridge Technologies, LLC, dont les spécialistes parlent couramment plus de 350 langues et travaillent dans 5 000 villes du monde entier, a fourni son expertise linguistique.
Retour aux décisions de cas et aux avis consultatifs politiques