Le Conseil de surveillance annule la décision initiale de Meta dans le cas du « poème russe »
16 novembre 2022
Le Conseil de surveillance a annulé la décision initiale de Meta de supprimer une publication Facebook comparant l’armée russe en Ukraine aux nazis et citant un poème qui appelle à tuer les fascistes. Il a également annulé la conclusion de Meta selon laquelle l’image de la publication, contenant ce qui semble être un cadavre, enfreignait la politique relative au contenu violent et explicite. Meta avait appliqué un écran d’avertissement à l’image au motif qu’elle allait à l’encontre de sa politique. Ce cas soulève des questions importantes sur la modération du contenu dans les situations de conflit.
À propos du cas
En avril 2022, un utilisateur de Facebook en Lettonie a publié une image de ce qui semble être un cadavre, face contre terre, dans une rue. Il n’y a pas de blessures visibles. Meta a confirmé au Conseil que la personne avait été abattue à Boutcha, en Ukraine.
Le texte russe qui accompagne l’image soutient que les atrocités présumées commises par les soldats soviétiques en Allemagne pendant la Seconde Guerre mondiale étaient justifiées par le fait qu’ils vengeaient les crimes des soldats nazis en URSS. Il établit un lien entre l’armée nazie et l’armée russe en Ukraine, affirmant que l’armée russe « became fascist » (est devenue fasciste).
La publication cite des atrocités présumées commises par l’armée russe en Ukraine et affirme que « after Bucha, Ukrainians will also want to repeat... and will be able to repeat » (après Boutcha, les Ukrainiens voudront aussi reproduire... et pourront reproduire). Elle se termine en citant le poème « Kill him ! » (Tuez-le !) du poète soviétique Konstantin Simonov, dont les vers suivants : « kill the fascist... Kill him! Kill him! Kill! » (Tuez-le ! Tuez-le ! Tuez !).
La publication a été signalée par un autre utilisateur de Facebook et supprimée par Meta pour avoir enfreint son Standard de la communauté relatif au discours haineux. Lorsque le Conseil a sélectionné le cas, Meta a constaté que la publication avait été supprimée à tort et l’a ensuite restaurée. Trois semaines plus tard, elle a appliqué un écran d’avertissement à l’image en vertu de sa Politique de contenu violent et explicite.
Principales observations
Le Conseil estime que la suppression de la publication et l’application ultérieure de l’écran d’avertissement ne sont pas conformes aux Standards de la communauté Facebook, aux valeurs de Meta ou à ses responsabilités en matière de droits de l’homme.
Le Conseil constate que, plutôt que de lancer des accusations générales selon lesquelles « Russian soldiers are Nazis » (les soldats russes sont des nazis), la publication soutient qu’ils ont agi comme des nazis à une époque et dans un lieu précis, et établit des parallèles historiques. La publication cible également les soldats russes en raison de leur rôle de combattants, et non en raison de leur nationalité. Dans ce contexte, ni les responsabilités de Meta en matière de droits de l’homme ni son Standard de la communauté relatif au discours haineux ne protègent les soldats contre les allégations d’actes répréhensibles flagrants ou n’empêchent les comparaisons provocantes entre leurs actions et les évènements passés.
Le Conseil souligne l’importance du contexte pour évaluer si un contenu incite à la violence. Dans le cas présent, le Conseil estime que les citations du poème « Kill him! » (Tuez-le !) sont une référence artistique et culturelle employée comme un dispositif rhétorique. Lorsqu’elles sont lues dans le contexte de l’ensemble du message, le Conseil estime que les citations sont utilisées pour décrire un état d’esprit, plutôt que pour l’encourager. Elles mettent en garde contre les cycles de violence et le risque que l’histoire se répète en Ukraine.
Les règles internes de Meta à l’intention des modérateurs et modératrices précisent que l’entreprise interprète son Standard de la communauté relatif à la violence et l’incitation de manière à autoriser de telle(s) « référence(s) neutre(s) à un résultat potentiel » et « avis consultatif(s) ». Toutefois, cela n’est pas expliqué dans les Standards de la communauté publics. De même, la politique relative au contenu violent et explicite interdit les images représentant une mort violente. Les règles internes à l’intention des modérateurs et modératrices décrivent la manière dont Meta détermine si une mort semble violente, mais cela ne figure pas dans la politique publique.
Dans ce cas, la majorité du Conseil estime que l’image de la publication ne comporte pas d’indicateurs clairs de violence qui, selon les règles internes de Meta destinées aux modérateurs et modératrices, justifieraient l’utilisation d’un écran d’avertissement.
Dans l’ensemble, le Conseil estime que cette publication est peu susceptible d’exacerber la violence. Cependant, il note qu’il existe des complexités supplémentaires dans l’évaluation du discours violent dans des situations de conflit international où le droit international permet de cibler des combattants. L’invasion russe de l’Ukraine est internationalement reconnue comme illégale. Le Conseil exhorte Meta à réviser ses politiques afin de prendre en considération les circonstances d’une intervention militaire illégale.
La décision du Conseil de surveillance
Le Conseil de surveillance annule la décision initiale de Meta de supprimer la publication et sa conclusion ultérieure que l’image contenue dans la publication enfreignait la politique de contenu violent et explicite, ayant conduit Meta à appliquer un écran d’avertissement.
Le Conseil recommande à Meta de :
- Modifier le Standard de la communauté public relatif à la violence et l’incitation pour préciser, sur la base de l’interprétation de la politique par Meta, que le contenu qui fait une « référence neutre à un résultat potentiel » est autorisé.
- Inclure une explication de la façon dont elle détermine si une image dépeint « la mort violente d’une personne », dans le Standard de la communauté public relatif au contenu violent et explicite.
- Évaluer la faisabilité de l’introduction d’outils permettant aux utilisateurs et utilisatrices adultes de décider de voir ou non le contenu explicite et, le cas échéant, de le voir avec ou sans écran d’avertissement.
Pour en savoir plus
Pour lire l’intégralité de la décision, cliquez ici.
Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.