Le Conseil de surveillance annule la décision de Meta pour le cas « Vidéo après l’attaque d’une église au Nigeria »
14 décembre 2022
Le Conseil de surveillance a annulé la décision de Meta de supprimer une vidéo publiée sur Instagram montrant les dégâts causés par une attaque terroriste au Nigeria. Sa théorie reposait sur l’idée que la restauration de la publication accompagnée d’un écran d’avertissement protège la vie privée des victimes tout en favorisant le débat sur des évènements que certains États peuvent souhaiter passer sous silence.
À propos du cas
Le 5 juin 2022, un utilisateur d’Instagram au Nigeria a publié une vidéo montrant des corps inanimés et ensanglantés allongés au sol. Elle représente en réalité les dégâts causés par une attaque terroriste perpétrée dans une église dans le sud-ouest du Nigeria, où au moins 40 personnes ont été tuées et de nombreuses autres blessées. Ce contenu a été publié le jour même de l’attaque. On peut lire parmi les commentaires sur la publication des prières et des déclarations sur la sécurité au Nigeria.
Les systèmes automatisés de Meta ont appliqué un écran d’avertissement sur le contenu après l’avoir examiné. L’utilisateur n’a cependant pas été averti, car aucune notification n’est envoyée aux utilisateurs d’Instagram lorsque des écrans d’avertissement sont appliqués.
L’utilisateur a ensuite ajouté une légende à la vidéo, décrivant l’incident comme « sad » (triste) et utilisant de nombreux hashtags, notamment des références aux collectionneurs d’armes à feu, des allusions au son des tirs, et au jeu en live-action « airsoft » (où des équipes se mesurent les unes aux autres avec des armes factices). L’utilisateur avait intégré des hashtags similaires dans de nombreuses autres publications.
Peu après, l’une des banques de service de correspondance lié au contenu multimédia de Meta, une « banque de remontée », a identifié la vidéo avant de la supprimer. Les banques de service de correspondance lié au contenu multimédia peuvent faire correspondre automatiquement des publications d’un utilisateur avec un contenu précédemment considéré comme étant en infraction. Le contenu apparaissant dans une « banque de remontée » a été jugé en infraction par les équipes internes de spécialistes de Meta. Après avoir été identifié, tout contenu correspondant est immédiatement supprimé.
L’utilisateur a fait appel de la décision de Meta, mais un examen manuel a confirmé la suppression. L’utilisateur a alors fait appel auprès du Conseil.
Après que le Conseil a accepté le cas, Meta a examiné le contenu dans la « banque de remontée », l’a jugé comme n’étant pas en infraction puis l’a supprimé. Il a toutefois maintenu sa décision de supprimer la publication en l’espèce, affirmant que les hashtags pourraient être interprétés comme « glorifiant la violence et minimisant la souffrance des victimes ». Meta a trouvé qu’il enfreint plusieurs politiques, notamment la politique sur le contenu violent et explicite, qui interdit les remarques sadiques.
Principales observations
Une majorité du Conseil estime que la restauration de ce contenu sur Instagram est conforme aux Standards de la communauté de Meta, ainsi qu’à ses valeurs et responsabilités en matière de droits de l’homme.
Le Nigeria est confronté à une série continue d’attaques terroristes et son gouvernement a empêché la couverture médiatique d’un certain nombre d’entre elles, bien que l’attaque du 5 juin ne semble pas être concernée par cette censure. Le Conseil convient de l’importance fondamentale de la liberté d’expression dans ces contextes.
En ne prenant pas en compte les hashtags, le Conseil est unanime quant au fait qu’un écran d’avertissement devrait être appliqué à la vidéo. La vie privée des victimes serait alors protégée, certains visages étant visibles, ainsi que la liberté d’expression. Le Conseil distingue cette vidéo de l’image dans le cas du « Poème russe », qui était beaucoup moins explicite, et pour lequel il n’avait pas jugé pertinent d’ajouter un écran d’avertissement. Par ailleurs, il la distingue des images du cas « Vidéo explicite au Soudan », qui étaient beaucoup plus explicites, pour lesquelles le Conseil a accepté la décision de Meta de restaurer le contenu en lui apposant un écran d’avertissement, en appliquant une « tolérance d’intérêt médiatique », qui autorise autrement le contenu en infraction.
Une majorité du Conseil estime que la balance penche pourtant en faveur de la restauration du contenu si les hashtags sont pris en compte, car ils sensibilisent l’opinion et ne sont pas sadiques. On utilise habituellement les hashtags en vue de promouvoir une publication au sein d’une audience. Les algorithmes de Meta encouragent cette pratique, l’entreprise doit donc se garder d’attribuer à leur utilisation de mauvaises intentions. La majorité du Conseil fait remarquer que Meta n’a pas considéré que l’utilisation de ces hashtags servait une raillerie codée. Les utilisateurs qui ont commenté la publication ont semblé comprendre son intention de sensibiliser l’opinion, et l’auteur a témoigné sa compassion envers les victimes dans ses réponses.
Une minorité du Conseil juge sadique l’ajout de hashtags liés à la fusillade dans les images, et affirme que cela pourrait traumatiser les survivants ou les familles des victimes. Un écran d’avertissement ne saurait réduire cet effet. Étant donné le contexte de violence terroriste au Nigeria, la prudence de Meta est légitime, notamment lorsque les victimes sont identifiables. La minorité pense toutefois que cette publication ne devrait pas être restaurée.
Le Conseil estime que la politique sur le contenu violent et explicite devrait être plus précise. Celle-ci interdit les « remarques sadiques », mais la définition de ce terme inclus dans les conseils internes pour les modérateurs s’avère plus large que son usage courant.
Le Conseil remarque que le contenu a été initialement supprimé en raison de sa correspondance avec une vidéo qui avait été ajoutée par erreur dans la banque de remontée. Juste après la crise, il est évident que Meta a essayé d’empêcher la propagation d’un contenu en infraction sur ses plateformes. Néanmoins, l’entreprise doit à présent s’assurer que le contenu malencontreusement supprimé a été restauré, et que les conflits en découlant ont été résolus.
La décision du Conseil de surveillance
Le Conseil de surveillance rejette la décision de Meta de supprimer la publication et estime qu’elle doit être restaurée sur la plateforme en l’accompagnant d’un écran d’avertissement « contenu dérangeant ».
Le Conseil recommande à Meta de :
- Examiner le langage dans la politique publique sur le contenu violent et explicite afin de s’assurer qu’il respecte les conseils internes pour les modérateurs.
- Notifier les utilisateurs d’Instagram lorsqu’un écran d’avertissement est appliqué à leur contenu et apporter la justification de la Politique spécifique pour se faire.
* La version complète de la décision est en cours de traduction en yoruba. Le Conseil publiera la traduction en yoruba sur son site web dès que possible courant 2023.
Pour en savoir plus
Pour lire l’intégralité de la décision, cliquez ici.
Pour lire un résumé des commentaires publics relatifs à ce cas, cliquez sur la pièce jointe ci-dessous.