Renversé
Vidéo après l’attaque d’une église au Nigeria
Le Conseil a annulé la décision de Meta de supprimer une vidéo publiée sur Instagram montrant les dégâts causés par une attaque terroriste au Nigeria.
Résumé du cas
Le Conseil a annulé la décision de Meta de supprimer une vidéo publiée sur Instagram montrant les dégâts causés par une attaque terroriste au Nigeria. Sa théorie reposait sur l’idée que la restauration de la publication accompagnée d’un écran d’avertissement protège la vie privée des victimes tout en favorisant le débat sur des évènements que certains États peuvent souhaiter passer sous silence.
À propos du cas
Le 5 juin 2022, un utilisateur d’Instagram au Nigeria a publié une vidéo montrant des corps inanimés et ensanglantés allongés au sol. Elle représente en réalité les dégâts causés par une attaque terroriste perpétrée dans une église dans le sud-ouest du Nigeria, où au moins 40 personnes ont été tuées et de nombreuses autres blessées. Ce contenu a été publié le jour même de l’attaque. On peut lire parmi les commentaires sur la publication des prières et des déclarations sur la sécurité au Nigeria.
Les systèmes automatisés de Meta ont appliqué un écran d’avertissement sur le contenu après l’avoir examiné. L’utilisateur n’a cependant pas été averti, car aucune notification n’est envoyée aux utilisateurs d’Instagram lorsque des écrans d’avertissement sont appliqués.
L’utilisateur a ensuite ajouté une légende à la vidéo, décrivant l’incident comme « sad » (triste) et utilisant de nombreux hashtags, notamment des références aux collectionneurs d’armes à feu, des allusions au son des tirs, et au jeu en live-action « airsoft » (où des équipes se mesurent les unes aux autres avec des armes factices). L’utilisateur avait intégré des hashtags similaires dans de nombreuses autres publications.
Peu après, l’une des banques de service de correspondance lié au contenu multimédia de Meta, une « banque de remontée », a identifié la vidéo avant de la supprimer. Les banques de service de correspondance lié au contenu multimédia peuvent faire correspondre automatiquement des publications d’un utilisateur avec un contenu précédemment considéré comme étant en infraction. Le contenu apparaissant dans une « banque de remontée » a été jugé en infraction par les équipes internes de spécialistes de Meta. Après avoir été identifié, tout contenu correspondant est immédiatement supprimé.
L’utilisateur a fait appel de la décision de Meta, mais un examen manuel a confirmé la suppression. L’utilisateur a alors fait appel auprès du Conseil.
Après que le Conseil a accepté le cas, Meta a examiné le contenu dans la « banque de remontée », l’a jugé comme n’étant pas en infraction puis l’a supprimé. Il a toutefois maintenu sa décision de supprimer la publication en l’espèce, affirmant que les hashtags pourraient être interprétés comme « glorifiant la violence et minimisant la souffrance des victimes ». Meta a trouvé qu’il enfreint plusieurs politiques, notamment la politique sur le contenu violent et explicite, qui interdit les remarques sadiques.
Principales observations
Une majorité du Conseil estime que la restauration de ce contenu sur Instagram est conforme aux Standards de la communauté de Meta, ainsi qu’à ses valeurs et responsabilités en matière de droits de l’homme.
Le Nigeria est confronté à une série continue d’attaques terroristes et son gouvernement a empêché la couverture médiatique d’un certain nombre d’entre elles, bien que l’attaque du 5 juin ne semble pas être concernée par cette censure. Le Conseil convient de l’importance fondamentale de la liberté d’expression dans ces contextes.
En ne prenant pas en compte les hashtags, le Conseil est unanime quant au fait qu’un écran d’avertissement devrait être appliqué à la vidéo. La vie privée des victimes serait alors protégée, certains visages étant visibles, ainsi que la liberté d’expression. Le Conseil distingue cette vidéo de l’image dans le cas du « Poème russe », qui était beaucoup moins explicite, et pour lequel il n’avait pas jugé pertinent d’ajouter un écran d’avertissement. Par ailleurs, il la distingue des images du cas « Vidéo explicite au Soudan », qui étaient beaucoup plus explicites, pour lesquelles le Conseil a accepté la décision de Meta de restaurer le contenu en lui apposant un écran d’avertissement, en appliquant une « tolérance d’intérêt médiatique », qui autorise autrement le contenu en infraction.
Une majorité du Conseil estime que la balance penche pourtant en faveur de la restauration du contenu si les hashtags sont pris en compte, car ils sensibilisent l’opinion et ne sont pas sadiques. On utilise habituellement les hashtags en vue de promouvoir une publication au sein d’une audience. Les algorithmes de Meta encouragent cette pratique, l’entreprise doit donc se garder d’attribuer à leur utilisation de mauvaises intentions. La majorité du Conseil fait remarquer que Meta n’a pas considéré que l’utilisation de ces hashtags servait une raillerie codée. Les utilisateurs qui ont commenté la publication ont semblé comprendre son intention de sensibiliser l’opinion, et l’auteur a témoigné sa compassion envers les victimes dans ses réponses.
Une minorité du Conseil juge sadique l’ajout de hashtags liés à la fusillade dans les images, et affirme que cela pourrait traumatiser les survivants ou les familles des victimes. Un écran d’avertissement ne saurait réduire cet effet. Étant donné le contexte de violence terroriste au Nigeria, la prudence de Meta est légitime, notamment lorsque les victimes sont identifiables. La minorité pense toutefois que cette publication ne devrait pas être restaurée.
Le Conseil estime que la politique sur le contenu violent et explicite devrait être plus précise. Celle-ci interdit les « remarques sadiques », mais la définition de ce terme inclus dans les conseils internes pour les modérateurs s’avère plus large que son usage courant.
Le Conseil remarque que le contenu a été initialement supprimé en raison de sa correspondance avec une vidéo qui avait été ajoutée par erreur dans la banque de remontée. Juste après la crise, il est évident que Meta a essayé d’empêcher la propagation d’un contenu en infraction sur ses plateformes. Néanmoins, l’entreprise doit à présent s’assurer que le contenu malencontreusement supprimé a été restauré, et que les conflits en découlant ont été résolus.
Décision du Conseil de surveillance
Le Conseil de surveillance rejette la décision de Meta de supprimer la publication et estime qu’elle doit être restaurée sur la plateforme en l’accompagnant d’un écran d’avertissement « contenu dérangeant ».
Le Conseil recommande à Meta de :
- Examiner le langage dans la politique publique sur le contenu violent et explicite afin de s’assurer qu’il respecte les conseils internes pour les modérateurs.
- Notifier les utilisateurs d’Instagram lorsqu’un écran d’avertissement est appliqué à leur contenu et apporter la justification de la Politique spécifique pour se faire.
*Les résumés de cas fournissent une présentation du cas et n’ont pas valeur de précédent.
Décision complète sur le cas
1. Résumé de la décision
Meta a supprimé une publication Instagram contenant une vidéo et une légende montrant les dégâts perpétrés par une attaque dans une église au Nigeria, en raison de sa violation des politiques sur le contenu violent et explicite, le harcèlement et l’intimidation, et les personnes et organisations dangereuses. Une majorité du Conseil juge nécessaire de restaurer le contenu sur la plateforme en l’accompagnant d’un écran d’avertissement « contenu dérangeant », sur lequel les utilisateurs devront cliquer pour voir la vidéo. Une minorité du Conseil désapprouve et confirmerait la décision de Meta de supprimer ce contenu.
2. Description du cas et contexte
Le 5 juin 2022, des terroristes ont attaqué une église catholique à Owo, dans le sud-ouest du Nigeria, tuant au moins 40 personnes et en blessant environ 90 autres. Quelques heures après l’attaque, un utilisateur d’Instagram au Nigeria a publié une vidéo sur son compte public montrant vraisemblablement le lieu du crime où l’on voit des corps inanimés et ensanglantés allongés par terre, et parfois même leur visage. En arrière-plan, on peut entendre les sons d’une scène de chaos, dont des personnes en train de gémir et de crier. La vidéo a d’abord été publiée sans légende. Elle a récolté moins de 50 commentaires. Le Conseil a constaté qu’ils comprenaient des prières pour les victimes, des émojis en pleurs et des déclarations sur la sécurité au Nigeria. L’auteur de la publication a répondu à plusieurs d’entre eux en montrant qu’il partageait leurs sentiments.
Après la publication de ce contenu, l’une des banques de service de correspondance lié au contenu multimédia violent et explicite de Meta l’a identifié, car elle contenait une vidéo considérablement similaire. Cette banque signale automatiquement le contenu que des examens manuels ont précédemment identifié comme enfreignant les règles de l’entreprise. Dans le cas présent, la banque a transmis la vidéo de l’utilisateur à un outil de modération de contenu automatisé appelé « classificateur », capable d’évaluer la probabilité qu’un contenu enfreigne une politique de Meta. Le classificateur a déterminé que la vidéo devrait être autorisée sur Instagram. Par ailleurs, il a estimé que le contenu était susceptible de contenir des images de mort violente et, en conséquence de quoi, a automatiquement appliqué un écran d’avertissement « contenu dérangeant » tel que la politique sur le contenu violent et explicite l’exige. Meta n’a pas informé l’utilisateur de l’ajout de l’écran d’avertissement. Dans les 48 heures suivant la publication, ce contenu a été signalé par trois utilisateurs, notamment pour avoir montré des personnes décédées et des blessures graves.
Dans le même temps, le personnel de Meta œuvrait pour identifier et traiter le contenu diffusé suite à l’attaque. L’équipe chargée de la politique de Meta a eu vent de l’attaque par le personnel régional et a intégré des vidéos de l’incident à une autre banque de service de correspondance lié au contenu multimédia, une « banque de remontée ». Les équipes internes de spécialistes de Meta ont identifié le contenu envoyé dans cette banque comme étant en infraction, et tout contenu correspondant a immédiatement été supprimé. Les vidéos ajoutées à la banque de remontée après l’incident comportaient des images montrant explicitement des entrailles humaines (ce qui n’est pas le cas de la vidéo qui nous préoccupe). D’autres équipes de Meta ont été invitées à transmettre des vidéos éventuellement similaires à l’équipe chargée de la politique. Cette dernière déterminera alors s’il convient de les ajouter également à la banque de remontée.
3 jours après l’attaque, Meta a ajouté une vidéo presque identique au présent contenu dans la banque de remontée. Les systèmes de Meta ont ainsi comparé cette vidéo au contenu déjà sur la plateforme pour vérifier leur correspondance. Au même moment que cet examen rétroactif, l’utilisateur a modifié la vidéo initialement publiée en y ajoutant des sous-titres en anglais. Ceux-ci indiquent que l’église a été attaquée par des hommes armés, que plusieurs personnes ont été tuées et ont qualifié la fusillade de « sad » (triste). La légende incluait un grand nombre de hashtags. Elle évoquait majoritairement le jeu en live-action « airsoft » (où des équipes s’affrontent pour se sortir du jeu en se tirant dessus avec des armes factices utilisant des projectiles en plastique). D’après Meta, un autre hashtag faisait allusion au son des tirs et est également utilisé pour commercialiser les armes à feu. D’autres hashtags évoquaient les collectionneurs d’armes à feu et l’équipement connexe, ainsi que des simulations militaires.
Peu de temps après l’ajout de la légende, l’examen rétroactif entrepris par la banque de remontée a établi une correspondance entre la publication de l’utilisateur et la vidéo presque identique récemment ajoutée, avant de la supprimer de la plateforme. L’utilisateur a fait appel. Un modérateur humain a examiné le contenu et a confirmé la décision de suppression. L’utilisateur a alors fait appel auprès du Conseil.
Les 3 signalements de contenu soumis par les utilisateurs n’avaient alors pas encore été examinés et avaient été clôturés. Meta a expliqué au Conseil que les signalements avaient été malencontreusement assignés à une file d’attente non prioritaire.
En réponse à la sélection de ce cas par le Conseil, Meta a examiné la vidéo presque identique qui avait été intégrée à la banque de remontée. Elle a estimé qu’elle n’enfreignait aucune politique, car elle ne montrait pas d’« entrailles visibles » ni de sous-titres sadiques, puis l’a supprimée de la banque. Meta a toutefois maintenu sa décision de supprimer le contenu du cas présent, en affirmant que, bien que le récit entourant l’évènement et les témoignages de tristesse de l’utilisateur n’étaient pas en infraction, les hashtags de la légende qu’il a ajoutés contrevenaient à plusieurs politiques. En réponse aux questions du Conseil, Meta a analysé l’historique des publications de l’utilisateur et a découvert qu’il avait utilisé des hashtags similaires sur plusieurs de ses publications récentes sur Instagram.
Le Conseil remarque la pertinence contextuelle de la récente histoire de violence et d’attaques terroristes au Nigeria. Les spécialistes consultés par le Conseil ont déclaré que le gouvernement nigérian avait déjà censuré des reportages nationaux sur des attaques terroristes, sans que cela semble réellement le cas concernant l’attaque du 5 juin, qui a été largement couverte par les médias traditionnels. Des images explicites des attaques et des victimes ont été diffusées en masse sur les plateformes de médias sociaux, notamment Instagram et Facebook, mais ne l’ont pas été dans la même mesure par les médias traditionnels. En réponse aux questions du Conseil, Meta a confirmé que le gouvernement nigérian ne l’a pas contactée eu égard à l’attaque et n’a pas demandé à ce que le contenu soit retiré.
3. Champ d’application et autorité du Conseil de surveillance
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Le Conseil peut confirmer ou annuler la décision de Meta (article 3, section 5 de la Charte), et ce, de manière contraignante pour l’entreprise (article 4 de la Charte). Meta doit également évaluer la possibilité d’appliquer la décision à un contenu identique dans un contexte parallèle (article 4 de la Charte). Les décisions du Conseil peuvent inclure des avis consultatifs sur la politique avec des recommandations non contraignantes auxquelles Meta doit répondre (article 3, section 4 ; article 4 de la Charte).
4. Source d’autorité
Le Conseil de surveillance a pris en compte les autorités et les standards suivants dans sa décision :
l.Décisions du Conseil de surveillance :
- « Poème russe » (décision sur le cas 2022-008-FB-UA) : le Conseil a abordé les défis découlant de la modération de contenu lors de situations de conflit et a noté le manque de précision de la politique sur le contenu violent et explicite.
- « Mention aux talibans dans les informations d’actualité » (décision sur le cas 2022-005-FB-UA) : le Conseil a discuté de la façon dont les utilisateurs peuvent commenter les activités des entités terroristes.
- « Dessin représentant la police colombienne » (décision sur le cas 2022-004-FB-UA) : le Conseil a conseillé à Meta d’améliorer ses procédures de suppression du contenu qui n’est pas en infraction incorrectement intégré aux banques de service de correspondance lié au contenu multimédia.
- « Vidéo explicite au Soudan » (décision sur le cas 2022-002-FB-MR) : le Conseil a évoqué la nécessité de modifier et de clarifier la politique sur le contenu violent et explicite.
- « Protestations pro-Navalny en Russie » (décision sur le cas 2021-004-FB-UA) : le Conseil a discuté de l’objectif légitime du Standard de la communauté sur le harcèlement et l’intimidation.
- « Citation nazie » (décision sur le cas 2020-005-FB-UA) : le Conseil a abordé les commentaires émis sur un contenu par les amis et followers de l’auteur, qui indiquent l’intention probable d’un auteur.
II. Règles de Meta relatives au contenu :
Ce cas implique les Règles de la communauté Instagram et les Standards de la communauté Facebook. Le rapport de Meta relatif à la transparence au 3e trimestre indique que « Facebook et Instagram partagent des politiques de contenu. Cela signifie que si un contenu est jugé en infraction sur Facebook, il est aussi jugé en infraction sur Instagram. »
Les Règles de la communauté Instagram stipulent que Meta « est susceptible de supprimer des vidéos exposant des scènes de violence intense afin de s’assurer qu’Instagram reste adapté à chaque personne. » Cela rejoint le Standard de la communauté de Facebook sur le contenu violent et explicite, où la justification de la Politique indique :
Pour protéger les utilisateurs des images choquantes, nous supprimons les contenus particulièrement violents ou explicites, tels que les vidéos montrant des démembrements, des entrailles visibles ou des corps carbonisés. Nous supprimons également les contenus contenant des remarques sadiques à l’égard d’images décrivant la souffrance d’êtres humains et d’animaux. Dans le cadre de discussions sur des questions importantes telles que les violations des droits de l’homme, les conflits armés ou les actes de terrorisme, nous autorisons le contenu explicite (avec certaines restrictions) pour aider les personnes à condamner et afin de sensibiliser à ces situations.
La politique sur le contenu violent et explicite stipule que des « images qui montrent la mort violente d’une ou plusieurs personnes à la suite d’un accident ou d’un meurtre » seront masquées par un écran d’avertissement « contenu dérangeant ». La section « ne pas publier » des règles explique que les utilisateurs ne sont pas autorisés à publier des remarques sadiques sur des images qui nécessitent un écran d’avertissement en vertu de la politique. Elle déclare également que le contenu sera supprimé si des images montrent des « entrailles visibles ».
La justification de la Politique de lutte contre le harcèlement et l’intimidation de Meta explique qu’elle supprime un certain nombre de contenus, « car ils entravent le sentiment de sécurité et de respect des personnes sur Facebook. » Selon le Niveau 4 des règles spécifiques, l’entreprise interdit de publier du contenu qui « glorifie, célèbre ou se moque de la mort ou des blessures graves » d’individus.
La justification de la Politique sur les personnes et organisations dangereuses de Meta explique que Meta interdit les « contenus qui glorifient, soutiennent techniquement ou représentent des évènements que Facebook désigne comme des évènements violents en infraction, en ce compris des attaques terroristes, des évènements incitant à la haine, des (tentatives de) tueries. » Dans le cadre du Niveau 1 des règles spécifiques, Meta supprime toute glorification de tels évènements.
III. Valeurs de Meta :
Les valeurs de Meta sont énoncées dans l’introduction des Standards de la communauté Facebook et l’entreprise a confirmé qu’elles s’appliquent à Instagram. La « liberté d’expression » y est décrite comme « primordiale » :
L’objectif de nos Standards de la communauté est de créer un espace d’expression et de donner la parole au public. Meta souhaite que les personnes puissent s’exprimer ouvertement sur les sujets qui comptent pour elles, même si d’autres peuvent marquer leur désaccord ou y trouver à redire.
Meta limite la liberté d’expression au profit de quatre autres valeurs, dont trois sont en l’espèce pertinentes :
La sécurité : Nous nous engageons à faire de Facebook un endroit sûr. Nous supprimons les contenus susceptibles de menacer la sécurité physique. Les formes d’expression menaçantes peuvent intimider les autres personnes, les exclure ou les réduire au silence, et ne sont donc pas autorisées sur Facebook.
La confidentialité : nous nous engageons à protéger la vie privée et les informations. La confidentialité donne la liberté nécessaire pour être soi-même, pour choisir quand et comment partager des informations sur Facebook et pour créer des liens plus facilement.
La dignité : Nous pensons que chacun mérite les mêmes droits et la même dignité. Nous attendons de chaque personne qu’elle respecte la dignité d’autrui et qu’elle ne harcèle ni ne rabaisse les autres.
IV. Normes internationales relatives aux droits de l’homme :
Les Principes directeurs relatifs aux entreprises et aux droits de l’homme des Nations Unies (PDNU), soutenus par le Conseil des droits de l’homme des Nations unies en 2011, établissent un cadre de travail volontaire pour les responsabilités relatives aux droits de l’homme des entreprises privées. En 2021, Meta a annoncé l’entrée en vigueur de sa Politique d’entreprise relative aux droits de l’homme, dans laquelle elle a réaffirmé son engagement à respecter les droits de l’homme conformément aux PDNU. L’analyse du Conseil sur les responsabilités de Meta en matière des droits de l’homme en l’espèce s’est appuyée sur les standards des droits de l’homme suivants :
- Le droit à la liberté d’expression : l’article 19 du Pacte international relatif aux droits civils et politiques (PIDCP), l’observation générale n° 34 du Comité des droits de l’homme, 2011 ; les rapports du Rapporteur spécial des Nations unies sur la liberté d’opinion et d’expression : A/HRC/38/35 (2018) et A/74/486 (2019).
- Le droit à la vie privée : l’article 17 du PIDCP.
5. Soumissions de l’utilisateur
Dans sa déclaration au Conseil, l’utilisateur a expliqué avoir partagé cette vidéo afin de sensibiliser l’opinion face à l’attaque et d’informer le monde sur ce qu’il se passe au Nigeria.
6. Soumissions de Meta
Meta a expliqué dans sa justification que, aux termes de la politique sur le contenu violent et explicite, les images, y compris les vidéos, montrant la mort violente de personnes sont généralement masquées derrière un écran d’avertissement pour informer de leur nature potentiellement dérangeante. Les utilisateurs adultes peuvent cliquer pour voir le contenu, tandis que les mineurs ne peuvent pas y accéder. Néanmoins, Meta a également déclaré que le contenu sera supprimé si des remarques sadiques apparaissent dessus. Elle affirme que l’objectif est d’empêcher les utilisateurs des plateformes de glorifier la violence ou de célébrer la souffrance des autres. Meta a confirmé qu’en l’absence de légende, la vidéo sera autorisée sur Instagram si un écran d’avertissement « contenu dérangeant » apparaît devant. Si la vidéo montre des « entrailles visibles », comme d’autres vidéos de la même attaque, elle serait supprimée en vertu de la politique sur le contenu violent et explicite sans que des remarques sadiques ne l’accompagnent nécessairement.
Meta a d’abord affirmé au Conseil qu’en l’espèce l’utilisateur n’a pas été informé de l’écran d’avertissement, ni de la politique utilisée pour l’appliquer, en raison d’une erreur technique. Cependant, après avoir été interrogé par le Conseil, Meta a dévoilé que, contrairement aux utilisateurs de Facebook qui reçoivent habituellement une notification explicative quant à l’ajout d’un écran d’avertissement, les utilisateurs d’Instagram n’en reçoivent pas.
Meta a précisé que ses conseils internes pour les modérateurs, appelés Questions connues, définissent les remarques sadiques comme celles qui « jouissent ou retirent du plaisir à la souffrance ou à l’humiliation d’un être humain ou d’un animal ». Les Questions connues fournissent des exemples de remarques considérées comme sadiques, réparties en 2 groupes : celles qui montrent une « satisfaction de la souffrance » et les « réponses humoristiques ». De plus, Meta a confirmé que les remarques sadiques peuvent être exprimées par des hashtags ou des emojis.
Dans son analyse des hashtags utilisés dans ce cas, Meta a expliqué que la référence au son des tirs représentait une « réponse humoristique » à la violence qui prenait à la légère l’attaque terroriste du 5 juin. Selon elle, le même hashtag est également utilisé pour commercialiser les armes à feu. Toujours d’après Meta, le hashtag lié aux tirs, ainsi que le hashtag qui faisait allusion aux collectionneurs d’armes à feu et l’équipement connexe, « pourrait être compris comme glorifiant la violence et minimisant la souffrance des victimes sous le prétexte de l’humour et d’évoquer sous un jour positif les armes et l’équipement utilisés pour les tuer. » Meta a par ailleurs expliqué que le hashtag évoquant les simulations militaires comparait l’attaque à une simulation, « minimisant la tragédie et les blessures réelles qui ont touché les victimes et leur entourage. » Elle a également indiqué que les hashtags parlant de « airsoft » comparaient l’attaque à un jeu en glorifiant la violence comme un acte réalisé par plaisir.
Meta a expliqué que les sous-titres ajoutés par l’utilisateur, qui revendiquent ne pas soutenir la violence et qualifient l’attaque de « triste jour », « n’indiquent pas clairement que le partage de la vidéo vise à sensibiliser sur l’attaque. » L’entreprise s’est en outre justifiée sur le fait que, même si l’utilisateur semblait vouloir sensibiliser l’opinion, l’ajout de « hashtags sadiques » entraînerait malgré tout la suppression du contenu. Pour soutenir sa position, Meta a expliqué que certains utilisateurs essayent d’échapper à la modération en incluant un langage trompeur ou contradictoire dans leurs publications. Meta a distingué ce cas de la décision du Conseil concernant le cas « Vidéo explicite au Soudan » (2022-002-FB-FBR) où l’utilisateur a clairement exprimé son intention de sensibiliser l’opinion en partageant un contenu dérangeant. En réponse aux questions du Conseil, Meta l’a informé que l’utilisateur avait ajouté les mêmes hashtags à la plupart de ses récentes publications. Meta n’a pas réussi à savoir pourquoi il utilisait souvent les mêmes hashtags.
En outre, elle a déclaré que la publication de l’utilisateur enfreignait la politique sur le harcèlement et l’intimidation, qui interdit le contenu qui se moque de la mort de particuliers. Dans le cas présent, on a considéré que le hashtag lié au son des tirs était une réponse humoristique à la violence montrée dans la vidéo.
En réponse aux questions du Conseil, Meta a également déterminé que le contenu enfreignait la politique sur les personnes et organisations dangereuses. Meta avait qualifié l’attaque du 5 juin de « tuerie » et, en conséquence, tout contenu glorifiant, soutenant farouchement ou représentant ledit évènement est interdit en vertu de la politique sur les personnes et organisations dangereuses. Meta a expliqué que cette décision est conforme aux engagements pris dans le cadre de l’Appel à l’action de Christchurch, et qu’elle a porté l’attaque du 5 juin à l’attention des partenaires du secteur dans le Global Internet Forum to Counter Terrorism (Forum Internet mondial contre le terrorisme). Meta a expliqué que, bien qu’il s’en ait fallu de peu, le contenu qui nous préoccupe semble se moquer des victimes de l’attaque et évoquer positivement les armes utilisées et, par conséquent, relève de la glorification d’un évènement désigné aux termes de cette politique.
Elle a déclaré que la suppression du contenu en l’espèce offre un juste équilibre entre ses valeurs. La légende de l’utilisateur a démontré un manque de respect pour la dignité des victimes, leurs familles et le groupe affecté par l’attaque, qui l’emportent sur la valeur « liberté d’expression » de l’utilisateur. En réponse aux questions du Conseil, Meta a confirmé n’avoir appliqué aucune tolérance d’intérêt médiatique en lien avec le contenu montrant des images en infraction concernant l’attaque du 5 juin.
Enfin, Meta a justifié ses actions en disant qu’elles étaient conformes à la législation internationale en matière de droits de l’homme, en déclarant que sa politique sur les remarques sadiques est claire et accessible, qu’elle vise à protéger les droits d’autrui, ainsi que l’ordre public et la sécurité nationale, et que toutes les actions autres que la suppression ne résoudraient pas correctement le risque de blessures. Meta a évoqué la décision de la Cour européenne des droits de l’Homme dans l’affaire Hachette Filipacchi Associés v. France (2007), qui soutenait que les journalistes qui ont publié des photos de la mort violente d’une personne dans un magazine largement diffusé « ont exacerbé le traumatisme subi par les proches de la victime ». Meta a également fait mention d’un article de 2010 de Sam Gregory, « Cameras Everywhere: Ubiquitous Video Documentation of Human Rights, New Forms of Video Advocacy, and Considerations of Safety, Security, Dignity and Consent » (Des caméras partout : documentation omniprésente des droits de l’homme par vidéo, nouvelles formes de plaidoyer par vidéo et considérations sur la sécurité, la dignité et le consentement) dans le Journal of Human Rights Practice, qui explique que « the most graphic violations » (les violations les plus explicites) comme les attaques violentes « most easily translate into a loss of dignity, privacy, and agency, and which carries with it the potential for real re-victimization. » (se traduisent la plupart du temps par une perte de dignité, de confidentialité et de pouvoir, et qu’elles portent en elles le potentiel d’une réelle revictimisation.). Meta a fait remarquer que sa politique ne préconise pas de supprimer un contenu explicite, mais de le masquer par un écran d’avertissement destiné à limiter son accès aux mineurs. Elle a indiqué que sa politique de suppression des remarques sadiques « va plus loin », car « la valeur de dignité supplante la valeur de liberté d’expression. »
Le Conseil a posé 29 questions, et Meta a répondu intégralement à 28 d’entre elles. Meta n’a pas réussi à répondre à une question concernant le pourcentage des signalements d’utilisateur fermés sans avoir été examinés sur le marché subsaharien.
7. Commentaires publics
Le Conseil de surveillance a reçu 9 commentaires publics en rapport avec ce cas. Un de ces commentaires a été envoyé d’Asie-Pacifique et d’Océanie, un d’Asie centrale et du Sud, un du Moyen-Orient et d’Afrique du Nord, un d’Afrique subsaharienne, et cinq des États-Unis et du Canada.
Les soumissions couvraient des sujets comme la nécessité de clarifier la politique sur le contenu violent et explicite et les problématiques spécifiques du Nigeria dont le Conseil devrait prendre connaissance avant de statuer sur ce cas.
Pour lire les commentaires publics transmis pour ce cas, veuillez cliquer ici.
8.Analyse du Conseil de surveillance
Le Conseil a examiné la question de la restauration de ce contenu sous 3 angles : les politiques relatives au contenu de Meta, les valeurs de l’entreprise et ses responsabilités en matière de droits de l’homme.
8.1 Respect des politiques relatives au contenu de Meta
Le Conseil a analysé trois des politiques de Meta sur le contenu : contenu violent et explicite ; harcèlement et intimidation, et personnes et organisations dangereuses. La majorité du Conseil estime qu’aucune politique n’a été enfreinte.
I. Règles relatives au contenu
Contenu violent et explicite
La justification de la Politique déclare que Meta « supprime les contenus contenant des remarques sadiques à l’endroit d’images décrivant la souffrance d’êtres humains et d’animaux. » Toutefois, elle mentionne également autoriser le contenu explicite, avec certaines restrictions, pour aider les personnes à condamner et à les sensibiliser face à des « questions importantes telles que les violations des droits de l’homme, les conflits armés ou les actes de terrorisme. » La politique fournit également des écrans d’avertissement afin d’alerter les personnes sur la nature éventuellement dérangeante du contenu, notamment lorsque des images montrent des morts violentes. Dans les règles relevant directement de la justification de la Politique, Meta explique que les utilisateurs ne peuvent publier de « remarques sadiques sur des images qui ont été supprimées ou masquées par un écran d’avertissement en vertu de cette politique ». Meta n’apporte aucune autre explication publique ni d’exemples de remarques sadiques.
Le Conseil convient avec Meta que la vidéo concernée dans ce cas montre des morts violentes et qu’elle devrait être accompagnée d’un écran d’avertissement si elle ne comportait pas une légende. Contrairement au contenu dans la décision du Conseil « Vidéo explicite au Soudan », la vidéo du cas présent, même si l’on y voit des corps inanimés ensanglantés, ne montre pas d’entrailles visibles, ce qui entraînerait sa suppression en vertu de cette politique. Dans le cas « Vidéo explicite au Soudan », les hashtags indiquaient une intention claire de documenter les violations des droits humains, et le Conseil s’est en partie basé sur l’intention claire de ces hashtags et sur la tolérance d’intérêt médiatique de Meta pour restaurer le contenu. Dans ce cas, l’évaluation du contenu par le Conseil par rapport aux politiques de Meta sur le contenu s’appuie en partie sur l’absence d’entrailles visibles, de démembrements ou de corps carbonisés dans les images de la vidéo, ainsi que sur les hashtags utilisés. La différence entre les avis de la majorité et de la minorité s’articule au tour de l’objectif ou de la signification qui devraient être attribués ici aux hashtags.
Une majorité du Conseil justifie sa position sur l’utilisation courante de hashtags pour promouvoir une publication auprès d’une certaine audience, et s’associer à d’autres utilisateurs qui partagent des centres d’intérêt communs et entretiennent des relations. Utilisés ainsi, ils n’impliquent pas nécessairement des commentaires sur une image ou un thème. Une majorité du Conseil estime que les hashtags dans la légende ne sont pas sadiques, car l’utilisateur ne les utilise pas pour montrer qu’il « jouit ou retire du plaisir » à la souffrance d’autrui. Assimiler la longue liste de hashtags particuliers à des commentaires sur la vidéo nous a ici égaré. Ce cas se distingue de la décision du Conseil dans le cas « Vidéo explicite au Soudan », dans lequel les hashtags indiquaient clairement l’intention de l’utilisateur en partageant cette vidéo explicite. L’utilisation de hashtags relatifs au jeu « airsoft », ainsi que ceux liés aux armes à feu et aux simulations militaires, n’aurait pas dû être interprétée comme « glorifiant la violence » (conformément à la politique sur les personnes et organisations dangereuses) et encore moins comme « se moquant » (en vertu de la politique sur le harcèlement et l’intimidation) ou montrant que l’utilisateur « jouissait ou retirait du plaisir à la souffrance d’autrui » (conformément à la politique sur le contenu violent et explicite). Nombreux sont les utilisateurs de médias sociaux à avoir un intérêt pour le jeu « airsoft », les armes à feu ou les simulations militaires et à le partager, et qui peuvent utiliser des hashtags pour interagir avec d’autres sans exprimer un quelconque soutien au terrorisme ni à la violence contre des individus. Les hashtags sur le « airsoft » sont plus directement associés à l’enthousiasme pour le jeu, et sont, globalement, incohérents par rapport au contenu de la vidéo et aux commentaires que l’utilisateur a immédiatement partagés en dessous. Cela aurait dû alerter Meta que l’utilisateur essayait de sensibiliser les personnes avec lesquelles il communique habituellement sur Instagram, et d’en atteindre d’autres. Comme la conception d’Instagram encourage l’utilisation libérale des hashtags comme un moyen de promouvoir du contenu et d’interagir avec de nouvelles audiences, Meta doit rester prudente avant de leur attribuer une mauvaise intention. Une recherche indépendante commanditée par le Conseil a confirmé que les hashtags de la publication sont largement utilisés parmi les amateurs d’airsoft et d’armes à feu. Meta n’a pas non plus estimé qu’ils avaient été intégrés comme une raillerie codée pour contourner la détection sur ses plateformes.
La majorité du Conseil a également jugé qu’il était clair que les commentaires que l’utilisateur a ajoutés à la vidéo, après l’application d’un écran d’avertissement, n’indiquaient pas qu’il jouissait ou retirait du plaisir de l’attaque. L’utilisateur a déclaré que l’attaque représentait « a sad day » (un triste jour), et qu’il ne soutient pas la violence. Les commentaires sous la publication ont ensuite permis de voir que les abonnées de l’utilisateur comprenaient l’intention de sensibilisation, à l’instar de ce qu’il s’est passé dans le cas « Citation nazie ». Les réponses de l’utilisateur à ces commentaires ont également montré qu’il compatissait avec les victimes. Le Conseil accepte l’argument de Meta selon lequel les déclarations explicites de l’utilisateur dans le contenu disant qu’il ne soutient pas la violence ne devraient pas toujours être prises pour argent comptant, car il peut arriver que des utilisateurs tentent d’échapper à la modération en les incluant, alors que l’intention réelle de leurs publications est tout autre. Le Conseil rappelle ses conclusions quant au fait qu’un utilisateur ne doit pas nécessairement condamner expressément les activités d’entités terroristes dans ses commentaires, et qu’espérer qu’il le fasse pourrait gravement limiter l’expression dans des régions où de tels groupes sont actifs (voir la décision du Conseil dans le cas « Mention des talibans dans les informations d’actualité »).
Une minorité du Conseil conclut que, évalués conjointement, la juxtaposition des hashtags liés aux tirs sur les images apparaît sadique, en comparant la tuerie à des jeux et en paraissant promouvoir les armes en imitant celles utilisées lors de l’attaque. Cela s’avérerait sadique pour les survivants de l’attaque et les proches des personnes décédées, et le potentiel de nouveau traumatisme ne serait pas réduit en masquant le contenu par un écran d’avertissement. Connaissant le contexte de violence terroriste au Nigeria, la minorité estime qu’il est légitime que Meta privilégie la prudence lorsque des commentaires sur la violence explicite semblent sadiques, même si une ambiguïté persiste. Cela est particulièrement vrai en cas de contenu similaire à cette vidéo, où le visage apparent de certaines victimes peut permettre de les identifier, et qu’une escalade de la violence ou des représailles des terroristes contre les survivants ne sont pas à exclure. Une minorité du Conseil pense également que les déclarations dans les sous-titres en l’espèce n’annulent pas l’effet sadique de la juxtaposition de hashtags associés aux amateurs d’armes sur une vidéo montrant une scène d’horreur après une attaque perpétrée avec des armes à feu. Alors que les hashtags peuvent servir un objectif d’association pour les membres d’une audience, une minorité du Conseil pense que, dans des situations comme celle-ci, Meta devrait appliquer ses politiques de sorte à considérer le contenu du point de vue des survivants et des familles des victimes.
Il convient également de tenir compte de la façon dont Meta peut mettre en place ses politiques de contenu rapidement et systématiquement dans les situations de crise, comme au lendemain d’actes terroristes dont les images sont vite diffusées sur les médias sociaux. D’après la minorité, il était évident qu’un modérateur ou qu’un lecteur occasionnel ne saurait pas que l’utilisateur avait déjà inclus ces hashtags sur la plupart de ses publications récentes. Dans un contexte qui évolue rapidement, la minorité estime que Meta a eu raison d’interpréter l’utilisation de hashtags liés aux armes à feu comme indiquant que l’utilisateur retirait du plaisir à la souffrance montrée. La majorité reconnaît que la suppression du contenu représentait une erreur raisonnable et rejoint Meta en disant qu’il s’agissait d’une « décision difficile ». Cependant, l’analyse indépendante du Conseil (assisté de spécialistes qui ont fourni des informations contextuelles sur la tuerie, plus généralement la violence au Nigeria et sa relation avec les médias sociaux, ainsi que sur la signification et l’utilisation des hashtags) a conduit la majorité à conclure que qualifier ces hashtags de sadiques sous le simple prétexte qu’ils sont associés aux utilisateurs d’armes à feu était une erreur.
Harcèlement et intimidation
Le Niveau 4 de la politique sur le harcèlement et l’intimidation interdit le contenu qui se moque de la mort ou des blessures graves de particuliers.
Pour les mêmes raisons stipulées dans la section précédente, une majorité du Conseil estime que le contenu ne constitue pas une raillerie, car les hashtags ne visent pas à faire rire, mais à interagir avec les autres utilisateurs, ce qui a été confirmé par les réponses à la publication et les interactions de l’utilisateur avec elles. Meta s’est trompée en supposant qu’une série de hashtags sont des commentaires sur la vidéo partagée. Comme nous l’avons indiqué précédemment, l’utilisateur n’a pas demandé aux amateurs d’armes à feu de se moquer des victimes, et cela semble être confirmé par les réactions de choc et de compassion sur la publication, que Meta confirme émaner principalement d’utilisateurs au Nigeria, et les interactions de l’utilisateur avec ces réactions (voir la décision du Conseil sur le cas « Citation nazie »). Même si la majorité s’accorde à dire qu’il est important de prendre en considération les points de vue des survivants et des familles des victimes, les réponses à ce contenu montrent que ces points de vue ne pèsent pas nécessairement contre le maintien du contenu sur la plateforme, notamment si l’on considère la fréquence des attaques contre les chrétiens au Nigeria.
Une minorité du Conseil n’est pas d’accord. L’ajout de hashtags relatifs aux armes à feu factices prouve que l’utilisateur présentait volontairement une vidéo montrant les victimes d’une fusillade à des amateurs d’armes à feu. Meta a eu raison de considérer cette vidéo comme moqueuse, et de prioriser le point de vue des survivants et des familles des victimes lors de cette évaluation.
Personnes et organisations dangereuses
Le Niveau 1 de la politique sur les personnes et organisations dangereuses interdit les contenus qui glorifient, soutiennent techniquement ou représentent des « tueries ».
Le Conseil s’accorde sur le fait que, selon la définition de Meta du terme « tueries », l’attaque du 5 juin en fait partie. La majorité juge cependant que l’utilisation de hashtags dans les sous-titres ne « glorifie » pas l’attaque, pour les mêmes raisons qu’ils ne sont pas sadiques. Mais la minorité n’est pas d’accord et pense que, bien qu’il s’en faille de peu, pour les mêmes motifs exposés dans les sections précédentes, la juxtaposition entre les hashtags et le contenu pourrait être perçue comme une glorification de l’attaque elle-même.
II. Mesures de mise en application
Meta a d’abord informé le Conseil que l’utilisateur n’avait reçu aucun message lui expliquant que son contenu avait été masqué par un écran d’avertissement en raison d’une erreur technique. Or, en réponse aux questions du Conseil, Meta a enquêté et découvert que les utilisateurs d’Instagram ne sont pas informés lorsque leur contenu est placé derrière un écran d’avertissement. Dans ce cas, l’ajout de la légende dans laquelle l’utilisateur déclare explicitement ne pas soutenir la violence peut avoir été une tentative de répondre à l’imposition de l’écran d’avertissement. Meta doit s’assurer que tous les utilisateurs reçoivent une notification lorsque leur contenu est masqué par un écran d’avertissement leur expliquant la raison d’une telle mesure.
Le Conseil note que le contenu en l’espèce a été supprimé car la vidéo correspondait à une vidéo presque identique qui avait été ajoutée par erreur à une banque de remontée qui supprime automatiquement le contenu correspondant. Dans le cas « Dessin représentant la police colombienne », le Conseil a indiqué que Meta doit garantir disposer de systèmes efficaces et de processus de sélection afin d’évaluer le contenu avant de l’intégrer à une banque de service de correspondance lié au contenu multimédia qui supprime les contenus correspondants sans examen supplémentaire. Le Conseil comprend que juste après la crise, il est évident que Meta a essayé d’empêcher la propagation d’un contenu en infraction sur ses plateformes. Cependant, étant donné les innombrables impacts des banques de service de correspondance lié au contenu multimédia, les contrôles demeurent essentiels. Meta est tenue de s’assurer que tous les contenus supprimés par erreur en raison d’une intégration injustifiée à l’une de ces banques sont restaurés et que tous les conflits connexes sont résolus.
Le Conseil est préoccupé par le fait que les trois signalements d’utilisateur du contenu n’ont pas été soumis à examen dans les 5 jours avant sa suppression. En réponse aux questions du Conseil, Meta a expliqué que cette omission était due à une erreur technique inconnue qui fait l’objet d’une enquête. En réponse aux questions ultérieures, Meta a indiqué qu’elle ne pouvait pas évaluer le pourcentage des signalements d’utilisateur Instagram fermés sans avoir été examinés en Afrique subsaharienne.
8.2 Respect des valeurs de Meta
Le Conseil conclut que la suppression du contenu en l’espèce allait à l’encontre de la valeur « liberté d’expression » de Meta.
Il reconnaît les intérêts concurrents dans les situations comme celle du cas qui nous préoccupe. Le contenu implique ici la dignité et la vie privée des victimes de l’attaque du 5 juin, ainsi que celles de leurs familles et de leur entourage. Un certain nombre de victimes dans la vidéo peuvent être identifiées car on voit leur visage.
Le Conseil rappelle que dans son cas « Vidéo explicite au Soudan » et son cas « Poème russe », il a demandé d’améliorer la politique de Meta sur le contenu violent et explicite afin d’observer les valeurs de l’entreprise. Le Conseil a estimé que le traitement de la politique sur le partage de contenu explicite pour « sensibiliser l’opinion » n’était pas suffisamment clair. Dans un certain nombre de cas, le Conseil a jugé que des écrans d’avertissement peuvent représenter des mécanismes appropriés pour trouver un juste équilibre entre les valeurs « liberté d’expression », « confidentialité », « dignité » et « sécurité » (voir les décisions du Conseil dans les cas « Vidéo explicite au Soudan » et « Poème russe »). Le Conseil s’accorde à penser que, dans des contextes où l’espace civique et la liberté des médias sont illégitimement restreints par l’État, comme au Nigeria, la valeur « liberté d’expression » de Meta gagne encore en importance (voir la décision du Conseil dans le cas « Manifestations en Colombie »). Il convient également du fait que sensibiliser l’opinion aux violations des droits humains est un aspect particulièrement important de la « liberté d’expression » qui peut améliorer à son tour la « sécurité » en assurant l’accès aux informations. Les écrans d’avertissement peuvent promouvoir cet exercice de « liberté d’expression », même s’ils peuvent s’avérer inappropriés lorsque le contenu n’est pas suffisamment explicite, car ils réduisent considérablement la couverture et l’engagement avec le contenu (voir la décision du Conseil dans le cas « Poème russe »).
Principalement pour la même raison mentionnée dans la section précédente, la majorité et la minorité en sont arrivées à des conclusions différentes concernant les valeurs de Meta requises pour interpréter les hashtags ajoutés aux sous-titres de la vidéo. La majorité remarque qu’il est surtout nécessaire de protéger la « liberté d’expression » lorsque le contenu attire l’attention sur de graves violations des droits de l’homme et des atrocités, comme les attaques terroristes dans les églises au Nigeria. Elle estime que ces hashtags ne contredisent pas la compassion que l’utilisateur affiche à l’égard des victimes dans la légende et que leur utilisation est cohérente avec ses efforts de sensibilisation. La légende n’étant pas « sadique », la restauration du contenu accompagné d’un écran d’avertissement avec restriction d’âge respecte les valeurs de Meta. Bien que la majorité reconnaisse que l’ajout d’un écran d’avertissement peut influencer la « liberté d’expression » en limitant la couverture d’un contenu qui sensibilise l’opinion aux violations des droits humains, étant donné que les victimes sont identifiables, il est nécessaire de trouver un juste équilibre entre les valeurs « dignité » et « sécurité ».
D’après la minorité, la suppression du contenu est justifiée car elle protège la « dignité » et la « sécurité » des familles des victimes et des survivants, qui sont fortement susceptibles de vivre un second traumatisme s’ils sont exposés à un contenu qui semble porter des commentaires sadiques et railleurs sur la tuerie de leurs proches. Cette décision est jugée pertinente, car le visage de plusieurs victimes est visible et identifiable dans la vidéo et non flouté. Eu égard à la « liberté d’expression », la minorité juge pertinent qu’un contenu similaire sans hashtag soit partagé sur la plateforme derrière un écran d’avertissement, sans oublier que l’utilisateur aurait toujours pu partager un contenu similaire sans ajouter de hashtags liés aux armes à feu. La suppression de ce contenu par Meta n’a donc pas réellement entravé les efforts de l’audience au Nigeria pour sensibiliser l’opinion, ou établir les responsabilités, face à ces atrocités.
8.3 Respect des responsabilités de Meta en matière des droits de l’homme
Une majorité du Conseil estime que la suppression du contenu en l’espèce est conforme aux responsabilités de Meta en matière de droits de l’homme. Néanmoins, à l’instar du cas « Vidéo explicite au Soudan », la majorité et la minorité s’accordent à dire que Meta devrait modifier sa politique sur le contenu violent et explicite afin de déterminer clairement les règles de la politique qui influencent le contenu visant à sensibiliser l’opinion sur les abus et violations des droits humains.
Liberté d’expression (article 19 du PIDCP)
L’article 19 du PIDCP fournit une large protection à la liberté d’expression, en ce compris le droit de rechercher et de recevoir des informations. Toutefois, ce droit peut être restreint dans certaines conditions spécifiques, évaluées selon un test tripartite de la légalité, de la légitimité, de la nécessité et de la proportionnalité. Le Conseil a adopté ce cadre afin d’analyser les politiques de contenu et les pratiques de mise en application de Meta. Le rapporteur spécial des Nations unies sur la liberté d’expression a encouragé les entreprises de médias sociaux à s’inspirer de ces principes lorsqu’elles modèrent l’expression en ligne, tout en sachant que la réglementation de l’expression à grande échelle par des entreprises privées peut susciter des préoccupations particulières à ce contexte (A/HRC/38/35, paragraphes 45 et 70).
l.Légalité (clarté et accessibilité des règles)
Le principe de légalité requiert que les restrictions du droit à la liberté d’expression soient claires et accessibles, afin que les particuliers sachent ce qu’ils peuvent faire ou non (Observation générale n° 34, paragraphes 25 et 26). Un manque de précision peut générer une interprétation subjective des règles et leur application arbitraire. Les principes de Santa Clara sur la transparence et la responsabilité en matière de modération de contenu, mis en place par Meta, sont fondés sur la garantie du respect des entreprises envers les droits de l’homme en vertu des standards internationaux, y compris la liberté d’expression. Ils stipulent que les entreprises doivent appliquer des « règles et politiques compréhensibles », notamment des « conseils détaillés et des exemples de contenu autorisé et interdit ».
Avant de s’occuper de chaque politique de contenu, le Conseil évoque ses précédentes recommandations demandant à Meta de clarifier la relation entre les Règles de la communauté Instagram et les Standards de la communauté Facebook (cas « Symptômes du cancer du sein et nudité », 2020-004-IG-UA-2 et cas « Isolement d’Öcalan », 2021-006-IG-UA-10), et exhorte Meta à terminer la mise en application de cette recommandation dans les meilleurs délais.
Contenu violent et explicite
Le Conseil réitère sa préoccupation quant au manque de précision de la politique sur le contenu violent et explicite concernant la manière dont les utilisateurs peuvent sensibiliser l’opinion sur la violence explicite conformément à cette politique. Dans ce cas, d’autres questions émergent sur le contenu capturé selon la définition de « sadique » établie par Meta.
Dans la décision sur le cas « Vidéo explicite au Soudan », le Conseil a déclaré que :
La politique relative au contenu violent et explicite ne précise pas comment Meta permet aux utilisateurs de partager des contenus explicites pour sensibiliser aux infractions ou en attester. La justification du Standard de la communauté, laquelle expose les objectifs de la politique, ne correspond pas aux règles de la politique. La justification de la politique indique que Meta autorise les utilisateurs à publier du contenu explicite « afin d’aider les personnes à sensibiliser » aux violations des droits de l’homme, mais la politique interdit toutes les vidéos (qu’elles soient partagées à des fins de sensibilisation ou non) « de personnes décédées ou non dans un environnement non médical qui montrent un démembrement ».
Le Conseil a conseillé à Meta de modifier la politique afin d’autoriser spécifiquement le partage d’images montrant des personnes mortes et des corps inanimés aux fins de sensibilisation ou d’attestation de violations des droits humains. Il a également été conseillé à Meta d’établir des critères pour identifier les vidéos partagées à ces fins. Meta a déclaré être en cours d’évaluation de la faisabilité de ces recommandations et qu’elle entreprendra un processus d’élaboration de règles pour savoir si elles peuvent être adoptées ou non. Elle a également mis à jour sa justification de la Politique pour « garantir qu’elle reflète l’ensemble des actions de mise en application couvertes par la politique et précise la suppression de contenu extrêmement explicite et des remarques sadiques ». Le Conseil remarque cependant que les règles portant sur ce qui peut et ne peut pas être publié en vertu de cette politique ne précisent toujours pas la façon dont le contenu autrement interdit peut être publié pour « sensibiliser l’opinion ».
Il mentionne également qu’après avoir fait part publiquement de sa sélection du cas en l’espèce et envoyé des questions à l’entreprise, Meta a mis à jour la justification de la Politique afin d’y faire référence à son interdiction existante concernant les remarques « sadiques ». Néanmoins, le terme n’a pas encore été défini publiquement, car la politique se contente de lister les types de contenu que les utilisateurs ne sont pas autorisés à commenter de façon sadique. Le Conseil estime que l’usage commun du terme « sadique » a des connotations de dépravation et de sérieux volontaires, qui ne coïncident pas de façon pertinente aux conseils internes de Meta pour les modérateurs, appelés Questions connues. Les conseils internes montrent que la définition de « sadique » selon Meta est large au point d’englober toute réponse humoristique ou discours positif relatifs à la souffrance humaine ou animale. Cela semble revoir à la baisse la suppression de contenus par rapport à ce qui est communiqué par la politique publique.
Harcèlement et intimidation
Conformément à la politique de Meta sur le harcèlement et l’intimidation, l’entreprise interdit le contenu qui se moque de la mort ou des blessures physiques graves de particuliers. Le Conseil n’a pas jugé que la définition de cette règle soulevait des inquiétudes en matière de légalité dans le cas présent.
Personnes et organisations dangereuses
En vertu du Niveau 1 de ladite politique, Meta interdit la glorification d’« évènements violents en infraction » désignés, une catégorie qui inclut les attaques terroristes, « les tueries et les meurtres en série ». Le Conseil remarque que Meta ne semble pas disposer d’une politique cohérente quant aux annonces publiques d’évènements désignés. En l’absence de ces informations, les utilisateurs peuvent ignorer pourquoi leur contenu a été supprimé dans bien des cas.
II. Objectif légitime
Les limitations de la liberté d’expression doivent poursuivre un objectif légitime, lequel inclut la protection des droits d’autrui, tels que le droit à la vie privée des victimes identifiables, notamment les personnes décédées, montrées dans ce contenu (paragraphe 28 de l’Observation générale n° 34).
Le Conseil a précédemment évalué les 3 politiques en cause dans le cas présent et déterminé que chacune vise le but légitime de protéger les droits d’autrui. La politique sur le contenu violent et explicite a été soumise à évaluation dans le cas « Vidéo explicite au Soudan », la politique sur le harcèlement et l’intimidation dans le cas « Manifestations pro-Navalny en Russie », et la politique sur les personnes et organisations dangereuses dans le cas « Mention des talibans dans les informations d’actualité ».
III. Nécessité et proportionnalité
Les restrictions de la liberté d’expression « doivent être appropriées pour remplir leur fonction de protection, elles doivent constituer le moyen le moins perturbateur parmi ceux qui pourraient permettre d’obtenir le résultat recherché ; [et] elles doivent être proportionnées à l’intérêt à protéger » (observation générale 34, paragraphe 34).
Le Conseil a débattu de la pertinence des écrans d’avertissement pour restreindre la liberté d’expression dans les décisions « Vidéo explicite au Soudan » et « Poème russe ». La nature et la gravité de la violence explicite ont été déterminantes dans ces décisions, et les responsabilités de Meta en matière de droits de l’homme se sont parfois trouvées en tension avec ses politiques de contenu énoncées et leur application. Le cas « Poème russe » concernait une photo, prise de loin, de ce qui ressemblait à un cadavre. Le visage n’était pas visible, la personne n’était pas identifiable, et il n’y avait aucun signe explicite de violence. En l’espèce, le Conseil a conclu qu’il n’était pas nécessaire de la masquer par un écran d’avertissement. A contrario, le cas « Vidéo explicite au Soudan » concernait une vidéo montrant des démembrements et des entrailles visibles, photographiés plus près. Dans ce cas, le Conseil a noté que le contenu était suffisamment explicite pour justifier l’application d’un écran d’avertissement. Cette dernière décision reposait sur la tolérance d’intérêt médiatique, qui a été instaurée pour autoriser d’une autre manière un contenu en infraction. Cette tolérance a été appliquée car la politique elle-même ne précisait pas comme l’appliquer pour autoriser un contenu de sensibilisation sur les violations des droits humains.
Dans le cas présent, le Conseil convient que, sans les hashtags, un écran d’avertissement était nécessaire pour protéger le respect de la vie privée des victimes et de leurs familles, principalement car le visage des victimes était visible et que le lieu de l’attaque était connu. Les victimes sont ainsi identifiables, et le respect de leur vie privée et les droits de leurs familles plus directement mis à mal. La mort est également représentée de façon beaucoup plus explicite que dans le cas « Poème russe », car on y voit des corps ensanglantés bien plus près. Aucun démembrement et aucunes « entrailles visibles » n’apparaissent cependant à l’image. Si l’une ou l’autre de ces caractéristiques avait été présente, le contenu aurait dû être supprimé ou une tolérance d’intérêt médiatique aurait dû être appliquée pour le maintenir sur la plateforme. Alors qu’un écran d’avertissement réduira la couverture et les interactions avec le contenu, respecter la liberté d’expression aussi bien que les droits d’autrui s’avère être une mesure adaptée.
La majorité du Conseil estime que la suppression du contenu n’était une restriction ni nécessaire ni proportionnée de la liberté d’expression de l’utilisateur, et qu’il convient de le restaurer avec un écran d’avertissement « contenu dérangeant ». Selon cette même majorité, l’ajout de hashtags n’a pas davantage risqué de nuire au respect de la vie privée et à la dignité des victimes, des survivants ou de leurs familles, car des images très similaires sont déjà sur Instagram derrière un écran d’avertissement.
En réduisant drastiquement le nombre de personnes susceptibles de voir le contenu, l’intégration d’un écran d’avertissement dans ce cas a permis de respecter la vie privée des victimes (comme d’autres exemples de vidéos similaires), tout en favorisant les discussions autour d’évènements que certains États peuvent tenter de passer sous silence. Dans le cadre d’une insécurité permanente, les utilisateurs doivent impérativement être en mesure de sensibiliser l’opinion sur les développements récents, de documenter les violations des droits humains et de promouvoir la responsabilité des auteurs d’atrocités.
D’après une majorité du Conseil, l’ensemble des sous-titres, notamment les hashtags, n’étaient pas sadiques et auraient dû afficher plus clairement du sadisme, une raillerie ou une glorification de la violence pour que la suppression du contenu soit considérée nécessaire et adaptée.
Une minorité du Conseil partage l’avis de la majorité concernant son approche analytique et sa vision globale des politiques de Meta dans ce domaine, mais n’est pas d’accord sur l’interprétation des hashtags, et donc du résultat de l’analyse sur les droits de l’homme.
Pour la minorité, la suppression de la publication respectait les responsabilités de Meta en matière de droits de l’homme et les principes de nécessité et de proportionnalité. La survenue de ce type d’attaques entraîne souvent la viralité des vidéos de cette nature. Dans ce cas précis l’utilisateur comptait un grand nombre de followers. Il est essentiel qu’en réponse à ce type d’incidents Meta réagisse rapidement et à l’échelle, notamment en collaborant avec des partenaires du secteur, afin de prévenir et d’atténuer les dommages causés aux droits de l’homme des victimes, des survivants et de leurs familles. Cela sert également un objectif public plus large qui vise à empêcher les auteurs de telles attaques de semer une terreur généralisée, sachant que les médias sociaux amplifieront leurs impacts psychologiques. Pour la minorité, il est donc moins important en matière de droits humains si l’utilisateur en l’espèce souhaitait d’abord tirer parti des hashtags pour interagir avec son audience ou augmenter sa couverture. La valeur de ces associations, pour les particuliers concernés et le grand public, bien que n’étant pas négligeable, est largement dépassée par l’importance de respecter le droit à la confidentialité et à la dignité des survivants et des victimes. Le visage des victimes est visible et identifiable de près sur la vidéo, dans un lieu de culte, et leur corps est couvert de sang. La juxtaposition entre cette scène et les hashtags militaristes sur les armes intégrés à la légende n’a pas lieu d’être et semble moqueuse. Exposer les victimes et leurs familles à un tel contenu pourrait engendrer un second traumatisme, même si l’auteur de la publication n’en avait pas l’intention.
Pour la minorité, ce cas diffère de celui de la « Vidéo explicite au Soudan », où les hashtags indiquaient très clairement une intention de documenter les violations des droits humains. Quand bien même les déclarations montrant explicitement une intention de sensibiliser l’opinion ne sauraient être un critère de la politique (voir les décisions du Conseil sur les cas « Collier de wampum » et « Mention des talibans dans les informations d’actualité »), la suppression des hashtags enthousiastes sans discernement critique pour les armes et des images identifiables de personnes tuées par armes à feu s’aligne sur les responsabilités de Meta en matière de droits de l’homme. Dans ces circonstances, la minorité estime que Meta devrait privilégier la suppression.
9. Décision du Conseil de surveillance
Le Conseil de surveillance annule la décision de Meta visant à supprimer le contenu et demande que la publication soit restaurée et masquée par un écran d’avertissement « contenu dérangeant ».
10. Avis consultatif sur la politique
Politique de contenu
1. Meta devrait examiner le langage public de la politique sur le contenu violent et explicite afin de garantir qu’il respecte davantage les conseils internes de l’entreprise concernant la mise en application de cette politique. Le Conseil considérera que cette recommandation a été adoptée lorsqu’une définition et des exemples auront été ajoutés à la politique, de la même façon que Meta explique des concepts comme la « glorification » dans la politique sur les personnes et organisations dangereuses.
Mise en application
2. Meta devrait notifier les utilisateurs d’Instagram lorsqu’un écran d’avertissement est appliqué à leur contenu et apporter la justification de la Politique spécifique pour se faire. Le Conseil considérera que cette recommandation a été adoptée lorsque Meta confirmera que des notifications sont fournies aux utilisateurs d’Instagram dans toutes les langues prises en charge par la plateforme.
* Note de procédure :
Les décisions du Conseil de surveillance sont préparées par des panels de cinq membres et approuvées par une majorité du Conseil. Elles ne représentent pas nécessairement les opinions personnelles de tous ses membres.
Pour la décision sur ce cas, des recherches indépendantes ont été commandées au nom du Conseil. Un institut de recherche indépendant, dont le siège se trouve à l’université de Göteborg et mobilisant une équipe de plus 50 spécialistes en sciences sociales sur six continents ainsi que 3 200 spécialistes nationaux du monde entier. Le Conseil a par ailleurs été assisté de Duco Advisors, un cabinet de conseil spécialiste de l’intersection des facteurs géopolitiques, de la confiance et de la sécurité, et de la technologie, et Memetica, un groupe d’enquêtes numériques qui fournit des conseils en gestion des risques et des services de renseignements sur les menaces pour atténuer les dommages en ligne.
Retour aux décisions de cas et aux avis consultatifs politiques