Renversé
Mauvais traitements infligés par les forces de l’ordre équatoriennes
Un utilisateur a fait appel de la décision de Meta de supprimer une vidéo publiée sur Facebook depuis l’Équateur, dans laquelle on voit des personnes être ligotées, piétinées et battues à l’aide d’un bâton par des individus manifestement vêtus d’uniformes militaires.
Les décisions sommaires concernent les cas pour lesquels Meta est revenue sur sa décision initiale après que le Conseil les a portés à l’attention de l’entreprise. Elles contiennent des informations relatives aux erreurs reconnues par Meta. Elles sont approuvées par une partie du Conseil (et pas par l’ensemble de ses membres), n’impliquent pas de commentaires publics et n’ont pas valeur de précédent pour le Conseil. Les décisions sommaires exercent une influence directe sur les décisions de Meta en assurant la transparence quant à ses corrections et en identifiant les domaines dans lesquels Meta pourrait améliorer son application des politiques.
Résumé
Un utilisateur a fait appel de la décision de Meta de supprimer une vidéo publiée sur Facebook depuis l’Équateur, dans laquelle on voit des personnes être ligotées, piétinées et battues à l’aide d’un bâton par des individus manifestement vêtus d’uniformes militaires. Après que le Conseil a porté l’appel à l’attention de Meta, l’entreprise est revenue sur sa décision initiale et a restauré la publication, tout en appliquant un écran d’avertissement « Marquer comme sensible ».
À propos du cas
En janvier 2024, un utilisateur de Facebook a publié une vidéo montrant un groupe de personnes ligotées et allongées face contre terre, tandis que d’autres personnes portant des tenues de camouflage piétinent leurs cous et leurs dos avec acharnement, en les maintenant au sol et en les battant avec un bâton. Aucun visage n’est visible dans cette vidéo. On peut entendre une personne prononcer le terme « maricón » (tapette) ; le Conseil a, à ce propos, constaté dans sa décision sur les Protestations en Colombie que Meta l’avait désigné comme une insulte. La publication contient également une condamnation écrite en espagnol du passage à tabac de prisonniers « defenceless » (sans défense) et « unarmed » (non armés).
Au moment de la publication du contenu, des détenus ont mené une insurrection dans des prisons équatoriennes, en prenant en otage les surveillants pénitentiaires et le personnel administratif. Le Gouvernement de l’Équateur a déclaré un état d’urgence et imposé un couvre-feu La police et l’armée ont ensuite repris le contrôle de certaines prisons, et cette dernière a partagé des images de centaines de prisonniers, torse nu et pieds nus, allongés au sol.
Meta a d’abord supprimé la publication de l’utilisateur de Facebook en vertu de son Standard de la communauté sur la violence et l’incitation, qui interdit les menaces de violence, définies comme « des déclarations ou des visuels représentant une intention, une aspiration ou un appel à la violence contre une cible ».
Lorsque Meta a porté ce cas à l’attention de Meta, elle n’a pas motivé sa décision de supprimer le contenu conformément au Standard de la communauté relatif à la violence et l’incitation. L’entreprise a par ailleurs évalué le contenu en vertu du Standard de la communauté sur le discours haineux. Meta a expliqué que, bien que le contenu profère une insulte, il était autorisé aux termes du Standard de la communauté sur le discours haineux, compte tenu du fait qu’il incluait « des insultes ou un discours haineux d’une autre personne afin de condamner ce discours ou d’en informer le public ».
Meta a également expliqué qu’en vertu du Standard de la communauté sur le contenu violent et explicite, elle applique un écran d’avertissement « Marquer comme sensible » à des « images montrant une ou plusieurs personnes soumises à des actes de violence et/ou d’humiliation par un personnel en uniforme occupant une fonction policière ». L’entreprise a restauré le contenu sur Facebook et apposé dessus une étiquette « Marquer comme sensible ».
Autorité et champ d’application du Conseil
Le Conseil jouit de l’autorité nécessaire pour examiner la décision de Meta à la suite d’un appel interjeté par l’utilisateur dont le contenu a été supprimé (article 2, section 1 de la Charte ; article 3, section 1 des Statuts).
Lorsque Meta reconnaît avoir commis une erreur et revient sur sa décision dans un cas soumis à l’examen du Conseil, ce dernier peut décider de ne statuer que sommairement sur ce cas (article 2, section 2.1.3 des Statuts). Le Conseil réexamine la décision initiale afin de mieux comprendre le processus de modération de contenu, de réduire les erreurs et d’accroître l’équité pour les personnes qui utilisent Facebook, Instagram et Threads.
Signification du cas
Ce cas illustre les défis auxquels Meta est confrontée lorsqu’elle applique ses politiques sur la violence et l’incitation, le contenu violent et explicite et le discours haineux. Ces situations sont particulièrement complexes lorsque les documents ont trait à des actes de violence ou des abus commis pendant une crise à des fins de sensibilisation.
En ce qui concerne le Standard de la communauté sur la violence et l’incitation, le Conseil a recommandé à Meta d’« ajouter au langage public… que la société interprète la politique pour autoriser le contenu comportant des déclarations avec “une référence neutre à un résultat potentiel d’une action ou un avis consultatif” et le contenu qui “condamne ou sensibilise aux menaces violentes” (décision sur le Poème russe, recommandation n° 1). Meta a implémenté cette recommandation. En février 2024, Meta a mis à jour cette politique en précisant qu’elle n’interdit pas les menaces lorsqu’elles sont partagées dans des contextes de sensibilisation ou de condamnation.
En vertu du Standard de la communauté sur le contenu violent et explicite, le Conseil a recommandé à Meta d’« informer les utilisateurs d’Instagram lorsqu’elle applique un écran d’avertissement à leur contenu et de fournir la justification de la Politique applicable pour ce faire » (décision sur la Vidéo après l’attaque d’une église au Nigeria, recommandation n° 2). Meta a informé le Conseil de ses progrès concernant la mise en œuvre de cette recommandation. Meta a déclaré ce qui suit dans sa mise à jour du quatrième trimestre 2023 sur le Conseil : « Les personnes qui utilisent nos plateformes peuvent s’attendre à recevoir des informations plus détaillées sur les déterminations de mise en application et les mesures de sécurité prises concernant leur contenu, notamment l’apposition d’écrans d’avertissement. Sachant qu’il s’agit d’un élément essentiel de notre initiative plus étendue de mise en conformité, nous prévoyons de lancer une mise à jour plus complète au cours de l’année 2024 ».
En ce qui concerne le discours haineux, le Conseil a recommandé à Meta de « revoir le Standard de la communauté relatif au discours haineux afin de protéger explicitement les reportages journalistiques sur les insultes lorsque ces reportages, en particulier dans le contexte des élections, ne créent pas une atmosphère d’exclusion et/ou d’intimidation. Cette exception devrait être rendue publique et être distincte des exceptions “sensibilisation” et “condamnation” (décision sur le Différend politique à l’approche des élections turques, recommandation n° 1). Des progrès ont été notés concernant la mise en œuvre de cette recommandation. Une autre recommandation a également appelé Meta à « élaborer et publier des critères clairs destinés aux examinateurs de contenu afin qu’ils puissent soumettre à un examen supplémentaire les contenus d’intérêt public susceptibles d’enfreindre les Standards de la communauté » (décision sur les Protestations en Colombie, recommandation n° 3). Meta a expliqué qu’elle travaillait déjà sur cette recommandation, mais n’a pas publié d’informations afin d’en prouver la mise en place.
Le Conseil estime que l’application complète de ces recommandations pourrait contribuer à réduire le nombre d’erreurs d’application des politiques relatives à la violence et l’incitation, au contenu violent et explicite et aux discours haineux.
Décision
Le Conseil a annulé la décision initiale de Meta visant à supprimer le contenu. Le Conseil reconnaît que Meta a corrigé son erreur initiale une fois que le Conseil a porté le cas à son attention.
Retour aux décisions de cas et aux avis consultatifs politiques