Annonce des prochains cas du Conseil
15 mars 2022
Aujourd’hui, le Conseil annonce trois nouveaux cas à examiner : une vidéo en rapport avec la Croatie, une vidéo explicite représentant une personne civile victime de violences au Soudan, et une publication dont l’auteur tente de s’approprier certains mots arabes.
Sélection des cas
Puisque nous ne pouvons pas traiter tous les cas, le Conseil donne la priorité à ceux pouvant potentiellement toucher de nombreuses personnes à travers le monde, ayant une importance cruciale pour le débat public ou soulevant des questions majeures sur les règles de Meta.
Les cas que nous annonçons aujourd’hui sont les suivants :
Vidéo de Knin (2022-001-FB-UA)
Appel d’une personne pour la suppression d’un contenu de Facebook
Envoyez un commentaire public ici.
Au début du mois de décembre 2021, une Page Facebook publique se décrivant comme un portail d’informations sur la Croatie a publié une vidéo accompagnée d’une légende en croate. Meta a traduit la légende par « Le joueur de Čavoglave et les rats de Knin ». Čavoglave est un village croate, et Knin est une ville du même pays. La vidéo est une version éditée du dessin animé de Disney intitulé The Pied Piper. Elle dure 2 minutes et 10 secondes, et s’accompagne d’une voix off en croate. La vidéo comprend, en superposition, le mot « pretjerivač », qui semble faire référence à une plateforme en ligne du même nom où l’on partage des vidéos et d’autres types de contenus.
La vidéo dépeint une ville envahie par les rats. Dans le dessin animé original de Disney, le panneau situé à l’entrée de la ville indique son nom, « Hamelin ». Dans la vidéo, il est modifié et affiche le nom de la ville croate de Knin. Au début de la vidéo, une personne raconte que les rats et les humains vivaient dans la ville royale de Knin depuis de nombreuses années. Elle poursuit son récit en disant que les rats ont décidé de vivre dans un « pays de rats purs », et qu’ils ont commencé à harceler et à persécuter les habitants et les habitantes de la ville. Elle explique que lorsque les rats ont pris possession de la ville, un joueur de cornemuse du village croate de Čavoglave est apparu. Au début, les rats n’ont pas pris le joueur de cornemuse au sérieux et ont poursuivi « la grande agression des rats ». Cependant, après que le joueur de cornemuse a commencé à jouer de sa « flûte magique », les rats, captivés par la mélodie, ont commencé à chanter « leur chanson préférée » et ont suivi le joueur de cornemuse hors de la ville.
Meta a expliqué au Conseil que la mélodie du dessin animé est tirée d’une chanson folklorique bien connue dans les Balkans occidentaux. Nous avons traduit les paroles de la chanson chantée par les rats comme suit : « Quelle est cette chose qui brille sur le Dinara, la cocarde de Dujić sur sa tête [...] La liberté émergera du Dinara, et sera apportée par Momčilo le chef de guerre. » Meta a expliqué au Conseil que les paroles sont tirées d’une chanson dédiée à Momčilo Dujić, « un célèbre chef de guerre serbe de la Seconde Guerre mondiale ». La vidéo montre ensuite les habitants et les habitantes de la ville fermant la porte derrière le joueur de cornemuse et les rats. Elle se termine par le joueur de cornemuse rassemblant les rats dans un tracteur, qui disparaît ensuite. Enfin, la personne qui raconte l’histoire conclut qu’une fois que le joueur de flûte eut attiré tous les rats dans le « tracteur magique », les rats « disparurent pour toujours de ces terres » et « tout le monde vécut heureux pour toujours ». Plus de 50 000 personnes sont abonnées à la Page qui a partagé le contenu. Sur la plateforme, le contenu a été vu plus de 380 000 fois, partagé plus de 540 fois, et a suscité plus de 2 400 réactions et plus de 1 200 commentaires. La majorité des personnes qui ont réagi au contenu, l’ont commenté ou l’ont partagé ont des comptes basés en Croatie. Les autres sont basés en Allemagne et en Bosnie-Herzégovine.
Le contenu a été signalé 390 fois. Parmi ces signalements, 362 indiquaient un discours haineux. Cet appel au Conseil se fonde sur l’un de ces signalements, effectué depuis un compte basé, vraisemblablement, en Serbie. Sur la base de décisions cohérentes antérieures fondées sur un examen manuel, Meta a déterminé que le contenu n’enfreignait pas les Standards de la communauté Facebook et ne l’a pas supprimé. Meta a déclaré utiliser l’automatisation lorsque des signalements ultérieurs se produisent sur un contenu pour lequel une décision préalable a pu déjà être prise, afin d’éviter de réexaminer du contenu déjà examiné. Après que la personne qui avait signalé le contenu a fait appel de la décision de Meta, Meta a procédé à un examen manuel supplémentaire et a confirmé la décision initiale de conserver le contenu sur la plateforme.
La personne qui a signalé le contenu a envoyé son appel au Conseil en langue serbe. Elle commence par y déclarer que le joueur de flûte représente « l’armée croate, qui a persécuté les Serbes de Croatie ». Elle déclare également que les rats représentent les Serbes. Selon elle, Meta n’a pas évalué la vidéo correctement. Elle ajoute que la vidéo « favorise la haine fondée sur l’appartenance nationale et religieuse » dans les Balkans et ailleurs. Elle déclare également que « ce portail » propage « l’intolérance nationale entre deux nations aux douleurs encore vives ».
Fin janvier 2022, après sélection du cas par le Conseil, Meta a qualifié sa décision de maintenir le contenu sur la plateforme d’« erreur de mise en application » et l’a supprimé pour infraction aux règles en matière de discours haineux. Meta a expliqué que sa décision initiale était basée sur une quantité limitée de contexte disponible pour l’examen du contenu.
En vertu de son Standard de la communauté relatif au discours haineux, Meta retire le contenu ciblant une personne ou un groupe de personnes en fonction de l’origine ethnique et/ou de l’appartenance nationale par le biais « d’un discours ou d’images déshumanisants sous forme de comparaisons, de généralisations ou de déclarations (écrites ou visuelles) sur le comportement se rapportant à des animaux culturellement perçus comme inférieurs intellectuellement ou physiquement. » Meta a déclaré au Conseil qu’au vu du contexte historique du cas, la publication représente une attaque directe contre les Serbes en les comparant à des rats. Meta a conclu que le contenu crée un environnement d’intimidation et d’exclusion et qu’il peut également promouvoir un préjudice réel.
Dans sa déclaration au Conseil, la personne qui a publié le contenu a déclaré ne « pas être sûre du contenu » et qu’elle faisait partie de la page « uniquement en tant que personne associée aux activités à des fins publicitaires ». Meta ne considère pas la personne qui a publié le contenu comme une personnalité publique.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Comment la mise en application des règles relatives au contenu de Meta sur le discours haineux devrait-elle tenir compte du contexte local en Europe du Sud-Est, spécifiquement en Croatie, et de l’histoire conflictuelle de cette région ?
- Comment améliorer l’examen manuel de contenus complexes, en particulier sous forme de vidéo ?
- La nature du respect par Meta de ses responsabilités en matière de droits de la personne en ce qui concerne l’évitement ou l’atténuation des effets négatifs du discours haineux sur ses plateformes en Europe du Sud-Est, plus précisément en Croatie, et ses engagements à respecter la liberté d’expression.
- Le contexte historique, social, politique et culturel en Croatie, Serbie et Bosnie-Herzégovine et au sein des diasporas de ces pays concernant la nature, la prévalence et l’impact des discours haineux dans ces contextes.
Dans ses décisions, le Conseil peut fournir des recommandations de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. Le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
Vidéo explicite au Soudan (2022-002-FB-MR)
Cas soumis par Meta
Envoyez un commentaire public ici.
Le 21 décembre 2021, Meta a saisi le Conseil au sujet d’un cas concernant une vidéo explicite mettant en scène une personne civile victime de violences au Soudan. Le contenu a été publié sur la page de profil Facebook d’une personne à la suite d’un coup d’État militaire dans le pays survenu le 25 octobre 2021 et du début des manifestations contre la prise du pouvoir par l’armée. Les manifestations ont été accueillies avec violence, des journalistes, des militants et des militantes ayant fait l’objet d’attaques et d’arrestations par les forces de sécurité.
La vidéo montre une personne, probablement mineure, présentant une importante blessure à la tête, allongée à côté d’une voiture. On entend des voix dire en arabe que quelqu’un a été battu et laissé dans la rue. La publication comprend une légende, également en arabe, appelant la population à rester unie et à ne pas faire confiance aux militaires et s’accompagne de nombreux hashtags dont #DocumentingMilitaryAbuses (documenter les abus des militaires) et #CivilDisobedience (désobéissance civile). La publication a été vue moins de 1 000 fois et personne ne l’a signalée.
Les systèmes automatisés de Meta ont identifié le contenu comme étant potentiellement en infraction et, après examen, l’ont retiré pour infraction au Standard de la communauté en matière de contenu violent et explicite. La personne à l’origine de la publication a fait appel de cette décision de Meta. Meta a examiné la publication une nouvelle fois et a fait valoir son intérêt médiatique pour la restaurer. Meta a restauré la publication et en a profité pour placer un écran d’avertissement sur la vidéo, la signalant comme sensible et obligeant les utilisateurs et utilisatrices à cliquer pour voir le contenu. L’écran d’avertissement interdit aux personnes de moins de 18 ans de regarder la vidéo.
Dans le cadre de ses règles en matière de contenu violent et explicite, Meta déclare supprimer tout contenu qui « glorifie la violence ou promeut la souffrance », mais autorise le contenu explicite « pour sensibiliser le public ». Les règles interdisent de publier « des vidéos de personnes ou de cadavres dans un cadre non médical si elles représentent un démembrement ». En vertu de l’intérêt médiatique, Meta autorise le contenu en infraction sur ses plateformes « si le fait de le garder visible est dans l’intérêt du public ».
Dans sa saisine, Meta indique que la décision concernant le contenu est complexe, car elle met en évidence la tension entre la valeur d’intérêt public de la documentation des violations des droits de la personne et le risque de préjudice associé au partage d’un tel contenu explicite. Meta a également souligné l’importance de permettre aux utilisateurs et utilisatrices de documenter les violations des droits de la personne lors d’un coup d’État et lorsque l’accès à Internet dans le pays est restreint.
Le Conseil n’a pas reçu de déclaration de la personne ayant publié le contenu.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Les règles de Meta en matière de contenu violent et explicite offrent-elles une protection suffisante à celles et ceux qui documentent ou sensibilisent aux violations des droits de la personne ?
- Le respect par Meta de ses responsabilités en matière de droits de la personne concernant la modération du contenu explicite et violent, y compris la question de savoir si les droits de toutes les victimes sont également protégés et si elle protège suffisamment les droits des personnes survivantes victimes de traumatismes et des parents ou des proches des victimes concernées.
- La modération par Meta des contenus violents et explicites pendant les périodes de crise, de manifestations de masse ou de coupures d’Internet et les facteurs que Meta doit prendre en compte pour déterminer s’il faut supprimer ou appliquer des écrans d’avertissement et une limitation d’âge à ces contenus.
- Comment l’utilisation d’un écran d’avertissement sur les contenus explicites, notamment pour en restreindre l’accès aux personnes mineures, peut-elle affecter les droits des utilisateurs et des utilisatrices de Facebook (par exemple pour sensibiliser et documenter les abus, droit à la confidentialité, intégrité physique, santé physique et mentale) ?
- En quoi la modération du contenu par Meta, y compris l’utilisation de l’automatisation, a-t-elle un impact sur la liberté d’expression et la documentation des violations des droits de la personne pendant un conflit, et comment les impacts négatifs pourraient-ils être évités ou atténués ?
Dans ses décisions, le Conseil peut fournir des recommandations de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
Appropriation de mots arabes (2022-003-IG-UA)
Appel pour restaurer un contenu sur Instagram
Envoyez un commentaire public ici.
Remarque : afin de permettre aux personnes de commenter la nature et l’impact de cette publication, et de les aider à comprendre la décision finale du Conseil sur ce cas, nous partageons certains des mots exacts utilisés dans cette publication. Nous faisons cela dans un souci de transparence, tout en reconnaissant que certains termes cités peuvent être offensants.
En novembre 2021, un compte Instagram qui s’identifie comme un espace de discussion centré sur la communauté queer dans la culture arabe a posté une série de photos au format carrousel (une seule publication Instagram qui peut contenir jusqu’à dix images pour une seule légende). La légende explique que chaque image montre un mot différent qui peut être utilisé de manière péjorative à l’égard des hommes aux « manières efféminées » dans le monde arabe, notamment les termes « zamel », « foufou » et « tante »/« tanta ». La légende, rédigée à la fois en arabe et en anglais, indique que l’utilisateur à l’origine de la publication ne « cautionne ni n’encourage l’emploi de ces termes ». Celui-ci explique dans la publication qu’on l’avait qualifié de l’un de ces termes quand il était petit et que la publication avait pour but de « se réapproprier le pouvoir de ces termes blessants ». Le contenu a été vu environ 9 000 fois, a reçu une trentaine de commentaires et a suscité environ 2 000 réactions.
Dans les trois heures qui ont suivi la mise en ligne du contenu, quelqu’un l’a signalée pour cause de « nudité ou activités sexuelles d’adultes », et quelqu’un d’autre pour « sollicitation sexuelle ». Après avoir examiné chacun de ces signalements séparément, Meta a retiré le contenu pour infraction à ses règles en matière de discours haineux. L’utilisateur à l’origine de la publication a fait appel et Meta a restauré le contenu sur la plateforme. Après restauration du contenu, une troisième personne l’a signalé pour discours haineux et Meta a procédé à un quatrième examen aboutissant à une nouvelle suppression. Après un deuxième appel, Meta a confirmé sa décision de supprimer le contenu.
Dans sa déclaration au Conseil, Meta a expliqué avoir initialement retiré le contenu en vertu de ses règles en matière de discours haineux car « zamel » (زامل) est considéré comme un « terme péjoratif qualifiant les personnes homosexuelles », désigné par Meta comme une injure sur ses marchés arabes et maghrébins au moment où le contenu a été retiré. À la suite d’un audit sur l’utilisation du terme, le 23 février 2022, Meta l’a retiré de la « liste des injures en arabe », mais pas de celle « des injures pour la région du Maghreb ». Après six examens du contenu, Meta a déterminé qu’il n’enfreignait pas la règle relative aux discours haineux. Meta a expliqué que la suppression n’était pas judicieuse, car « l’utilisation de l’injure entrait dans le cadre de l’autorisation accordée par Meta aux contenus condamnant une injure ou un discours haineux, traitant de l’utilisation d’injures, notamment le signalement de cas où elles ont été utilisées, ou des débats sur le caractère acceptable de leur emploi ». Les six examens ont été effectués manuellement, par de véritables modérateurs et modératrices de contenu.
Dans son appel au Conseil, l’utilisateur déclare que son intention en postant le contenu était de faire honneur aux hommes et aux garçons efféminés dans la société arabe, qui sont souvent dénigrés par l’emploi de propos désobligeants. L’utilisateur explique également qu’il tentait de s’approprier les mots désobligeants utilisés à son encontre comme une forme de résistance et d’autonomisation. Selon lui, son contenu est autorisé par les règles relatives au contenu de Meta, qui permettent spécifiquement l’utilisation de termes autrement interdits lorsqu’ils sont utilisés de manière autoréférentielle ou dans un but d’autonomisation.
Le Conseil aimerait recevoir des commentaires publics sur les points suivants :
- Comment les Règles de la communauté Instagram et le Standard de la communauté Facebook en matière de discours haineux, notamment les règles relatives aux insultes, peuvent-ils protéger au mieux les personnes LGBTQ+ contre les attaques basées sur des insultes désobligeantes, tout en leur permettant de prendre part à un contre-discours qui pourrait utiliser les mêmes insultes ?
- L’obligation pour les utilisateurs et les utilisatrices d’« indiquer clairement leur intention » en cas d’utilisation de termes haineux pour condamner, sensibiliser ou responsabiliser, et si ou comment d’autres facteurs contextuels doivent être pris en compte lors de l’application de cette exception.
- Le respect par Meta de ses responsabilités en matière de droits de la personne à l’égard des utilisateurs et utilisatrices arabophones de ses produits qui appartiennent à la communauté LGBTQ+, en particulier celles et ceux qui se trouvent en Afrique du Nord et en Asie de l’Ouest.
- Les défis et risques auxquels sont confrontées les personnes LGBTQ+ exerçant leur droit à la liberté d’expression sur les produits de Meta en Afrique du Nord et en Asie de l’Ouest.
- Toute amélioration des produits et de l’approche de Meta en matière de modération de contenu qui renforcerait la protection des droits des personnes LGBTQ+ sur les plateformes de Meta, notamment en ce qui concerne le signalement de masse (également appelé « brigading »).
Dans ses décisions, le Conseil peut fournir des recommandations de politiques à Meta. Bien que ces recommandations ne soient pas contraignantes, Meta doit y répondre sous 60 jours. De ce fait, le Conseil appréciera tout commentaire public proposant des recommandations pertinentes pour ce cas.
Commentaires publics
Si vous ou votre organisation pensez que vous pouvez apporter un regard différent sur les cas mentionnés aujourd’hui et aider le Conseil à prendre une décision, envoyez vos contributions en utilisant les liens ci-dessus. Les commentaires publics pour ces cas seront ouverts jusqu’au mardi 29 mars 2022 à 15 h 00 GMT, soit pendant une période de 14 jours.
Et après ?
Dans les semaines à venir, les membres du Conseil délibéreront sur ces cas. Lorsqu’ils auront rendu leurs décisions finales, nous les publierons sur le site web du Conseil de surveillance. Pour recevoir des mises à jour lorsque le Conseil annonce de nouveaux cas ou publie des décisions, inscrivez-vous ici.